deepseek

DeepSeek v4

DeepSeek v4 es un modelo MoE de 1.6T de parámetros con una context window de 1M de tokens y soporte multimodal nativo para texto, visión y video a precios...

Open SourceMultimodalMixture of ExpertsReasoningLong Context
deepseek logodeepseekDeepSeek-V2026-04-23
Contexto
1.0Mtokens
Salida máx.
384Ktokens
Precio entrada
$1.74/ 1M
Precio salida
$3.48/ 1M
Modalidad:TextImageAudioVideo
Capacidades:VisiónHerramientasStreamingRazonamiento
Benchmarks
GPQA
90.1%
GPQA: Q&A Científico Nivel Posgrado. Un riguroso benchmark con 448 preguntas de opción múltiple en biología, física y química creadas por expertos. Los doctores solo logran 65-74% de precisión, mientras que los no expertos obtienen solo 34% incluso con acceso ilimitado a internet (por eso 'a prueba de Google'). DeepSeek v4 obtuvo 90.1% en este benchmark.
HLE
48.2%
HLE: Razonamiento de Alto Nivel de Experticia. Evalúa la capacidad de un modelo para demostrar razonamiento a nivel experto en dominios especializados. Evalúa la comprensión profunda de temas complejos que requieren conocimiento profesional. DeepSeek v4 obtuvo 48.2% en este benchmark.
MMLU
90.1%
MMLU: Comprensión Masiva Multitarea del Lenguaje. Un benchmark completo con 16,000 preguntas de opción múltiple en 57 materias académicas incluyendo matemáticas, filosofía, derecho y medicina. Evalúa conocimiento amplio y capacidades de razonamiento. DeepSeek v4 obtuvo 90.1% en este benchmark.
MMLU Pro
87.5%
MMLU Pro: MMLU Edición Profesional. Una versión mejorada de MMLU con 12,032 preguntas usando un formato más difícil de 10 opciones. Cubre Matemáticas, Física, Química, Derecho, Ingeniería, Economía, Salud, Psicología, Negocios, Biología, Filosofía e Informática. DeepSeek v4 obtuvo 87.5% en este benchmark.
SimpleQA
57.9%
SimpleQA: Benchmark de Precisión Factual. Evalúa la capacidad de un modelo para proporcionar respuestas precisas y factuales a preguntas directas. Mide la fiabilidad y reduce las alucinaciones en tareas de recuperación de conocimiento. DeepSeek v4 obtuvo 57.9% en este benchmark.
IFEval
89%
IFEval: Evaluación de Seguimiento de Instrucciones. Mide qué tan bien un modelo sigue instrucciones y restricciones específicas. Evalúa la capacidad de adherirse a reglas de formato, límites de longitud y otros requisitos explícitos. DeepSeek v4 obtuvo 89% en este benchmark.
AIME 2025
92%
AIME 2025: Examen de Matemáticas Invitacional Americano. Problemas de matemáticas a nivel de competencia del prestigioso examen AIME diseñado para estudiantes talentosos de secundaria. Evalúa resolución avanzada de problemas matemáticos que requiere razonamiento abstracto. DeepSeek v4 obtuvo 92% en este benchmark.
MATH
90.2%
MATH: Resolución de Problemas Matemáticos. Un benchmark completo de matemáticas que evalúa la resolución de problemas en álgebra, geometría, cálculo y otros dominios matemáticos. Requiere razonamiento en múltiples pasos y conocimiento matemático formal. DeepSeek v4 obtuvo 90.2% en este benchmark.
GSM8k
92.6%
GSM8k: Matemáticas de Primaria 8K. 8,500 problemas de matemáticas de nivel primaria que requieren razonamiento en múltiples pasos. Evalúa aritmética básica y pensamiento lógico a través de escenarios cotidianos. DeepSeek v4 obtuvo 92.6% en este benchmark.
MGSM
92%
MGSM: Matemáticas de Primaria Multilingüe. El benchmark GSM8k traducido a 10 idiomas incluyendo español, francés, alemán, ruso, chino y japonés. Evalúa el razonamiento matemático en diferentes idiomas. DeepSeek v4 obtuvo 92% en este benchmark.
MathVista
72%
MathVista: Razonamiento Visual Matemático. Evalúa la capacidad de resolver problemas matemáticos que involucran elementos visuales como gráficos, diagramas de geometría y figuras científicas. Combina comprensión visual con razonamiento matemático. DeepSeek v4 obtuvo 72% en este benchmark.
SWE-Bench
80.6%
SWE-Bench: Benchmark de Ingeniería de Software. Los modelos de IA intentan resolver issues reales de GitHub en proyectos Python de código abierto con verificación humana. Evalúa habilidades prácticas de ingeniería de software. Los mejores modelos pasaron de 4.4% (2023) a más del 70% (2024). DeepSeek v4 obtuvo 80.6% en este benchmark.
HumanEval
90%
HumanEval: Problemas de Programación Python. 164 problemas de programación escritos a mano donde los modelos deben generar implementaciones correctas de funciones Python. Cada solución se verifica con tests unitarios. Los mejores modelos ahora logran más del 90%. DeepSeek v4 obtuvo 90% en este benchmark.
LiveCodeBench
93.5%
LiveCodeBench: Benchmark de Codificación en Vivo. Evalúa habilidades de codificación con desafíos de programación del mundo real continuamente actualizados. A diferencia de benchmarks estáticos, usa problemas frescos para prevenir contaminación de datos. DeepSeek v4 obtuvo 93.5% en este benchmark.
MMMU
70%
MMMU: Comprensión Multimodal. Benchmark de Comprensión Multimodal Multidisciplinaria Masiva que evalúa modelos de visión-lenguaje en problemas universitarios en 30 materias que requieren tanto comprensión de imágenes como conocimiento experto. DeepSeek v4 obtuvo 70% en este benchmark.
MMMU Pro
55%
MMMU Pro: MMMU Edición Profesional. Versión mejorada de MMMU con preguntas más desafiantes y evaluación más estricta. Evalúa razonamiento multimodal avanzado a niveles profesional y experto. DeepSeek v4 obtuvo 55% en este benchmark.
ChartQA
87%
ChartQA: Respuesta a Preguntas sobre Gráficos. Evalúa la capacidad de comprender y razonar sobre información presentada en gráficos y diagramas. Requiere extracción de datos, comparación de valores y cálculos desde representaciones visuales. DeepSeek v4 obtuvo 87% en este benchmark.
DocVQA
92%
DocVQA: Q&A Visual de Documentos. Benchmark de Respuesta a Preguntas Visuales de Documentos que evalúa la capacidad de extraer y razonar sobre información de imágenes de documentos incluyendo formularios, reportes y texto escaneado. DeepSeek v4 obtuvo 92% en este benchmark.
Terminal-Bench
67.9%
Terminal-Bench: Tareas de Terminal/CLI. Evalúa la capacidad de realizar operaciones de línea de comandos, escribir scripts de shell y navegar en entornos de terminal. Mide habilidades prácticas de administración de sistemas y flujos de trabajo de desarrollo. DeepSeek v4 obtuvo 67.9% en este benchmark.
ARC-AGI
77%
ARC-AGI: Abstracción y Razonamiento. Corpus de Abstracción y Razonamiento para AGI - evalúa inteligencia fluida a través de puzzles de reconocimiento de patrones novedosos. Cada tarea requiere descubrir la regla subyacente a partir de ejemplos, midiendo capacidad de razonamiento general en lugar de memorización. DeepSeek v4 obtuvo 77% en este benchmark.

Acerca de DeepSeek v4

Conoce las capacidades, características y formas de uso de DeepSeek v4.

Arquitectura de billones de parámetros de alta eficiencia

DeepSeek v4 representa una evolución en el diseño de Mixture-of-Experts (MoE), escalando a 1.6 billones de parámetros totales con 49 mil millones de parámetros activos. El modelo integra Compressed Sparse Attention (CSA) y Heavily Compressed Attention (HCA) para gestionar su context window de 1 millón de tokens. Estas tecnologías reducen la huella de memoria del KV cache en un 90% en comparación con las arquitecturas estándar, permitiendo una inference más rápida y menores requisitos de hardware para tareas de long context.

Integración multimodal nativa

A diferencia de los modelos que utilizan codificadores de visión o audio separados, DeepSeek v4 es nativamente multimodal desde la fase de entrenamiento inicial. Procesa texto, imágenes, audio y video dentro de un marco unificado. Este enfoque mejora el razonamiento cross-modal, permitiendo al modelo realizar análisis complejos en archivos de video crudos y grandes archivos de documentos sin perder detalles granulares.

Disrupción estratégica de costos

El modelo se posiciona como una alternativa open-source de alto rendimiento a los modelos propietarios de primer nivel. Con un precio de $1.74 por millón de tokens de entrada, mantiene un rendimiento de nivel frontier en programación y matemáticas, al tiempo que reduce significativamente los costos operativos para los desarrolladores. La inclusión de un Thinking Mode opcional permite un razonamiento profundo para pruebas lógicas y programación competitiva.

DeepSeek v4

Casos de uso de DeepSeek v4

Descubre las diferentes formas de usar DeepSeek v4 para lograr excelentes resultados.

Refactorización de bases de código a gran escala

Utilizar la context window de 1M para ingerir repositorios completos para la detección global de errores y mejoras arquitectónicas.

Análisis de video nativo

Procesar archivos de video crudos directamente para realizar detección de escenas, generación de transcripciones y razonamiento visual complejo.

Agentes de software autónomos

Desplegar el modelo en flujos de trabajo agentic para resolver problemas reales de GitHub con una tasa de éxito del 80.6% en SWE-bench.

Creación de contenido multimodal

Generar datos estructurados y contenido creativo en formatos de texto, imagen y audio utilizando un modelo unificado.

Pruebas matemáticas de alto nivel

Resolver problemas matemáticos de nivel olímpico y pruebas formales utilizando el Thinking Mode especializado para un razonamiento profundo.

Recuperación de conocimiento empresarial

Analizar archivos masivos de documentos en un solo prompt para extraer datos sin necesidad de complejas pipelines de RAG.

Fortalezas

Limitaciones

Long Context hiper-eficiente: Reduce la huella de KV cache en un 90%, permitiendo una context window de 1M que mantiene el rendimiento en hardware estándar.
Mayor latencia en Thinking Mode: El modo de razonamiento profundo aumenta el tiempo hasta el primer token, haciéndolo menos adecuado para necesidades conversacionales ultrarrápidas.
Valor líder en el mercado: Ofrece inteligencia de clase frontier a $1.74/M tokens, superando significativamente a los competidores occidentales closed-source.
Sesgo de optimización de hardware: Los informes técnicos sugieren que la optimización está fuertemente adaptada para aceleradores domésticos chinos específicos sobre clusters de Nvidia.
Programación agentic de élite: Alcanza un 80.6% en SWE-bench Verified, convirtiéndolo en uno de los modelos más capaces para la ingeniería de software autónoma.
Brechas en la precisión factual: Obtiene un 57.9% en SimpleQA, lo que indica que, aunque el razonamiento es de élite, la alucinación factual sigue siendo un desafío.
Multimodalidad nativa unificada: Admite texto, visión, audio y video en una sola arquitectura sin necesidad de adaptadores externos o sub-modelos.
Requisitos complejos de KV cache: El mecanismo de atención híbrido HCA/CSA requiere soporte de kernel específico para un rendimiento local óptimo.

Inicio rápido de API

deepseek/deepseek-v4-pro

Ver documentación
deepseek SDK
import OpenAI from 'openai';  const deepseek = new OpenAI({   baseURL: 'https://api.deepseek.com',   apiKey: process.env.DEEPSEEK_API_KEY, });  const msg = await deepseek.chat.completions.create({   model: 'deepseek-v4-pro',   messages: [{ role: 'user', content: 'Optimize this Rust kernel for memory efficiency.' }], }); console.log(msg.choices[0].message.content);

Instala el SDK y comienza a hacer llamadas API en minutos.

Lo que la gente dice sobre DeepSeek v4

Mira lo que la comunidad piensa sobre DeepSeek v4

El modo de razonamiento de DeepSeek v4 encontró un bug de concurrencia en mi código Rust que incluso Claude Opus pasó por alto. Verdaderamente una locura.
rust_dev_2025
reddit
La era del long context de 1M rentable finalmente está aquí. Ahora podemos ejecutar refactorizaciones de proyectos completos por centavos.
tech_lead_alex
twitter
Ver al modelo trabajar a través de una base de código de 1M de tokens sin perder la 'aguja' es el verdadero punto de inflexión para 2026.
logic_fanatic
hackernews
Anthropic y OpenAI tienen un serio problema de precios ahora. DeepSeek acaba de convertir la IA de frontera en un commodity.
CodeMaster
youtube
Supera a GPT-5.4 en benchmarks de programación mientras es open-source. Este es el mayor lanzamiento del año.
AI_Researcher_99
twitter
La compresión de memoria es la verdadera magia. 1T de parámetros en hardware casi de consumo finalmente se está volviendo real.
GPU_Rich
reddit

Videos sobre DeepSeek v4

Mira tutoriales, reseñas y discusiones sobre DeepSeek v4

La eficiencia de memoria es la verdadera noticia aquí; reducir el KV cache en un 90% cambia todo

Ejecutar un modelo de 1T con este nivel de velocidad es un triunfo arquitectónico masivo

El costo por millón de tokens hace imposible que las pequeñas startups lo ignoren

Nunca he visto un modelo open-source manejar 1 millón de tokens con tanta limpieza

Se siente como si la brecha entre modelos open y closed se hubiera cerrado oficialmente

DeepSeek ya no solo compite por precio; lideran en razonamiento de long context

El soporte nativo de video es sorprendentemente robusto comparado con Gemini 2.0

Instalar esto localmente es sorprendentemente fácil si usas SGLang

Los benchmarks en HumanEval muestran que está esencialmente a la par con GPT-5

La context window hace que las pipelines de RAG sean casi redundantes para proyectos medianos

El rendimiento en benchmarks de programación es actualmente inigualable por cualquier otro modelo de pesos abiertos

Iguala o supera a los mejores modelos closed en refactorización masiva de bases de código

La implementación de memoria engram es una maravilla técnica en este espacio

Estamos viendo un 90% de precisión lógica en Thinking Mode para matemáticas olímpicas

Este lanzamiento democratiza efectivamente la inteligencia de un billón de parámetros

Mas que solo prompts

Potencia tu flujo de trabajo con Automatizacion IA

Automatio combina el poder de agentes de IA, automatizacion web e integraciones inteligentes para ayudarte a lograr mas en menos tiempo.

Agentes de IA
Automatización Web
Flujos Inteligentes

Consejos Pro para DeepSeek v4

Consejos de expertos para ayudarte a sacar el máximo provecho de DeepSeek v4.

Alternar los Thinking Modes

Usa el modo estándar para chats rápidos y reserva el Thinking Mode específicamente para programación y pruebas lógicas.

Aprovechar el context caching

Utiliza las funciones integradas de context caching para reducir costos hasta en un 90% al usar prompts de long context repetitivos.

Entrada multimodal directa

Envía archivos de audio y video crudos directamente a la API para beneficiarte de la arquitectura nativa en lugar de realizar una transcripción previa.

Optimización del system prompt

Proporciona esquemas JSON claros o instrucciones de uso de herramientas en el system prompt para un comportamiento agentic altamente confiable.

Testimonios

Lo Que Dicen Nuestros Usuarios

Unete a miles de usuarios satisfechos que han transformado su flujo de trabajo

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Relacionados AI Models

anthropic

Claude Sonnet 4.6

Anthropic

Claude Sonnet 4.6 offers frontier performance for coding and computer use with a massive 1M token context window for only $3/1M tokens.

1M context
$3.00/$15.00/1M
google

Gemini 3 Flash

Google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
moonshot

Kimi k2.6

Moonshot

Kimi k2.6 is Moonshot AI's 1T-parameter MoE model featuring a 256K context window, native video input, and elite performance in autonomous agentic coding.

256K context
$0.95/$4.00/1M
anthropic

Claude Opus 4.6

Anthropic

Claude Opus 4.6 is Anthropic's flagship model featuring a 1M token context window, Adaptive Thinking, and world-class coding and reasoning performance.

1M context
$5.00/$25.00/1M
alibaba

Qwen3.5-397B-A17B

alibaba

Qwen3.5-397B-A17B is Alibaba's flagship open-weight MoE model. It features native multimodal reasoning, a 1M context window, and a 19x decoding throughput...

1M context
$0.40/$2.40/1M
google

Gemini 3 Pro

Google

Google's Gemini 3 Pro is a multimodal powerhouse featuring a 1M token context window, native video processing, and industry-leading reasoning performance.

1M context
$2.00/$12.00/1M
openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M

Preguntas Frecuentes Sobre DeepSeek v4

Encuentra respuestas a preguntas comunes sobre DeepSeek v4