deepseek

DeepSeek v4

DeepSeek v4 è un modello MoE da 1,6T di parametri con una context window da 1M di tokens e supporto multimodal nativo per testo, visione e video a prezzi...

Open-sourceMultimodalMixture of ExpertsReasoningLong Context
deepseek logodeepseekDeepSeek-V2026-04-23
Contesto
1.0Mtoken
Output max
384Ktoken
Prezzo input
$1.74/ 1M
Prezzo output
$3.48/ 1M
Modalita:TextImageAudioVideo
Capacita:VisioneStrumentiStreamingRagionamento
Benchmark
GPQA
90.1%
GPQA: Domande scientifiche livello laurea. Un benchmark rigoroso con 448 domande su biologia, fisica e chimica. Gli esperti PhD raggiungono solo il 65-74% di accuratezza. DeepSeek v4 ha ottenuto 90.1% in questo benchmark.
HLE
48.2%
HLE: Ragionamento esperto di alto livello. Testa la capacita di un modello di dimostrare ragionamento a livello esperto in domini specializzati. DeepSeek v4 ha ottenuto 48.2% in questo benchmark.
MMLU
90.1%
MMLU: Comprensione linguistica multitask massiva. Un benchmark completo con 16.000 domande su 57 materie accademiche. DeepSeek v4 ha ottenuto 90.1% in questo benchmark.
MMLU Pro
87.5%
MMLU Pro: MMLU Edizione Professionale. Una versione migliorata di MMLU con 12.032 domande e un formato piu difficile a 10 opzioni. DeepSeek v4 ha ottenuto 87.5% in questo benchmark.
SimpleQA
57.9%
SimpleQA: Benchmark di accuratezza fattuale. Testa la capacita di un modello di fornire risposte accurate e fattuali. DeepSeek v4 ha ottenuto 57.9% in questo benchmark.
IFEval
89%
IFEval: Valutazione del seguire istruzioni. Misura quanto bene un modello segue istruzioni e vincoli specifici. DeepSeek v4 ha ottenuto 89% in questo benchmark.
AIME 2025
92%
AIME 2025: Esame di matematica invitazionale americano. Problemi matematici a livello competitivo dal prestigioso esame AIME. DeepSeek v4 ha ottenuto 92% in questo benchmark.
MATH
90.2%
MATH: Risoluzione di problemi matematici. Un benchmark matematico completo che testa la risoluzione di problemi in algebra, geometria, calcolo. DeepSeek v4 ha ottenuto 90.2% in questo benchmark.
GSM8k
92.6%
GSM8k: Matematica scuola elementare 8K. 8.500 problemi matematici a parole di livello scuola elementare. DeepSeek v4 ha ottenuto 92.6% in questo benchmark.
MGSM
92%
MGSM: Matematica multilingue scuola elementare. Il benchmark GSM8k tradotto in 10 lingue. DeepSeek v4 ha ottenuto 92% in questo benchmark.
MathVista
72%
MathVista: Ragionamento visivo matematico. Testa la capacita di risolvere problemi matematici con elementi visivi. DeepSeek v4 ha ottenuto 72% in questo benchmark.
SWE-Bench
80.6%
SWE-Bench: Benchmark ingegneria software. I modelli AI tentano di risolvere veri problemi GitHub in progetti Python. DeepSeek v4 ha ottenuto 80.6% in questo benchmark.
HumanEval
90%
HumanEval: Problemi di programmazione Python. 164 problemi di programmazione dove i modelli devono generare implementazioni corrette di funzioni Python. DeepSeek v4 ha ottenuto 90% in questo benchmark.
LiveCodeBench
93.5%
LiveCodeBench: Benchmark di codifica live. Testa le capacita di codifica su sfide di programmazione reali continuamente aggiornate. DeepSeek v4 ha ottenuto 93.5% in questo benchmark.
MMMU
70%
MMMU: Comprensione multimodale. Benchmark di comprensione multimodale su 30 materie universitarie. DeepSeek v4 ha ottenuto 70% in questo benchmark.
MMMU Pro
55%
MMMU Pro: MMMU Edizione Professionale. Versione migliorata di MMMU con domande piu impegnative. DeepSeek v4 ha ottenuto 55% in questo benchmark.
ChartQA
87%
ChartQA: Domande e risposte su grafici. Testa la capacita di comprendere e analizzare informazioni da grafici e diagrammi. DeepSeek v4 ha ottenuto 87% in questo benchmark.
DocVQA
92%
DocVQA: Domande visive su documenti. Testa la capacita di estrarre informazioni da immagini di documenti. DeepSeek v4 ha ottenuto 92% in questo benchmark.
Terminal-Bench
67.9%
Terminal-Bench: Attivita terminale/CLI. Testa la capacita di eseguire operazioni da linea di comando. DeepSeek v4 ha ottenuto 67.9% in questo benchmark.
ARC-AGI
77%
ARC-AGI: Astrazione e ragionamento. Testa l'intelligenza fluida attraverso nuovi puzzle di riconoscimento di pattern. DeepSeek v4 ha ottenuto 77% in questo benchmark.

Informazioni su DeepSeek v4

Scopri le capacita di DeepSeek v4, le funzionalita e come puo aiutarti a ottenere risultati migliori.

Architettura ad alta efficienza su scala di trilioni

DeepSeek v4 rappresenta un'evoluzione nel design Mixture-of-Experts (MoE), scalando a 1,6 trilioni di parametri totali con 49 miliardi di parametri attivi. Il modello integra Compressed Sparse Attention (CSA) e Heavily Compressed Attention (HCA) per gestire la sua context window da 1 milione di tokens. Queste tecnologie riducono l'impronta di memoria della cache KV del 90% rispetto alle architetture standard, consentendo una inference più rapida e requisiti hardware inferiori per attività a contesto lungo. ### Integrazione multimodal nativa A differenza dei modelli che utilizzano encoder di visione o audio separati, DeepSeek v4 è nativamente multimodal sin dalla fase di addestramento iniziale. Elabora testo, immagini, audio e video all'interno di un unico framework unificato. Questo approccio migliora il reasoning cross-modale, consentendo al modello di eseguire analisi complesse su file video grezzi e vasti archivi di documenti senza perdere dettagli granulari. ### Disruption strategica dei costi Il modello si posiziona come un'alternativa open-source performante ai modelli proprietari di fascia alta. Con un prezzo di 1,74 $ per milione di input tokens, mantiene prestazioni di livello frontier nel coding e nella matematica, riducendo significativamente i costi operativi per gli sviluppatori. L'inclusione di una Thinking Mode opzionale consente un deep reasoning per dimostrazioni logiche e programmazione competitiva.

DeepSeek v4

Casi d'uso per DeepSeek v4

Scopri i diversi modi in cui puoi usare DeepSeek v4 per ottenere ottimi risultati.

Refactoring di codebase su larga scala

Utilizzo della context window da 1M per acquisire intere repository per il rilevamento globale di bug e miglioramenti architettonici.

Analisi video nativa

Elaborazione diretta di file video grezzi per eseguire rilevamento di scene, generazione di trascrizioni e reasoning visivo complesso.

Agenti software autonomi

Implementazione del modello in flussi di lavoro agentic per risolvere problemi GitHub del mondo reale con un tasso di successo dell'80,6% su SWE-bench.

Creazione di contenuti multimodal

Generazione di dati strutturati e contenuti creativi su formati testo, immagine e audio utilizzando un unico modello unificato.

Dimostrazioni matematiche di alto livello

Risoluzione di problemi matematici di livello olimpico e dimostrazioni formali utilizzando la speciale Thinking Mode per il deep reasoning.

Recupero della conoscenza aziendale

Analisi di enormi archivi di documenti in un unico prompt per estrarre fatti senza bisogno di complesse pipeline RAG.

Punti di forza

Limitazioni

Long Context iper-efficiente: Riduce l'impronta della cache KV del 90%, consentendo una context window da 1M che rimane performante su hardware standard.
Maggiore latency della Thinking Mode: La modalità di deep reasoning aumenta il tempo per il primo token (time-to-first-token), rendendola meno adatta per esigenze conversazionali ultra-rapide.
Valore leader di mercato: Offre intelligenza di classe frontier a 1,74 $/M tokens, battendo significativamente i concorrenti closed-source occidentali.
Bias di ottimizzazione hardware: I rapporti tecnici suggeriscono che l'ottimizzazione sia fortemente adattata per specifici acceleratori domestici cinesi rispetto ai cluster Nvidia.
Coding agentic d'élite: Raggiunge l'80,6% su SWE-bench Verified, rendendolo uno dei modelli più capaci per l'ingegneria del software autonoma.
Lacune di fattualità: Ottiene un punteggio del 57,9% su SimpleQA, indicando che, sebbene il reasoning sia d'élite, l'allucinazione fattuale rimane una sfida.
Multimodalità nativa unificata: Supporta testo, visione, audio e video in un'unica architettura senza richiedere adattatori esterni o sub-model.
Requisiti complessi per la cache KV: Il meccanismo di attenzione ibrido HCA/CSA richiede un supporto kernel specifico per prestazioni locali ottimali.

Avvio rapido API

deepseek/deepseek-v4-pro

Visualizza documentazione
deepseek SDK
import OpenAI from 'openai';  const deepseek = new OpenAI({   baseURL: 'https://api.deepseek.com',   apiKey: process.env.DEEPSEEK_API_KEY, });  const msg = await deepseek.chat.completions.create({   model: 'deepseek-v4-pro',   messages: [{ role: 'user', content: 'Ottimizza questo kernel Rust per l'efficienza della memoria.' }], }); console.log(msg.choices[0].message.content);

Installa l'SDK e inizia a fare chiamate API in pochi minuti.

Cosa dice la gente su DeepSeek v4

Guarda cosa pensa la community di DeepSeek v4

La modalità di reasoning di DeepSeek v4 ha trovato un bug di concurrency nel mio codice Rust che persino Claude Opus ha mancato. Davvero folle.
rust_dev_2025
reddit
L'era del contesto da 1M conveniente è finalmente arrivata. Ora possiamo eseguire refactoring dell'intero progetto per pochi centesimi.
tech_lead_alex
twitter
Vedere il modello lavorare attraverso una codebase da 1M di tokens senza perdere l'orientamento è il vero punto di svolta per il 2026.
logic_fanatic
hackernews
Anthropic e OpenAI hanno ora un serio problema di prezzo. DeepSeek ha appena trasformato l'AI di frontiera in una commodity.
CodeMaster
youtube
Batte GPT-5.4 nei benchmark di coding pur essendo open-source. Questa è la più grande uscita dell'anno.
AI_Researcher_99
twitter
La compressione della memoria è la vera magia. 1T di parametri su hardware consumer-ish sta finalmente diventando realtà.
GPU_Rich
reddit

Video su DeepSeek v4

Guarda tutorial, recensioni e discussioni su DeepSeek v4

L'efficienza della memoria è il vero punto focale qui, ridurre la cache KV del 90% cambia tutto

Eseguire un modello da 1T con questo livello di velocità è una grande vittoria architettonica

Il costo per milione di tokens rende impossibile per le piccole startup ignorarlo

Non ho mai visto un modello open-source gestire 1 milione di tokens in modo così pulito

Sembra che il divario tra modelli open e closed si sia ufficialmente colmato

DeepSeek non compete più solo sul prezzo; sono leader nel reasoning su contesto lungo

Il supporto video nativo è sorprendentemente robusto rispetto a Gemini 2.0

Installarlo localmente è sorprendentemente facile se usi SGLang

I benchmark su HumanEval mostrano che è essenzialmente alla pari con GPT-5

La context window rende le pipeline RAG quasi superflue per progetti di medie dimensioni

Le prestazioni sui benchmark di coding sono attualmente ineguagliate da qualsiasi altro modello open-weight

Eguaglia o supera i migliori modelli closed nel refactoring di enormi codebase

L'implementazione della memoria engram è una meraviglia tecnica in questo spazio

Stiamo vedendo una precisione logica del 90% nella Thinking Mode per la matematica olimpica

Questa release democratizza efficacemente l'intelligenza da trilioni di parametri

Piu di semplici prompt

Potenzia il tuo workflow con l'automazione AI

Automatio combina la potenza degli agenti AI, dell'automazione web e delle integrazioni intelligenti per aiutarti a fare di piu in meno tempo.

Agenti AI
Automazione web
Workflow intelligenti

Consigli Pro per DeepSeek v4

Consigli esperti per aiutarti a ottenere il massimo da DeepSeek v4 e raggiungere risultati migliori.

Alterna le modalità di pensiero

Usa la modalità standard per chat rapide e riserva la Thinking Mode specificamente per coding e dimostrazioni logiche.

Sfrutta il caching del contesto

Utilizza le funzionalità integrate di context caching per ridurre i costi fino al 90% quando utilizzi prompt lunghi e ripetitivi.

Input multimodal diretto

Inserisci file audio e video grezzi direttamente nella API per beneficiare dell'architettura nativa invece di effettuare una trascrizione preliminare.

Ottimizzazione del system prompt

Fornisci schemi JSON chiari o istruzioni per l'uso di tool nel system prompt per un comportamento agentic altamente affidabile.

Testimonianze

Cosa dicono i nostri utenti

Unisciti a migliaia di utenti soddisfatti che hanno trasformato il loro workflow

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Correlati AI Models

anthropic

Claude Sonnet 4.6

Anthropic

Claude Sonnet 4.6 offers frontier performance for coding and computer use with a massive 1M token context window for only $3/1M tokens.

1M context
$3.00/$15.00/1M
google

Gemini 3 Flash

Google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
moonshot

Kimi k2.6

Moonshot

Kimi k2.6 is Moonshot AI's 1T-parameter MoE model featuring a 256K context window, native video input, and elite performance in autonomous agentic coding.

256K context
$0.95/$4.00/1M
anthropic

Claude Opus 4.6

Anthropic

Claude Opus 4.6 is Anthropic's flagship model featuring a 1M token context window, Adaptive Thinking, and world-class coding and reasoning performance.

1M context
$5.00/$25.00/1M
alibaba

Qwen3.5-397B-A17B

alibaba

Qwen3.5-397B-A17B is Alibaba's flagship open-weight MoE model. It features native multimodal reasoning, a 1M context window, and a 19x decoding throughput...

1M context
$0.40/$2.40/1M
google

Gemini 3 Pro

Google

Google's Gemini 3 Pro is a multimodal powerhouse featuring a 1M token context window, native video processing, and industry-leading reasoning performance.

1M context
$2.00/$12.00/1M
openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M

Domande frequenti su DeepSeek v4

Trova risposte alle domande comuni su DeepSeek v4