alibaba

Qwen3.5-397B-A17B

Qwen3.5-397B-A17B è il model flagship open-weight MoE di Alibaba. Include native multimodal reasoning, una context window da 1M e un decoding throughput 19...

MultimodalMoEOpen-WeightsAgentic AIReasoning
alibaba logoalibabaQwen2026-02-16
Contesto
1.0Mtoken
Output max
8Ktoken
Prezzo input
$0.60/ 1M
Prezzo output
$3.60/ 1M
Modalita:TextImageVideo
Capacita:VisioneStrumentiStreamingRagionamento
Benchmark
GPQA
88.4%
GPQA: Domande scientifiche livello laurea. Un benchmark rigoroso con 448 domande su biologia, fisica e chimica. Gli esperti PhD raggiungono solo il 65-74% di accuratezza. Qwen3.5-397B-A17B ha ottenuto 88.4% in questo benchmark.
HLE
28.7%
HLE: Ragionamento esperto di alto livello. Testa la capacita di un modello di dimostrare ragionamento a livello esperto in domini specializzati. Qwen3.5-397B-A17B ha ottenuto 28.7% in questo benchmark.
MMLU
88.6%
MMLU: Comprensione linguistica multitask massiva. Un benchmark completo con 16.000 domande su 57 materie accademiche. Qwen3.5-397B-A17B ha ottenuto 88.6% in questo benchmark.
MMLU Pro
87.8%
MMLU Pro: MMLU Edizione Professionale. Una versione migliorata di MMLU con 12.032 domande e un formato piu difficile a 10 opzioni. Qwen3.5-397B-A17B ha ottenuto 87.8% in questo benchmark.
SimpleQA
48%
SimpleQA: Benchmark di accuratezza fattuale. Testa la capacita di un modello di fornire risposte accurate e fattuali. Qwen3.5-397B-A17B ha ottenuto 48% in questo benchmark.
IFEval
92.6%
IFEval: Valutazione del seguire istruzioni. Misura quanto bene un modello segue istruzioni e vincoli specifici. Qwen3.5-397B-A17B ha ottenuto 92.6% in questo benchmark.
AIME 2025
91.3%
AIME 2025: Esame di matematica invitazionale americano. Problemi matematici a livello competitivo dal prestigioso esame AIME. Qwen3.5-397B-A17B ha ottenuto 91.3% in questo benchmark.
MATH
74.1%
MATH: Risoluzione di problemi matematici. Un benchmark matematico completo che testa la risoluzione di problemi in algebra, geometria, calcolo. Qwen3.5-397B-A17B ha ottenuto 74.1% in questo benchmark.
GSM8k
93.7%
GSM8k: Matematica scuola elementare 8K. 8.500 problemi matematici a parole di livello scuola elementare. Qwen3.5-397B-A17B ha ottenuto 93.7% in questo benchmark.
MGSM
92.1%
MGSM: Matematica multilingue scuola elementare. Il benchmark GSM8k tradotto in 10 lingue. Qwen3.5-397B-A17B ha ottenuto 92.1% in questo benchmark.
MathVista
90.3%
MathVista: Ragionamento visivo matematico. Testa la capacita di risolvere problemi matematici con elementi visivi. Qwen3.5-397B-A17B ha ottenuto 90.3% in questo benchmark.
SWE-Bench
76.4%
SWE-Bench: Benchmark ingegneria software. I modelli AI tentano di risolvere veri problemi GitHub in progetti Python. Qwen3.5-397B-A17B ha ottenuto 76.4% in questo benchmark.
HumanEval
79.3%
HumanEval: Problemi di programmazione Python. 164 problemi di programmazione dove i modelli devono generare implementazioni corrette di funzioni Python. Qwen3.5-397B-A17B ha ottenuto 79.3% in questo benchmark.
LiveCodeBench
83.6%
LiveCodeBench: Benchmark di codifica live. Testa le capacita di codifica su sfide di programmazione reali continuamente aggiornate. Qwen3.5-397B-A17B ha ottenuto 83.6% in questo benchmark.
MMMU
85%
MMMU: Comprensione multimodale. Benchmark di comprensione multimodale su 30 materie universitarie. Qwen3.5-397B-A17B ha ottenuto 85% in questo benchmark.
MMMU Pro
79%
MMMU Pro: MMMU Edizione Professionale. Versione migliorata di MMMU con domande piu impegnative. Qwen3.5-397B-A17B ha ottenuto 79% in questo benchmark.
ChartQA
86.5%
ChartQA: Domande e risposte su grafici. Testa la capacita di comprendere e analizzare informazioni da grafici e diagrammi. Qwen3.5-397B-A17B ha ottenuto 86.5% in questo benchmark.
DocVQA
93.2%
DocVQA: Domande visive su documenti. Testa la capacita di estrarre informazioni da immagini di documenti. Qwen3.5-397B-A17B ha ottenuto 93.2% in questo benchmark.
Terminal-Bench
52.5%
Terminal-Bench: Attivita terminale/CLI. Testa la capacita di eseguire operazioni da linea di comando. Qwen3.5-397B-A17B ha ottenuto 52.5% in questo benchmark.
ARC-AGI
12%
ARC-AGI: Astrazione e ragionamento. Testa l'intelligenza fluida attraverso nuovi puzzle di riconoscimento di pattern. Qwen3.5-397B-A17B ha ottenuto 12% in questo benchmark.

Informazioni su Qwen3.5-397B-A17B

Scopri le capacita di Qwen3.5-397B-A17B, le funzionalita e come puo aiutarti a ottenere risultati migliori.

Un salto monumentale nell'Open AI

Qwen3.5-397B-A17B rappresenta un salto monumentale nella strategia AI di Alibaba Cloud, passando da un forte sfidante open-source a un sistema dominante di livello frontier progettato per l'era della agentic AI. Rilasciato il 16 febbraio 2026, è il flagship della serie Qwen3.5, che utilizza una massiccia architettura Mixture-of-Experts (MoE) da 397 miliardi di parametri. Attivando solo 17 miliardi di parametri per token, ottiene un incremento senza precedenti del 19x decoding throughput rispetto al suo predecessore, Qwen3-Max, riducendo al contempo il gap di performance con i model proprietari più avanzati al mondo.

Centrale Multimodale Unificata

Il model è una potenza multimodal nativa e unificata. A differenza delle versioni precedenti che richiedevano adattatori vision-language separati, Qwen3.5 presenta una early-fusion multimodality addestrata su trilioni di token multimodali. Ciò gli consente di guardare e ragionare su oltre due ore di contenuti video, operare come un GUI agent su interfacce desktop e mobili e gestire complessi task di coding nella sua modalità specializzata Thinking. Con un vocabolario espanso di 250.000 token che supporta 201 lingue, si pone come la scelta globale di eccellenza per l'automazione multilingue e multimodale.

Architettato per l'Era Agentica

Oltre alla semplice chat, Qwen3.5-397B è ottimizzato per il tool use e i workflow autonomi. I suoi punteggi elevati nei benchmark di function-calling e nella instruction following lo rendono un backbone ideale per la visual software engineering e la ricerca di livello PhD. Offrendo performance state-of-the-art sotto una licenza Apache 2.0, Alibaba ha fornito alla community un'alternativa credibile e ad alta efficienza ai model closed-source più restrittivi.

Qwen3.5-397B-A17B

Casi d'uso per Qwen3.5-397B-A17B

Scopri i diversi modi in cui puoi usare Qwen3.5-397B-A17B per ottenere ottimi risultati.

Agenti GUI Autonomi

Naviga interfacce complesse di PC e smartphone per completare workflow di automazione d'ufficio multi-step.

Video Intelligence a Lungo Formato

Estrae reasoning causale profondo e riassunti da file video continui lunghi fino a 120 minuti.

Vibe Coding e Prototipazione

Traduce schizzi di UI direttamente in codice React pronto per la produzione e logic frontend in un unico passaggio.

Ricerca di Livello PhD

Risolve problemi STEM di livello avanzato utilizzando la modalità specializzata di internal chain-of-thought Thinking.

Supporto Globale Multilingue

Interagisce con gli utenti in 201 lingue con un'efficienza di tokenization superiore per gli script non inglesi.

Visual Software Engineering

Trasforma wireframe e screenshot in codice HTML, CSS e JavaScript pulito e consapevole del layout.

Punti di forza

Limitazioni

Efficienza di Inference: Raggiunge incrementi di 19x nel decoding throughput attivando solo 17B di parameters tramite la sua architettura MoE ibrida.
Massiva Richiesta Hardware: Con 397B di parameters totali, l'esecuzione locale di versioni non quantizzate richiede infrastrutture di livello server di fascia alta.
Native Video Reasoning: Elabora nativamente fino a 120 minuti di video continuo senza la necessità di adattatori per l'estrazione dei frame.
Gap nella Modalità Audio: Manca delle capacità native di input e output audio presenti nei model 'omni' come GPT-4o o Gemini.
Capacità STEM di Alto Livello: Competi con i model di reasoning proprietari con un punteggio dell'88,4% su GPQA e del 91,3% negli esami di matematica AIME 2025.
Gap di Performance in HLE: Segue i leader proprietari in Humanity's Last Exam (28,7%), indicando lacune nelle conoscenze specialistiche di nicchia.
Accessibilità Open-Weight: Fornisce intelligenza multimodal di livello frontier sotto licenza Apache 2.0 per implementazioni aziendali private.
Impronta di Memoria: La scala massiccia richiede una VRAM sostanziale anche con la sparsity, limitando la diffusione a livello consumer.

Avvio rapido API

alibaba/qwen-3.5-plus

Visualizza documentazione
alibaba SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: process.env.DASHSCOPE_API_KEY,
  baseURL: 'https://dashscope-intl.aliyuncs.com/compatible-mode/v1',
});

async function main() {
  const completion = await client.chat.completions.create({
    model: 'qwen-3.5-397b-instruct',
    messages: [{ role: 'user', content: 'Analyze this 2-hour video context.' }],
    extra_body: { enable_thinking: true },
  });
  console.log(completion.choices[0].message.content);
}

main();

Installa l'SDK e inizia a fare chiamate API in pochi minuti.

Cosa dice la gente su Qwen3.5-397B-A17B

Guarda cosa pensa la community di Qwen3.5-397B-A17B

Qwen3.5-397B è fondamentalmente la risposta della community open-source a GPT-4o. La capacità SVG da sola è pazzesca per il web design.
u/LLM_Reviewer
reddit
L'incremento di 19x del throughput rende Qwen3.5 significativamente più reattivo di qualsiasi altro model di queste dimensioni che abbia testato.
tech_enthusiast_99
reddit
Apache 2.0 per un model così grande è una svolta totale per lo sviluppo AI locale e per le imprese focalizzate sulla privacy.
TechInnovator88
twitter
Il routing MoE nel model 3.5-397B è notevolmente più intelligente rispetto alla precedente generazione 2.5; segue effettivamente la logica.
DistanceSolar1449
reddit
Una context window da 1M su un model open-weight di questo calibro non ha precedenti nell'ecosistema attuale.
dev_logic
hackernews
Il video reasoning non è solo fotogramma per fotogramma; è una vera comprensione temporale che sembra molto più avanti rispetto agli attuali vision LLM.
Matthew Berman (Context)
youtube

Video su Qwen3.5-397B-A17B

Guarda tutorial, recensioni e discussioni su Qwen3.5-397B-A17B

Batte Claude Opus 4.5 nella navigazione browser e Gemini 3 Pro in diversi task multimodal.

Risulta 19 volte più veloce di Qwen 3 Max e supporta 201 lingue e dialetti.

Ha fatto un ottimo lavoro con la farfalla fotorealistica... meglio della maggior parte dei model open-source.

Il model 397B è essenzialmente il primo model open-weights a competere davvero alla frontiera dell'AGI.

Lo scaling con MoE sta chiaramente funzionando per Alibaba e i risultati degli ultimi benchmark lo dimostrano.

Questo model eguaglia ciò che Qwen Max era in grado di fare... ma con un incremento di velocità fino a 19x.

Il tokenizer ha raggiunto un vocabolario di 250K... eguagliando quello di Gemini e di Google.

Bisogna considerare il team di Qwen come un Frontier Lab... stanno affrontando task su cui si concentrano i laboratori proprietari.

La tokenization è molto più efficiente per gli script non latini rispetto alle precedenti iterazioni di Llama.

La modalità Thinking aggiunge una latency significativa, ma il guadagno in accuratezza ne vale la pena per coding e reasoning.

Si tratta di un vision language model unificato... dove i model precedenti avevano una variante VL specifica, questo contiene tutto in un unico model.

La comprensione video gli permette di cogliere dettagli temporali che i metodi di estrazione dei frame trascurano.

In termini di coding, sembra reattivo quanto il model GPT-4o ma con una migliore instruction following.

La capacità come agente GUI desktop è la caratteristica distintiva per l'automazione nel mondo reale.

Gestisce 120 minuti di video senza perdere il context, il che è enorme per l'analisi.

Piu di semplici prompt

Potenzia il tuo workflow con l'automazione AI

Automatio combina la potenza degli agenti AI, dell'automazione web e delle integrazioni intelligenti per aiutarti a fare di piu in meno tempo.

Agenti AI
Automazione web
Workflow intelligenti

Consigli Pro per Qwen3.5-397B-A17B

Consigli esperti per aiutarti a ottenere il massimo da Qwen3.5-397B-A17B e raggiungere risultati migliori.

Attiva la Modalità Thinking

Usa il parametro enable_thinking per task ad alta intensità di logic per attivare percorsi di reasoning interno profondi.

Sfrutta la Ricerca Nativa

Abilita il parametro search body per verificare i fatti rispetto ai dati web in tempo reale ed eseguire codice python.

Ottimizza i Prompt Video

Fornisci specifici ancoraggi temporali per focalizzare la context window da 1M di token sui segmenti più rilevanti.

Selezione dell'Endpoint Regionale

Usa l'endpoint dashscope-intl per gli utenti al di fuori della Cina continentale per ridurre la latency di rete.

Testimonianze

Cosa dicono i nostri utenti

Unisciti a migliaia di utenti soddisfatti che hanno trasformato il loro workflow

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Correlati AI Models

openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

262K context
$0.60/$2.50/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
anthropic

Claude Sonnet 4.6

Anthropic

Claude Sonnet 4.6 offers frontier performance for coding and computer use with a massive 1M token context window for only $3/1M tokens.

1M context
$3.00/$15.00/1M
google

Gemini 3 Flash

Google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
anthropic

Claude Opus 4.6

Anthropic

Claude Opus 4.6 is Anthropic's flagship model featuring a 1M token context window, Adaptive Thinking, and world-class coding and reasoning performance.

200K context
$5.00/$25.00/1M
zhipu

GLM-4.7

Zhipu (GLM)

GLM-4.7 by Zhipu AI is a flagship 358B MoE model featuring a 200K context window, elite 73.8% SWE-bench performance, and native Deep Thinking for agentic...

200K context
$0.60/$2.20/1M

Domande frequenti su Qwen3.5-397B-A17B

Trova risposte alle domande comuni su Qwen3.5-397B-A17B