alibaba

Qwen3.5-397B-A17B

Qwen3.5-397B-A17B to flagowy model MoE od Alibaba z open-weight. Posiada natywny reasoning multimodalny, context window 1M oraz 19-krotnie wyższy throughput...

MultimodalnyMoEOpen-WeightsAgentic AIReasoning
alibaba logoalibabaQwen2026-02-16
Kontekst
1.0Mtokenow
Maks. wyjscie
8Ktokenow
Cena wejscia
$0.60/ 1M
Cena wyjscia
$3.60/ 1M
Modalnosc:TextImageVideo
Mozliwosci:WizjaNarzedziaStreamingRozumowanie
Benchmarki
GPQA
88.4%
GPQA: Pytania naukowe poziomu doktoranckiego. Rygorystyczny benchmark z 448 pytaniami z biologii, fizyki i chemii. Eksperci PhD osiagaja tylko 65-74% dokładnosci. Qwen3.5-397B-A17B uzyskal 88.4% w tym benchmarku.
HLE
28.7%
HLE: Rozumowanie eksperckie wysokiego poziomu. Testuje zdolnosc modelu do demonstrowania rozumowania na poziomie eksperta w specjalistycznych dziedzinach. Qwen3.5-397B-A17B uzyskal 28.7% w tym benchmarku.
MMLU
88.6%
MMLU: Masowe wielozadaniowe rozumienie jezyka. Kompleksowy benchmark z 16 000 pytan z 57 przedmiotow akademickich. Qwen3.5-397B-A17B uzyskal 88.6% w tym benchmarku.
MMLU Pro
87.8%
MMLU Pro: MMLU Edycja Profesjonalna. Ulepszona wersja MMLU z 12 032 pytaniami i trudniejszym formatem 10 opcji. Qwen3.5-397B-A17B uzyskal 87.8% w tym benchmarku.
SimpleQA
48%
SimpleQA: Benchmark dokładnosci faktycznej. Testuje zdolnosc modelu do udzielania dokladnych, faktycznych odpowiedzi. Qwen3.5-397B-A17B uzyskal 48% w tym benchmarku.
IFEval
92.6%
IFEval: Ocena przestrzegania instrukcji. Mierzy jak dobrze model przestrzega konkretnych instrukcji i ograniczen. Qwen3.5-397B-A17B uzyskal 92.6% w tym benchmarku.
AIME 2025
91.3%
AIME 2025: Amerykanski Zaproszeniowy Egzamin Matematyczny. Zadania matematyczne poziomu konkursowego z prestizowego egzaminu AIME. Qwen3.5-397B-A17B uzyskal 91.3% w tym benchmarku.
MATH
74.1%
MATH: Rozwiazywanie problemow matematycznych. Kompleksowy benchmark matematyczny testujacy rozwiazywanie problemow z algebry, geometrii, analizy. Qwen3.5-397B-A17B uzyskal 74.1% w tym benchmarku.
GSM8k
93.7%
GSM8k: Matematyka szkoly podstawowej 8K. 8 500 zadan matematycznych poziomu szkoly podstawowej. Qwen3.5-397B-A17B uzyskal 93.7% w tym benchmarku.
MGSM
92.1%
MGSM: Wielojezyczna matematyka szkolna. Benchmark GSM8k przetlumaczony na 10 jezykow. Qwen3.5-397B-A17B uzyskal 92.1% w tym benchmarku.
MathVista
90.3%
MathVista: Matematyczne rozumowanie wizualne. Testuje zdolnosc rozwiazywania problemow matematycznych z elementami wizualnymi. Qwen3.5-397B-A17B uzyskal 90.3% w tym benchmarku.
SWE-Bench
76.4%
SWE-Bench: Benchmark inzynierii oprogramowania. Modele AI probuja rozwiazac prawdziwe problemy GitHub w projektach Python. Qwen3.5-397B-A17B uzyskal 76.4% w tym benchmarku.
HumanEval
79.3%
HumanEval: Zadania programistyczne Python. 164 zadania programistyczne, gdzie modele musza generowac poprawne implementacje funkcji Python. Qwen3.5-397B-A17B uzyskal 79.3% w tym benchmarku.
LiveCodeBench
83.6%
LiveCodeBench: Benchmark programowania na zywo. Testuje umiejetnosci programowania na ciagle aktualizowanych, rzeczywistych wyzwaniach. Qwen3.5-397B-A17B uzyskal 83.6% w tym benchmarku.
MMMU
85%
MMMU: Rozumienie multimodalne. Benchmark rozumienia multimodalnego z 30 przedmiotow uniwersyteckich. Qwen3.5-397B-A17B uzyskal 85% w tym benchmarku.
MMMU Pro
79%
MMMU Pro: MMMU Edycja Profesjonalna. Ulepszona wersja MMMU z trudniejszymi pytaniami. Qwen3.5-397B-A17B uzyskal 79% w tym benchmarku.
ChartQA
86.5%
ChartQA: Pytania i odpowiedzi o wykresach. Testuje zdolnosc rozumienia i analizowania informacji z wykresow i diagramow. Qwen3.5-397B-A17B uzyskal 86.5% w tym benchmarku.
DocVQA
93.2%
DocVQA: Wizualne pytania o dokumentach. Testuje zdolnosc wydobywania informacji z obrazow dokumentow. Qwen3.5-397B-A17B uzyskal 93.2% w tym benchmarku.
Terminal-Bench
52.5%
Terminal-Bench: Zadania terminal/CLI. Testuje zdolnosc wykonywania operacji wiersza polecen. Qwen3.5-397B-A17B uzyskal 52.5% w tym benchmarku.
ARC-AGI
12%
ARC-AGI: Abstrakcja i rozumowanie. Testuje plynna inteligencje poprzez nowe lamiglowki rozpoznawania wzorow. Qwen3.5-397B-A17B uzyskal 12% w tym benchmarku.

O Qwen3.5-397B-A17B

Dowiedz sie o mozliwosciach Qwen3.5-397B-A17B, funkcjach i jak moze pomoc Ci osiagnac lepsze wyniki.

Monumentalny krok w otwartym AI

Qwen3.5-397B-A17B stanowi milowy krok w strategii AI Alibaba Cloud, przekształcając się z silnego gracza open-source w dominujący system klasy frontier model, zaprojektowany dla ery agentic AI. Wydany 16 lutego 2026 roku, jest flagowym produktem serii Qwen3.5, wykorzystującym potężną architekturę Mixture-of-Experts (MoE) z 397 miliardami parametrów. Aktywując zaledwie 17 miliardów parametrów na token, osiąga bezprecedensowy, 19-krotny wzrost throughput dekodowania w porównaniu do swojego poprzednika, Qwen3-Max, jednocześnie niwelując różnicę wydajności względem najbardziej zaawansowanych modeli zamkniętych.

Zunifikowana potęga multimodalna

Model jest natywnym, zunifikowanym systemem multimodalnym. W przeciwieństwie do poprzednich wersji, które wymagały osobnych adapterów vision-language, Qwen3.5 charakteryzuje się multimodalnością typu early-fusion, trenowaną na bilionach tokenów multimodalnych. Pozwala to modelowi analizować i wyciągać wnioski z ponad dwóch godzin materiałów wideo, działać jako agent GUI w interfejsach desktopowych i mobilnych oraz realizować złożone zadania programistyczne w specjalistycznym trybie Thinking. Dzięki rozszerzonemu słownikowi 250 000 tokenów obsługującemu 201 języków, jest to wiodący wybór dla globalnej automatyzacji wielojęzycznej i multimodalnej.

Zaprojektowany dla ery Agentic

Poza prostym czatem, Qwen3.5-397B został zoptymalizowany pod kątem tool use i autonomicznych przepływów pracy. Wysokie wyniki w benchmarkach function-calling i instruction following czynią go idealnym fundamentem dla wizualnej inżynierii oprogramowania oraz badań naukowych na poziomie PhD. Oferując wydajność typu state-of-the-art na licencji Apache 2.0, Alibaba dostarczyła społeczności wiarygodną i wysoce wydajną alternatywę dla najbardziej restrykcyjnych modeli closed-source.

Qwen3.5-397B-A17B

Przypadki uzycia dla Qwen3.5-397B-A17B

Odkryj rozne sposoby wykorzystania Qwen3.5-397B-A17B do osiagniecia swietnych wynikow.

Autonomiczni agenci GUI

Nawiguje po złożonych interfejsach komputerów i smartfonów, aby realizować wieloetapowe przepływy pracy w automatyzacji biurowej.

Inteligencja wideo długoformatowego

Wyciąga głębokie wnioski przyczynowo-skutkowe i tworzy podsumowania z ciągłych plików wideo o długości do 120 minut.

Vibe Coding i prototypowanie

Przekłada szkice UI bezpośrednio na gotowy do wdrożenia kod React i logikę frontendową w trybie single-shot.

Badania naukowe na poziomie PhD

Rozwiązuje problemy STEM na poziomie akademickim, wykorzystując wyspecjalizowany, wewnętrzny tryb Thinking typu chain-of-thought.

Globalne wsparcie wielojęzyczne

Obsługuje użytkowników w 201 językach z najwyższą wydajnością tokenizacji dla alfabetów niełacińskich.

Wizualna inżynieria oprogramowania

Transformuje makiety i zrzuty ekranu w czysty, responsywny kod HTML, CSS i JavaScript.

Mocne strony

Ograniczenia

Wydajność procesów inference: Osiąga 19-krotny wzrost throughput dekodowania dzięki aktywacji zaledwie 17B parameters w ramach hybrydowej architektury MoE.
Ogromne wymagania sprzętowe: Przy 397B wszystkich parameters, uruchamianie niekwantyzowanych wersji lokalnie wymaga zaawansowanej infrastruktury serwerowej.
Natywny reasoning wideo: Przetwarza do 120 minut ciągłego materiału wideo natywnie, bez potrzeby stosowania adapterów do ekstrakcji klatek.
Brak modalności audio: Nie posiada natywnych funkcji wejścia i wyjścia audio, które są dostępne w modelach typu 'omni', takich jak GPT-4o czy Gemini.
Najwyższej klasy zdolności STEM: Rywalizuje z zamkniętymi modelami reasoning, osiągając wynik 88,4% w GPQA i 91,3% w egzaminach matematycznych AIME 2025.
Luka wydajności w HLE: Ustępuje zamkniętym liderom w teście Humanity's Last Exam (28,7%), co wskazuje na braki w niszowej wiedzy eksperckiej.
Dostępność open-weight: Dostarcza multimodalną inteligencję na poziomie frontier model na licencji Apache 2.0 do prywatnych wdrożeń korporacyjnych.
Zużycie pamięci: Skala modelu wymaga ogromnej ilości VRAM nawet przy zastosowaniu rzadkości (sparsity), co ogranicza szerokie wdrożenia konsumenckie.

Szybki start API

alibaba/qwen-3.5-plus

Zobacz dokumentacje
alibaba SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: process.env.DASHSCOPE_API_KEY,
  baseURL: 'https://dashscope-intl.aliyuncs.com/compatible-mode/v1',
});

async function main() {
  const completion = await client.chat.completions.create({
    model: 'qwen-3.5-397b-instruct',
    messages: [{ role: 'user', content: 'Analyze this 2-hour video context.' }],
    extra_body: { enable_thinking: true },
  });
  console.log(completion.choices[0].message.content);
}

main();

Zainstaluj SDK i zacznij wykonywac wywolania API w kilka minut.

Co mowia ludzie o Qwen3.5-397B-A17B

Zobacz, co spolecznosc mysli o Qwen3.5-397B-A17B

Qwen3.5-397B to w zasadzie odpowiedź społeczności open-source na GPT-4o. Możliwości generowania SVG są niesamowite dla web designu.
u/LLM_Reviewer
reddit
19-krotny wzrost throughput sprawia, że Qwen3.5 jest znacznie bardziej responsywny niż jakikolwiek inny model o tym rozmiarze, który testowałem.
tech_enthusiast_99
reddit
Licencja Apache 2.0 dla tak dużego modelu to całkowity game changer dla lokalnego rozwoju AI i korporacji dbających o prywatność.
TechInnovator88
twitter
Routing MoE w modelu 3.5-397B jest zauważalnie inteligentniejszy niż w poprzedniej generacji 2.5; on naprawdę trzyma się logiki.
DistanceSolar1449
reddit
Context window o rozmiarze 1M w modelu klasy open-weight tej rangi jest bezprecedensowy w obecnym ekosystemie.
dev_logic
hackernews
Reasoning wideo nie opiera się tylko na analizie klatka po klatce; to rzeczywiste zrozumienie czasowe, które wyprzedza obecne LLM typu vision.
Matthew Berman (Context)
youtube

Filmy o Qwen3.5-397B-A17B

Ogladaj samouczki, recenzje i dyskusje o Qwen3.5-397B-A17B

Bije Claude Opus 4.5 w zadaniach przeglądarkowych oraz Gemini 3 Pro w wielu zadaniach multimodalnych.

Według raportów jest 19 razy szybszy niż Qwen 3 Max, obsługując 201 języków i dialektów.

Świetnie poradził sobie z fotorealistycznym motylem... lepiej niż większość modeli open-source.

Model 397B to w zasadzie pierwszy model open-weights, który realnie rywalizuje na poziomie frontier model AGI.

Skalowanie za pomocą MoE wyraźnie działa w przypadku Alibaba, co potwierdzają ich najnowsze wyniki benchmarków.

Ten model dorównuje możliwościom Qwen Max... ale robi to z 19-krotnym wzrostem prędkości.

Tokenizer został rozbudowany do słownika 250K... dorównując Gemini i tokenizerowi Google.

Zespół Qwen należy postrzegać jako Frontier Lab... podejmują się zadań, na których skupiają się laboratoria zamknięte.

Tokenizacja jest znacznie bardziej efektywna dla skryptów niełacińskich w porównaniu do wcześniejszych iteracji Llama.

Tryb Thinking dodaje znaczące latency, ale wzrost dokładności w kodowaniu i reasoning jest tego wart.

To zunifikowany vision language model... podczas gdy starsze modele miały specyficzne warianty VL, ten ma wszystko w jednej strukturze.

Zrozumienie wideo pozwala mu wyłapać szczegóły czasowe, które umykają metodom opartym na ekstrakcji klatek.

W kodowaniu wydaje się tak responsywny jak model GPT-4o, ale z lepszym instruction following.

Możliwości agenta desktop GUI to wyróżniająca się funkcja w kontekście automatyzacji świata rzeczywistego.

Obsługuje 120 minut wideo bez utraty kontekstu, co jest przełomowe dla analityki.

Wiecej niz tylko prompty

Przyspiesz swoj workflow z automatyzacja AI

Automatio laczy moc agentow AI, automatyzacji web i inteligentnych integracji, aby pomoc Ci osiagnac wiecej w krotszym czasie.

Agenci AI
Automatyzacja web
Inteligentne workflow

Porady Pro dla Qwen3.5-397B-A17B

Wskazówki ekspertów, aby w pełni wykorzystać Qwen3.5-397B-A17B.

Przełącz tryb Thinking

Użyj parametru enable_thinking w zadaniach wymagających silnej logiki, aby aktywować głębokie, wewnętrzne ścieżki reasoning.

Wykorzystaj natywne wyszukiwanie

Włącz parametr search body, aby weryfikować fakty w oparciu o dane z sieci w czasie rzeczywistym i wykonywać kod python.

Optymalizuj prompty wideo

Podawaj konkretne znaczniki czasu (timestamps), aby skoncentrować context window o rozmiarze 1M tokenów na najistotniejszych fragmentach.

Wybór regionalnego punktu końcowego

Użytkownicy spoza Chin kontynentalnych powinni korzystać z endpointu dashscope-intl, aby zredukować latency sieciowe.

Opinie

Co mowia nasi uzytkownicy

Dolacz do tysiecy zadowolonych uzytkownikow, ktorzy przeksztalcili swoj workflow

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Powiazane AI Models

openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

262K context
$0.60/$2.50/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
anthropic

Claude Sonnet 4.6

Anthropic

Claude Sonnet 4.6 offers frontier performance for coding and computer use with a massive 1M token context window for only $3/1M tokens.

1M context
$3.00/$15.00/1M
google

Gemini 3 Flash

Google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
anthropic

Claude Opus 4.6

Anthropic

Claude Opus 4.6 is Anthropic's flagship model featuring a 1M token context window, Adaptive Thinking, and world-class coding and reasoning performance.

200K context
$5.00/$25.00/1M
zhipu

GLM-4.7

Zhipu (GLM)

GLM-4.7 by Zhipu AI is a flagship 358B MoE model featuring a 200K context window, elite 73.8% SWE-bench performance, and native Deep Thinking for agentic...

200K context
$0.60/$2.20/1M

Często Zadawane Pytania o Qwen3.5-397B-A17B

Znajdź odpowiedzi na częste pytania o Qwen3.5-397B-A17B