alibaba

Qwen3.5-397B-A17B

Qwen3.5-397B-A17B es el modelo MoE flagship de open-weights de Alibaba. Cuenta con razonamiento multimodal nativo, una context window de 1M y un throughput de...

MultimodalMoEOpen-WeightsAgentic AIReasoning
alibaba logoalibabaQwen3.516 de febrero de 2026
Contexto
1.0Mtokens
Salida máx.
8Ktokens
Precio entrada
$0.60/ 1M
Precio salida
$3.60/ 1M
Modalidad:TextImageVideo
Capacidades:VisiónHerramientasStreamingRazonamiento
Benchmarks
GPQA
88.4%
GPQA: Q&A Científico Nivel Posgrado. Un riguroso benchmark con 448 preguntas de opción múltiple en biología, física y química creadas por expertos. Los doctores solo logran 65-74% de precisión, mientras que los no expertos obtienen solo 34% incluso con acceso ilimitado a internet (por eso 'a prueba de Google'). Qwen3.5-397B-A17B obtuvo 88.4% en este benchmark.
HLE
28.7%
HLE: Razonamiento de Alto Nivel de Experticia. Evalúa la capacidad de un modelo para demostrar razonamiento a nivel experto en dominios especializados. Evalúa la comprensión profunda de temas complejos que requieren conocimiento profesional. Qwen3.5-397B-A17B obtuvo 28.7% en este benchmark.
MMLU
88.6%
MMLU: Comprensión Masiva Multitarea del Lenguaje. Un benchmark completo con 16,000 preguntas de opción múltiple en 57 materias académicas incluyendo matemáticas, filosofía, derecho y medicina. Evalúa conocimiento amplio y capacidades de razonamiento. Qwen3.5-397B-A17B obtuvo 88.6% en este benchmark.
MMLU Pro
87.8%
MMLU Pro: MMLU Edición Profesional. Una versión mejorada de MMLU con 12,032 preguntas usando un formato más difícil de 10 opciones. Cubre Matemáticas, Física, Química, Derecho, Ingeniería, Economía, Salud, Psicología, Negocios, Biología, Filosofía e Informática. Qwen3.5-397B-A17B obtuvo 87.8% en este benchmark.
SimpleQA
48%
SimpleQA: Benchmark de Precisión Factual. Evalúa la capacidad de un modelo para proporcionar respuestas precisas y factuales a preguntas directas. Mide la fiabilidad y reduce las alucinaciones en tareas de recuperación de conocimiento. Qwen3.5-397B-A17B obtuvo 48% en este benchmark.
IFEval
92.6%
IFEval: Evaluación de Seguimiento de Instrucciones. Mide qué tan bien un modelo sigue instrucciones y restricciones específicas. Evalúa la capacidad de adherirse a reglas de formato, límites de longitud y otros requisitos explícitos. Qwen3.5-397B-A17B obtuvo 92.6% en este benchmark.
AIME 2025
91.3%
AIME 2025: Examen de Matemáticas Invitacional Americano. Problemas de matemáticas a nivel de competencia del prestigioso examen AIME diseñado para estudiantes talentosos de secundaria. Evalúa resolución avanzada de problemas matemáticos que requiere razonamiento abstracto. Qwen3.5-397B-A17B obtuvo 91.3% en este benchmark.
MATH
74.1%
MATH: Resolución de Problemas Matemáticos. Un benchmark completo de matemáticas que evalúa la resolución de problemas en álgebra, geometría, cálculo y otros dominios matemáticos. Requiere razonamiento en múltiples pasos y conocimiento matemático formal. Qwen3.5-397B-A17B obtuvo 74.1% en este benchmark.
GSM8k
93.7%
GSM8k: Matemáticas de Primaria 8K. 8,500 problemas de matemáticas de nivel primaria que requieren razonamiento en múltiples pasos. Evalúa aritmética básica y pensamiento lógico a través de escenarios cotidianos. Qwen3.5-397B-A17B obtuvo 93.7% en este benchmark.
MGSM
92.1%
MGSM: Matemáticas de Primaria Multilingüe. El benchmark GSM8k traducido a 10 idiomas incluyendo español, francés, alemán, ruso, chino y japonés. Evalúa el razonamiento matemático en diferentes idiomas. Qwen3.5-397B-A17B obtuvo 92.1% en este benchmark.
MathVista
90.3%
MathVista: Razonamiento Visual Matemático. Evalúa la capacidad de resolver problemas matemáticos que involucran elementos visuales como gráficos, diagramas de geometría y figuras científicas. Combina comprensión visual con razonamiento matemático. Qwen3.5-397B-A17B obtuvo 90.3% en este benchmark.
SWE-Bench
76.4%
SWE-Bench: Benchmark de Ingeniería de Software. Los modelos de IA intentan resolver issues reales de GitHub en proyectos Python de código abierto con verificación humana. Evalúa habilidades prácticas de ingeniería de software. Los mejores modelos pasaron de 4.4% (2023) a más del 70% (2024). Qwen3.5-397B-A17B obtuvo 76.4% en este benchmark.
HumanEval
79.3%
HumanEval: Problemas de Programación Python. 164 problemas de programación escritos a mano donde los modelos deben generar implementaciones correctas de funciones Python. Cada solución se verifica con tests unitarios. Los mejores modelos ahora logran más del 90%. Qwen3.5-397B-A17B obtuvo 79.3% en este benchmark.
LiveCodeBench
83.6%
LiveCodeBench: Benchmark de Codificación en Vivo. Evalúa habilidades de codificación con desafíos de programación del mundo real continuamente actualizados. A diferencia de benchmarks estáticos, usa problemas frescos para prevenir contaminación de datos. Qwen3.5-397B-A17B obtuvo 83.6% en este benchmark.
MMMU
85%
MMMU: Comprensión Multimodal. Benchmark de Comprensión Multimodal Multidisciplinaria Masiva que evalúa modelos de visión-lenguaje en problemas universitarios en 30 materias que requieren tanto comprensión de imágenes como conocimiento experto. Qwen3.5-397B-A17B obtuvo 85% en este benchmark.
MMMU Pro
79%
MMMU Pro: MMMU Edición Profesional. Versión mejorada de MMMU con preguntas más desafiantes y evaluación más estricta. Evalúa razonamiento multimodal avanzado a niveles profesional y experto. Qwen3.5-397B-A17B obtuvo 79% en este benchmark.
ChartQA
86.5%
ChartQA: Respuesta a Preguntas sobre Gráficos. Evalúa la capacidad de comprender y razonar sobre información presentada en gráficos y diagramas. Requiere extracción de datos, comparación de valores y cálculos desde representaciones visuales. Qwen3.5-397B-A17B obtuvo 86.5% en este benchmark.
DocVQA
93.2%
DocVQA: Q&A Visual de Documentos. Benchmark de Respuesta a Preguntas Visuales de Documentos que evalúa la capacidad de extraer y razonar sobre información de imágenes de documentos incluyendo formularios, reportes y texto escaneado. Qwen3.5-397B-A17B obtuvo 93.2% en este benchmark.
Terminal-Bench
52.5%
Terminal-Bench: Tareas de Terminal/CLI. Evalúa la capacidad de realizar operaciones de línea de comandos, escribir scripts de shell y navegar en entornos de terminal. Mide habilidades prácticas de administración de sistemas y flujos de trabajo de desarrollo. Qwen3.5-397B-A17B obtuvo 52.5% en este benchmark.
ARC-AGI
12%
ARC-AGI: Abstracción y Razonamiento. Corpus de Abstracción y Razonamiento para AGI - evalúa inteligencia fluida a través de puzzles de reconocimiento de patrones novedosos. Cada tarea requiere descubrir la regla subyacente a partir de ejemplos, midiendo capacidad de razonamiento general en lugar de memorización. Qwen3.5-397B-A17B obtuvo 12% en este benchmark.

Acerca de Qwen3.5-397B-A17B

Conoce las capacidades, características y formas de uso de Qwen3.5-397B-A17B.

Mixture of Experts de alta eficiencia

Qwen3.5-397B-A17B es un modelo multimodal nativo flagship que utiliza una arquitectura híbrida innovadora, fusionando la atención lineal a través de Gated Delta Networks con un Mixture-of-Experts (MoE) disperso. Aunque contiene un total de 397 mil millones de parámetros, su diseño disperso activa solo 17 mil millones de parámetros por pasada, logrando una eficiencia y velocidad de inferencia excepcionales sin comprometer sus vastas capacidades de razonamiento. Está optimizado tanto para tareas de lenguaje como visuales, admitiendo un vocabulario masivo de 250k tokens y proporcionando soporte para más de 201 idiomas y dialectos.

Flujos de trabajo de agentes multimodales nativos

El modelo destaca como un agente multimodal nativo, capaz de procesar hasta un millón de tokens de contexto, lo que equivale a aproximadamente dos horas de video. Introduce un Thinking Mode especializado para el razonamiento lógico complejo y está equipado de forma nativa para flujos de trabajo de agentes, incluyendo desarrollo web, navegación por GUI e inteligencia espacial del mundo real. Su arquitectura admite entrenamiento FP8 end-to-end y un framework de entrenamiento-inferencia desagregado, convirtiéndolo en uno de los modelos más escalables y eficientes para aplicaciones de IA de grado empresarial.

Open Weights para accesibilidad global

Publicado bajo la licencia Apache 2.0, este modelo proporciona a la comunidad open-source capacidades de nivel frontier anteriormente restringidas a sistemas propietarios. Cierra la brecha entre el conteo masivo de parámetros y la implementación práctica, permitiendo a las organizaciones ejecutar tareas de razonamiento de vanguardia en infraestructura privada con una sobrecarga de cómputo significativamente menor que las alternativas densas de 400B.

Qwen3.5-397B-A17B

Casos de uso de Qwen3.5-397B-A17B

Descubre las diferentes formas de usar Qwen3.5-397B-A17B para lograr excelentes resultados.

Análisis de video de larga duración

Analiza hasta dos horas de contenido de video para extraer lógica, realizar ingeniería inversa de código a partir de grabaciones o generar resúmenes estructurados.

Investigación STEM de nivel doctorado

Resuelve problemas científicos de posgrado y problemas matemáticos de nivel de olimpiada utilizando su modo de pensamiento profundo adaptativo.

Agentes de GUI autónomos

Automatiza interacciones con teléfonos inteligentes y computadoras para gestionar flujos de trabajo de oficina y navegación móvil entre aplicaciones.

Ingeniería de software visual

Ejecuta 'vibe coding' transformando instrucciones en lenguaje natural y bocetos de UI en código frontend funcional.

Inteligencia documental

Procesa documentos complejos, gráficos y bocetos escritos a mano para extraer datos estructurados y realizar ingeniería inversa de diseños.

Aplicaciones de IA espacial

Comprende relaciones a nivel de píxel para tareas de IA encarnada, como el análisis de escenas de conducción autónoma y la navegación robótica.

Fortalezas

Limitaciones

Soporte de video superior: Admite 1 millón de tokens, lo que permite el procesamiento nativo de hasta 120 minutos de video para tareas de agenteic y codificación.
Barrera de hardware masiva: La implementación completa requiere racks de GPU de grado servidor con más de 800GB de VRAM para una precisión de 16-bit sin comprimir.
Eficiencia de inference MoE: La arquitectura de 397B total/17B activos proporciona un aumento de 19x en el throughput de decodificación en comparación con los modelos densos flagship anteriores.
Brecha de conocimiento en HLE: A pesar de sus altas puntuaciones en ciencia y matemáticas, obtiene solo un 28.7% en el Humanity's Last Exam (HLE), lo que indica una brecha en la veracidad experta absoluta.
Reasoning de vanguardia: Logra un 91.3% en AIME y 88.4% en GPQA, compitiendo con los mejores modelos cerrados en ciencia y matemáticas de nivel doctorado.
Exceso de confianza en las herramientas: En escenarios de agentes autónomos, el modelo ocasionalmente alucina resultados de herramientas o ignora los resultados en favor de predicciones internas.
Open Weights con Apache 2.0: Ofrece inteligencia de nivel frontier con la libertad de open weights, permitiendo implementaciones privadas y on-premise.
Desempeño en tareas de terminal: Obtiene un 52.5% en Terminal-Bench 2.0, quedando por detrás de sus competidores en tareas complejas de interacción por línea de comandos.

Inicio rápido de API

alibaba/qwen3.5-plus

Ver documentación
alibaba SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: process.env.DASHSCOPE_API_KEY,
  baseURL: 'https://dashscope-intl.aliyuncs.com/compatible-mode/v1',
});

async function main() {
  const completion = await client.chat.completions.create({
    model: 'qwen3.5-plus',
    messages: [{ role: 'user', content: 'Analiza la lógica de esta arquitectura MoE.' }],
    extra_body: { enable_thinking: true },
  });
  console.log(completion.choices[0].message.content);
}

main();

Instala el SDK y comienza a hacer llamadas API en minutos.

Lo que la gente dice sobre Qwen3.5-397B-A17B

Mira lo que la comunidad piensa sobre Qwen3.5-397B-A17B

Qwen3.5-397B es esencialmente un modelo de clase GPT-5 pero con open-weights. La arquitectura DeltaNet está resolviendo perfectamente los problemas de latency de MoE.
u/DeepLearningLover
reddit
El razonamiento multimodal nativo en Qwen3.5 parece increíble. 1M de context window + análisis de video va a cambiar los flujos de trabajo de los agentes.
@AiDevDaily
twitter
La decisión de usar entrenamiento FP8 end-to-end manteniendo BF16 en capas sensibles es una clase magistral en optimizaciones de estabilidad.
cold_fusion
hackernews
Esta es la primera vez que veo un modelo abierto que realmente supera a Gemini 1.5 Pro en tareas de agentes multimodales complejos.
AI Revolution
youtube
La mejora de 19x en throughput de decodificación sobre Qwen3-Max lo convierte en una alternativa viable para agentes a nivel de producción.
u/ModelTester2026
reddit
Me sorprendió lo bien que maneja la cuantización de 4-bit. Mantiene casi toda la capacidad de razonamiento en una configuración de doble A100.
@GlobalTechReview
twitter

Videos sobre Qwen3.5-397B-A17B

Mira tutoriales, reseñas y discusiones sobre Qwen3.5-397B-A17B

Un modelo de 397 mil millones de parámetros, pero con 17 mil millones activos.

Al decodificar a 256K, este modelo es 19 veces más rápido que Qwen 3 Max.

El reasoning nativo de visión-lenguaje es lo que lo diferencia para flujos de trabajo de agenteic.

Supera a la mayoría de los modelos cerrados en los benchmarks matemáticos estándar.

Ejecutarlo localmente es difícil, pero las versiones cuantizadas funcionan en Mac de gama alta.

Modelo de 397 mil millones de parámetros con 17 mil millones activos. Es nativamente multimodal.

Probablemente sea actualmente el mejor modelo multimodal de código abierto.

La capacidad de procesar dos horas de video de forma nativa es una ventaja masiva.

Mira estas puntuaciones de lógica, está alcanzando niveles consistentes con GPT-4o.

La licencia Apache lo hace muy atractivo para la privacidad de datos corporativos.

Extracción estructurada por OCR. Tienes un PDF desordenado... y necesitas convertirlo en un JSON limpio. Este modelo sobresale ahí.

Obtienes la inteligencia de un gigante de 400 mil millones de parámetros... pero pagas el costo de cómputo de un modelo de 17 mil millones.

Maneja la recuperación de contexto largo mejor que la versión anterior.

La integración de uso de herramientas está integrada en el entrenamiento base, no es un añadido.

El modo Thinking le permite corregir su propia lógica antes de dar la respuesta.

Mas que solo prompts

Potencia tu flujo de trabajo con Automatizacion IA

Automatio combina el poder de agentes de IA, automatizacion web e integraciones inteligentes para ayudarte a lograr mas en menos tiempo.

Agentes de IA
Automatización Web
Flujos Inteligentes

Consejos Pro para Qwen3.5-397B-A17B

Consejos de expertos para ayudarte a sacar el máximo provecho de Qwen3.5-397B-A17B.

Activar el modo Thinking

Incluye el parámetro 'enable_thinking: true' en tu llamada a la API para activar el razonamiento profundo en matemáticas, programación y acertijos lógicos complejos.

Utilizar el modo Fast

Usa el modo 'Fast' para consultas sencillas y obtener respuestas instantáneas sin consumir tokens en fases de pensamiento interno innecesarias.

Optimizar prompts de video

Al analizar video, pide al modelo que se enfoque en el resultado dinámico final en lugar de hacer un análisis cuadro por cuadro para lograr una mejor coherencia temporal.

Aprovechar la cuantización

Utiliza cuantización de 4-bit o 8-bit (GGUF/EXL2) para ejecutar el modelo en hardware de grado consumidor si dispones de suficiente VRAM (200GB+).

Testimonios

Lo Que Dicen Nuestros Usuarios

Unete a miles de usuarios satisfechos que han transformado su flujo de trabajo

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Relacionados AI Models

openai

GPT-5.1

OpenAI

GPT-5.1 is OpenAI’s advanced reasoning flagship featuring adaptive thinking, native multimodality, and state-of-the-art performance in math and technical...

400K context
$1.25/$10.00/1M
moonshot

Kimi K2.5

Moonshot

Discover Moonshot AI's Kimi K2.5, a 1T-parameter open-source agentic model featuring native multimodal capabilities, a 262K context window, and SOTA reasoning.

256K context
$0.60/$3.00/1M
xai

Grok-4

xAI

Grok-4 by xAI is a frontier model featuring a 2M token context window, real-time X platform integration, and world-record reasoning capabilities.

2M context
$3.00/$15.00/1M
anthropic

Claude Opus 4.5

Anthropic

Claude Opus 4.5 is Anthropic's most powerful frontier model, delivering record-breaking 80.9% SWE-bench performance and advanced autonomous agency for coding.

200K context
$5.00/$25.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
anthropic

Claude Sonnet 4.6

Anthropic

Claude Sonnet 4.6 offers frontier performance for coding and computer use with a massive 1M token context window for only $3/1M tokens.

1M context
$3.00/$15.00/1M
google

Gemini 3 Flash

Google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M

Preguntas Frecuentes Sobre Qwen3.5-397B-A17B

Encuentra respuestas a preguntas comunes sobre Qwen3.5-397B-A17B