alibaba

Qwen3-Coder-Next

Qwen3-Coder-Next es el model de programación Apache 2.0 de élite de Alibaba Cloud, que cuenta con una arquitectura MoE de 80B y una ventana de contexto de 256k...

IA de ProgramaciónOpen WeightsMixture of ExpertsFlujos de trabajo AgenticLLM Local
alibaba logoalibabaQwen33 de febrero de 2026
Contexto
256Ktokens
Salida máx.
8Ktokens
Precio entrada
$0.14/ 1M
Precio salida
$0.42/ 1M
Modalidad:Text
Capacidades:HerramientasStreaming
Benchmarks
GPQA
53.4%
GPQA: Q&A Científico Nivel Posgrado. Un riguroso benchmark con 448 preguntas de opción múltiple en biología, física y química creadas por expertos. Los doctores solo logran 65-74% de precisión, mientras que los no expertos obtienen solo 34% incluso con acceso ilimitado a internet (por eso 'a prueba de Google'). Qwen3-Coder-Next obtuvo 53.4% en este benchmark.
HLE
28.5%
HLE: Razonamiento de Alto Nivel de Experticia. Evalúa la capacidad de un modelo para demostrar razonamiento a nivel experto en dominios especializados. Evalúa la comprensión profunda de temas complejos que requieren conocimiento profesional. Qwen3-Coder-Next obtuvo 28.5% en este benchmark.
MMLU
86.2%
MMLU: Comprensión Masiva Multitarea del Lenguaje. Un benchmark completo con 16,000 preguntas de opción múltiple en 57 materias académicas incluyendo matemáticas, filosofía, derecho y medicina. Evalúa conocimiento amplio y capacidades de razonamiento. Qwen3-Coder-Next obtuvo 86.2% en este benchmark.
MMLU Pro
78.4%
MMLU Pro: MMLU Edición Profesional. Una versión mejorada de MMLU con 12,032 preguntas usando un formato más difícil de 10 opciones. Cubre Matemáticas, Física, Química, Derecho, Ingeniería, Economía, Salud, Psicología, Negocios, Biología, Filosofía e Informática. Qwen3-Coder-Next obtuvo 78.4% en este benchmark.
SimpleQA
48.2%
SimpleQA: Benchmark de Precisión Factual. Evalúa la capacidad de un modelo para proporcionar respuestas precisas y factuales a preguntas directas. Mide la fiabilidad y reduce las alucinaciones en tareas de recuperación de conocimiento. Qwen3-Coder-Next obtuvo 48.2% en este benchmark.
IFEval
89.1%
IFEval: Evaluación de Seguimiento de Instrucciones. Mide qué tan bien un modelo sigue instrucciones y restricciones específicas. Evalúa la capacidad de adherirse a reglas de formato, límites de longitud y otros requisitos explícitos. Qwen3-Coder-Next obtuvo 89.1% en este benchmark.
AIME 2025
89.2%
AIME 2025: Examen de Matemáticas Invitacional Americano. Problemas de matemáticas a nivel de competencia del prestigioso examen AIME diseñado para estudiantes talentosos de secundaria. Evalúa resolución avanzada de problemas matemáticos que requiere razonamiento abstracto. Qwen3-Coder-Next obtuvo 89.2% en este benchmark.
MATH
83.5%
MATH: Resolución de Problemas Matemáticos. Un benchmark completo de matemáticas que evalúa la resolución de problemas en álgebra, geometría, cálculo y otros dominios matemáticos. Requiere razonamiento en múltiples pasos y conocimiento matemático formal. Qwen3-Coder-Next obtuvo 83.5% en este benchmark.
GSM8k
95.8%
GSM8k: Matemáticas de Primaria 8K. 8,500 problemas de matemáticas de nivel primaria que requieren razonamiento en múltiples pasos. Evalúa aritmética básica y pensamiento lógico a través de escenarios cotidianos. Qwen3-Coder-Next obtuvo 95.8% en este benchmark.
MGSM
92.5%
MGSM: Matemáticas de Primaria Multilingüe. El benchmark GSM8k traducido a 10 idiomas incluyendo español, francés, alemán, ruso, chino y japonés. Evalúa el razonamiento matemático en diferentes idiomas. Qwen3-Coder-Next obtuvo 92.5% en este benchmark.
MathVista
71.2%
MathVista: Razonamiento Visual Matemático. Evalúa la capacidad de resolver problemas matemáticos que involucran elementos visuales como gráficos, diagramas de geometría y figuras científicas. Combina comprensión visual con razonamiento matemático. Qwen3-Coder-Next obtuvo 71.2% en este benchmark.
SWE-Bench
74.2%
SWE-Bench: Benchmark de Ingeniería de Software. Los modelos de IA intentan resolver issues reales de GitHub en proyectos Python de código abierto con verificación humana. Evalúa habilidades prácticas de ingeniería de software. Los mejores modelos pasaron de 4.4% (2023) a más del 70% (2024). Qwen3-Coder-Next obtuvo 74.2% en este benchmark.
HumanEval
94.1%
HumanEval: Problemas de Programación Python. 164 problemas de programación escritos a mano donde los modelos deben generar implementaciones correctas de funciones Python. Cada solución se verifica con tests unitarios. Los mejores modelos ahora logran más del 90%. Qwen3-Coder-Next obtuvo 94.1% en este benchmark.
LiveCodeBench
74.5%
LiveCodeBench: Benchmark de Codificación en Vivo. Evalúa habilidades de codificación con desafíos de programación del mundo real continuamente actualizados. A diferencia de benchmarks estáticos, usa problemas frescos para prevenir contaminación de datos. Qwen3-Coder-Next obtuvo 74.5% en este benchmark.
MMMU
72.4%
MMMU: Comprensión Multimodal. Benchmark de Comprensión Multimodal Multidisciplinaria Masiva que evalúa modelos de visión-lenguaje en problemas universitarios en 30 materias que requieren tanto comprensión de imágenes como conocimiento experto. Qwen3-Coder-Next obtuvo 72.4% en este benchmark.
MMMU Pro
58.6%
MMMU Pro: MMMU Edición Profesional. Versión mejorada de MMMU con preguntas más desafiantes y evaluación más estricta. Evalúa razonamiento multimodal avanzado a niveles profesional y experto. Qwen3-Coder-Next obtuvo 58.6% en este benchmark.
ChartQA
86.4%
ChartQA: Respuesta a Preguntas sobre Gráficos. Evalúa la capacidad de comprender y razonar sobre información presentada en gráficos y diagramas. Requiere extracción de datos, comparación de valores y cálculos desde representaciones visuales. Qwen3-Coder-Next obtuvo 86.4% en este benchmark.
DocVQA
93.5%
DocVQA: Q&A Visual de Documentos. Benchmark de Respuesta a Preguntas Visuales de Documentos que evalúa la capacidad de extraer y razonar sobre información de imágenes de documentos incluyendo formularios, reportes y texto escaneado. Qwen3-Coder-Next obtuvo 93.5% en este benchmark.
Terminal-Bench
58.2%
Terminal-Bench: Tareas de Terminal/CLI. Evalúa la capacidad de realizar operaciones de línea de comandos, escribir scripts de shell y navegar en entornos de terminal. Mide habilidades prácticas de administración de sistemas y flujos de trabajo de desarrollo. Qwen3-Coder-Next obtuvo 58.2% en este benchmark.
ARC-AGI
12.5%
ARC-AGI: Abstracción y Razonamiento. Corpus de Abstracción y Razonamiento para AGI - evalúa inteligencia fluida a través de puzzles de reconocimiento de patrones novedosos. Cada tarea requiere descubrir la regla subyacente a partir de ejemplos, midiendo capacidad de razonamiento general en lugar de memorización. Qwen3-Coder-Next obtuvo 12.5% en este benchmark.

Acerca de Qwen3-Coder-Next

Conoce las capacidades, características y formas de uso de Qwen3-Coder-Next.

Arquitectura del model

Qwen3-Coder-Next es un model open-weights especializado diseñado por Alibaba Cloud para agentes de ingeniería de software. Utiliza una arquitectura de Mixture-of-Experts (MoE) con 80 mil millones de parámetros totales, pero solo activa 3 mil millones por token. Este diseño combina la inteligencia de un model masivo con la velocidad de inferencia de uno pequeño. La arquitectura incluye un mecanismo de atención híbrido, integrando Gated DeltaNet con Gated Attention estándar para procesar contextos de hasta 262,144 tokens.

Especialización agentic

El model está entrenado en más de 800,000 tareas de programación verificables y entornos ejecutables. Este entrenamiento enfatiza el reasoning de largo alcance y la capacidad de recuperarse de fallos de ejecución. Obtiene una puntuación del 70.8% en SWE-Bench Verified, lo que demuestra su capacidad para manejar tareas de desarrollo multietapa, desde la planificación inicial hasta la ejecución final del código. Destaca en marcos de trabajo agentic autónomos como OpenClaw y Qwen Code.

Despliegue y Privacidad

Con licencia Apache 2.0, este model proporciona una alternativa segura para los desarrolladores que requieren entornos de desarrollo locales y privados. Puede ejecutarse en hardware de consumo con suficiente RAM mediante cuantización. La ventana de contexto alta permite el análisis a escala de repositorio sin la degradación del rendimiento que normalmente se observa en models con menor contexto.

Qwen3-Coder-Next

Casos de uso de Qwen3-Coder-Next

Descubre las diferentes formas de usar Qwen3-Coder-Next para lograr excelentes resultados.

Agentes de programación autónomos

Potencia marcos de trabajo para manejar tareas de desarrollo de varios pasos, desde la planificación hasta la ejecución final.

Desarrollo privado local

Ejecuta asistencia de programación de élite en GPUs de consumo con 16GB VRAM usando capas MoE cuantizadas.

Análisis de repositorios a gran escala

Procesa bases de código completas dentro de su ventana de 256k para identificar deuda técnica.

Reparación y refactorización de código

Actualiza código heredado a estándares modernos proporcionando retroalimentación de entornos ejecutables.

Scripting multilingüe

Genera código de alta fidelidad en más de 40 lenguajes de programación, incluidos Rust y Go.

Simulación 3D interactiva

Construye visualizadores y simulaciones complejas basadas en web mediante generación rápida de un solo intento (one-shot).

Fortalezas

Limitaciones

Eficiencia MoE: Opera con 3B de parámetros activos para hardware de consumo mientras mantiene una inteligencia de clase 80B.
Requisitos de RAM del sistema: El conteo total de 80B de parámetros requiere aproximadamente 45GB de RAM total para una cuantización efectiva de 4 bits.
Especialización agentic: Obtiene una puntuación del 70.8% en SWE-Bench Verified, lo que demuestra una resolución de problemas multietapa superior.
Limitaciones de estado recurrente: La arquitectura de atención híbrida hace que la decodificación auto-especulativa no sea compatible en los motores de inferencia comunes.
Contexto nativo masivo: La ventana de 262,144 tokens admite análisis a escala de repositorio sin degradación del rendimiento.
Restricciones solo de texto: Carece de capacidades de visión multimodal, lo que le impide depurar diseños a partir de capturas de pantalla.
Licencia permisiva: Lanzado bajo Apache 2.0, lo que permite un uso comercial sin restricciones y alojamiento local privado.
Física de alta complejidad: Puede tener dificultades con la generación one-shot de lógica física 3D extrema en comparación con los dense models flagship.

Inicio rápido de API

alibaba/qwen-3-coder-next

Ver documentación
alibaba SDK
import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.DASHSCOPE_API_KEY,
  baseURL: "https://dashscope-intl.aliyuncs.com/compatible-mode/v1",
});

async function main() {
  const completion = await client.chat.completions.create({
    model: "qwen3-coder-next",
    messages: [
      { role: "system", content: "Eres un asistente de programación profesional." },
      { role: "user", content: "Escribe un componente de React para una lista ordenable." },
    ],
  });
  console.log(completion.choices[0].message.content);
}
main();

Instala el SDK y comienza a hacer llamadas API en minutos.

Lo que la gente dice sobre Qwen3-Coder-Next

Mira lo que la comunidad piensa sobre Qwen3-Coder-Next

Casi iguala a Claude en capacidades generales de programación. Supera a Claude 3.5 Sonnet en HumanEval con un 92.7%.
Philipp Schmid
twitter
La eficiencia de la versión MoE es una locura para el hardware local. Estoy obteniendo 26 TPS en un sistema de gama media.
LocalAI_Dev
reddit
La decodificación auto-especulativa es matemáticamente imposible para Qwen Coder Next debido a los estados recurrentes.
GodComplecs
reddit
¡Qwen3-Coder-Next está basado en MoE, y es mucho más fuerte e inteligente que antes!
JustinLin610
twitter
Demostrando la capacidad de cambiar de proveedor a mitad del proyecto con las nuevas variantes del model de 480B.
saveralter
reddit
La receta de entrenamiento agentic en 800k tareas se nota en la forma en que se recupera de errores de compilación.
TechGurus
hackernews

Videos sobre Qwen3-Coder-Next

Mira tutoriales, reseñas y discusiones sobre Qwen3-Coder-Next

Permite que sea accesible para personas que quieren jugar con agentes de programación con IA local

Esto para mí es un grito para probar este model de código abierto, lo cual haré

La eficiencia de memoria en esto es una gran victoria

Maneja la lógica compleja mejor que el anterior model denso de 72B

Este es el primer model abierto que sigue correctamente mis comandos de terminal

Qwen 3 coder Next también tiene solo 3 mil millones de parámetros activos para ejecutarse en una tarjeta gráfica de consumo

Funciona de maravilla. Estoy realmente sorprendido de poder obtener este resultado de una sola vez desde IA local

80 mil millones de parámetros generalmente requieren un clúster, pero el enfoque MoE lo cambia todo

Maneja más de 40 lenguajes de programación sin ninguna caída notable en el rendimiento

Usarlo con OpenClaw hace que se sienta como tener un desarrollador junior en el equipo

Un model de tres mil millones de parámetros enfrentándose cara a cara con models de 10 a 20 veces su tamaño

Qwen 3 viene con muchas ventajas pero con un costo menor

El contexto de 256k es real, no alucinó en medio de mi proyecto

La latencia es sorprendentemente baja dado el peso total de 80B de parámetros

Corrigió un error en mi repositorio de Go heredado que GPT-4o pasó por alto tres veces

Mas que solo prompts

Potencia tu flujo de trabajo con Automatizacion IA

Automatio combina el poder de agentes de IA, automatizacion web e integraciones inteligentes para ayudarte a lograr mas en menos tiempo.

Agentes de IA
Automatización Web
Flujos Inteligentes

Consejos Pro para Qwen3-Coder-Next

Consejos de expertos para ayudarte a sacar el máximo provecho de Qwen3-Coder-Next.

Usa System Prompts largos

Proporciona al model ejemplos detallados y documentación para alinear su comportamiento agentic.

Retroalimentación de errores iterativa

Introduce los registros de error de la consola del navegador en el model para una autocorrección de alta tasa de éxito.

Optimiza la descarga de capas

Descarga capas de expertos MoE específicas a la RAM del sistema para equilibrar la velocidad de inferencia y el reasoning.

Alinea los parámetros de muestreo

Usa una temperatura de 1.0 con top_p 0.95 y top_k 40 para obtener los resultados de codificación más precisos.

Testimonios

Lo Que Dicen Nuestros Usuarios

Unete a miles de usuarios satisfechos que han transformado su flujo de trabajo

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Relacionados AI Models

deepseek

DeepSeek-V3.2-Speciale

DeepSeek

DeepSeek-V3.2-Speciale is a reasoning-first LLM featuring gold-medal math performance, DeepSeek Sparse Attention, and a 131K context window. Rivaling GPT-5...

131K context
$0.28/$0.42/1M
minimax

MiniMax M2.5

minimax

MiniMax M2.5 is a SOTA MoE model featuring a 1M context window and elite agentic coding capabilities at disruptive pricing for autonomous agents.

1M context
$0.15/$1.20/1M
zhipu

GLM-4.7

Zhipu (GLM)

GLM-4.7 by Zhipu AI is a flagship 358B MoE model featuring a 200K context window, elite 73.8% SWE-bench performance, and native Deep Thinking for agentic...

200K context
$0.60/$2.20/1M
openai

GPT-4o mini

OpenAI

OpenAI's most cost-efficient small model, GPT-4o mini offers multimodal intelligence and high-speed performance at a significantly lower price point.

128K context
$0.15/$0.60/1M
openai

GPT-5.4

OpenAI

GPT-5.4 is OpenAI's frontier model featuring a 1.05M context window and Extreme Reasoning. It excels at autonomous UI interaction and long-form data analysis.

1M context
$2.50/$15.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M
openai

GPT-5.3 Instant

OpenAI

Explore GPT-5.3 Instant, OpenAI's "Anti-Cringe" model. Features a 128K context window, 26.8% fewer hallucinations, and a natural, helpful tone for everyday...

128K context
$1.75/$14.00/1M
google

Gemini 3.1 Pro

Google

Gemini 3.1 Pro is Google's elite multimodal model featuring the DeepThink reasoning engine, a 1M+ context window, and industry-leading ARC-AGI logic scores.

1M context
$2.00/$12.00/1M

Preguntas Frecuentes Sobre Qwen3-Coder-Next

Encuentra respuestas a preguntas comunes sobre Qwen3-Coder-Next