anthropic

Claude Opus 4.7

Claude Opus 4.7 es el modelo insignia de Anthropic con 1 millón de tokens de contexto, reasoning adaptativo y resolución de visión 3,3x para agentes a escala...

Frontier ModelAgentic AIAsistente de ProgramaciónLarge ContextAnthropic
anthropic logoanthropicClaude16 de abril de 2026
Contexto
1.0Mtokens
Salida máx.
128Ktokens
Precio entrada
$5.00/ 1M
Precio salida
$25.00/ 1M
Modalidad:TextImage
Capacidades:VisiónHerramientasStreamingRazonamiento
Benchmarks
GPQA
94.2%
GPQA: Q&A Científico Nivel Posgrado. Un riguroso benchmark con 448 preguntas de opción múltiple en biología, física y química creadas por expertos. Los doctores solo logran 65-74% de precisión, mientras que los no expertos obtienen solo 34% incluso con acceso ilimitado a internet (por eso 'a prueba de Google'). Claude Opus 4.7 obtuvo 94.2% en este benchmark.
HLE
54.7%
HLE: Razonamiento de Alto Nivel de Experticia. Evalúa la capacidad de un modelo para demostrar razonamiento a nivel experto en dominios especializados. Evalúa la comprensión profunda de temas complejos que requieren conocimiento profesional. Claude Opus 4.7 obtuvo 54.7% en este benchmark.
MMLU
89.8%
MMLU: Comprensión Masiva Multitarea del Lenguaje. Un benchmark completo con 16,000 preguntas de opción múltiple en 57 materias académicas incluyendo matemáticas, filosofía, derecho y medicina. Evalúa conocimiento amplio y capacidades de razonamiento. Claude Opus 4.7 obtuvo 89.8% en este benchmark.
MMLU Pro
89.9%
MMLU Pro: MMLU Edición Profesional. Una versión mejorada de MMLU con 12,032 preguntas usando un formato más difícil de 10 opciones. Cubre Matemáticas, Física, Química, Derecho, Ingeniería, Economía, Salud, Psicología, Negocios, Biología, Filosofía e Informática. Claude Opus 4.7 obtuvo 89.9% en este benchmark.
SimpleQA
31.6%
SimpleQA: Benchmark de Precisión Factual. Evalúa la capacidad de un modelo para proporcionar respuestas precisas y factuales a preguntas directas. Mide la fiabilidad y reduce las alucinaciones en tareas de recuperación de conocimiento. Claude Opus 4.7 obtuvo 31.6% en este benchmark.
IFEval
91.2%
IFEval: Evaluación de Seguimiento de Instrucciones. Mide qué tan bien un modelo sigue instrucciones y restricciones específicas. Evalúa la capacidad de adherirse a reglas de formato, límites de longitud y otros requisitos explícitos. Claude Opus 4.7 obtuvo 91.2% en este benchmark.
AIME 2025
100%
AIME 2025: Examen de Matemáticas Invitacional Americano. Problemas de matemáticas a nivel de competencia del prestigioso examen AIME diseñado para estudiantes talentosos de secundaria. Evalúa resolución avanzada de problemas matemáticos que requiere razonamiento abstracto. Claude Opus 4.7 obtuvo 100% en este benchmark.
MATH
94.1%
MATH: Resolución de Problemas Matemáticos. Un benchmark completo de matemáticas que evalúa la resolución de problemas en álgebra, geometría, cálculo y otros dominios matemáticos. Requiere razonamiento en múltiples pasos y conocimiento matemático formal. Claude Opus 4.7 obtuvo 94.1% en este benchmark.
GSM8k
98.4%
GSM8k: Matemáticas de Primaria 8K. 8,500 problemas de matemáticas de nivel primaria que requieren razonamiento en múltiples pasos. Evalúa aritmética básica y pensamiento lógico a través de escenarios cotidianos. Claude Opus 4.7 obtuvo 98.4% en este benchmark.
MGSM
94.1%
MGSM: Matemáticas de Primaria Multilingüe. El benchmark GSM8k traducido a 10 idiomas incluyendo español, francés, alemán, ruso, chino y japonés. Evalúa el razonamiento matemático en diferentes idiomas. Claude Opus 4.7 obtuvo 94.1% en este benchmark.
MathVista
78%
MathVista: Razonamiento Visual Matemático. Evalúa la capacidad de resolver problemas matemáticos que involucran elementos visuales como gráficos, diagramas de geometría y figuras científicas. Combina comprensión visual con razonamiento matemático. Claude Opus 4.7 obtuvo 78% en este benchmark.
SWE-Bench
87.6%
SWE-Bench: Benchmark de Ingeniería de Software. Los modelos de IA intentan resolver issues reales de GitHub en proyectos Python de código abierto con verificación humana. Evalúa habilidades prácticas de ingeniería de software. Los mejores modelos pasaron de 4.4% (2023) a más del 70% (2024). Claude Opus 4.7 obtuvo 87.6% en este benchmark.
HumanEval
92.4%
HumanEval: Problemas de Programación Python. 164 problemas de programación escritos a mano donde los modelos deben generar implementaciones correctas de funciones Python. Cada solución se verifica con tests unitarios. Los mejores modelos ahora logran más del 90%. Claude Opus 4.7 obtuvo 92.4% en este benchmark.
LiveCodeBench
78.5%
LiveCodeBench: Benchmark de Codificación en Vivo. Evalúa habilidades de codificación con desafíos de programación del mundo real continuamente actualizados. A diferencia de benchmarks estáticos, usa problemas frescos para prevenir contaminación de datos. Claude Opus 4.7 obtuvo 78.5% en este benchmark.
MMMU
80.7%
MMMU: Comprensión Multimodal. Benchmark de Comprensión Multimodal Multidisciplinaria Masiva que evalúa modelos de visión-lenguaje en problemas universitarios en 30 materias que requieren tanto comprensión de imágenes como conocimiento experto. Claude Opus 4.7 obtuvo 80.7% en este benchmark.
MMMU Pro
85.6%
MMMU Pro: MMMU Edición Profesional. Versión mejorada de MMMU con preguntas más desafiantes y evaluación más estricta. Evalúa razonamiento multimodal avanzado a niveles profesional y experto. Claude Opus 4.7 obtuvo 85.6% en este benchmark.
ChartQA
79.5%
ChartQA: Respuesta a Preguntas sobre Gráficos. Evalúa la capacidad de comprender y razonar sobre información presentada en gráficos y diagramas. Requiere extracción de datos, comparación de valores y cálculos desde representaciones visuales. Claude Opus 4.7 obtuvo 79.5% en este benchmark.
DocVQA
92.5%
DocVQA: Q&A Visual de Documentos. Benchmark de Respuesta a Preguntas Visuales de Documentos que evalúa la capacidad de extraer y razonar sobre información de imágenes de documentos incluyendo formularios, reportes y texto escaneado. Claude Opus 4.7 obtuvo 92.5% en este benchmark.
Terminal-Bench
59.3%
Terminal-Bench: Tareas de Terminal/CLI. Evalúa la capacidad de realizar operaciones de línea de comandos, escribir scripts de shell y navegar en entornos de terminal. Mide habilidades prácticas de administración de sistemas y flujos de trabajo de desarrollo. Claude Opus 4.7 obtuvo 59.3% en este benchmark.
ARC-AGI
68.8%
ARC-AGI: Abstracción y Razonamiento. Corpus de Abstracción y Razonamiento para AGI - evalúa inteligencia fluida a través de puzzles de reconocimiento de patrones novedosos. Cada tarea requiere descubrir la regla subyacente a partir de ejemplos, midiendo capacidad de razonamiento general en lugar de memorización. Claude Opus 4.7 obtuvo 68.8% en este benchmark.

Acerca de Claude Opus 4.7

Conoce las capacidades, características y formas de uso de Claude Opus 4.7.

Descripción general del modelo

Claude Opus 4.7 es el modelo flagship de la serie de arquitectura Claude 4. Utiliza un marco de Adaptive Thinking que permite al modelo escalar su esfuerzo cognitivo según la dificultad percibida de una tarea. Esto reemplaza los presupuestos de reasoning fijos por niveles de lógica dinámicos. Los desarrolladores ahora pueden controlar la profundidad de reasoning interna a través de un parámetro de esfuerzo de la API, permitiendo un mejor equilibrio entre latencia y rigor lógico. El modelo está ajustado específicamente para flujos de trabajo empresariales de alto nivel y bucles agentic autónomos.

Capacidades de contexto y multimodales

Este modelo proporciona una context window de 1 millón de tokens sin sobrecoste por contexto largo. Incluye un límite de salida de 128 000 tokens, lo que permite la generación de documentos técnicos masivos o repositorios de código completos en una sola respuesta. La resolución de visión es 3,3 veces mayor que en iteraciones anteriores. Esto permite una comprensión de UI perfecta a nivel de píxel y un mapeo de coordenadas 1:1 en imágenes de hasta 2576 píxeles. Estas mejoras lo convierten en una opción fiable para el análisis de documentos y tareas de auditoría visual.

Ingeniería Agentic y Seguridad

Las actualizaciones arquitectónicas se centran en tareas de largo alcance e ingeniería de software. Obtiene un 87,6 % en la tabla de clasificación SWE-bench Verified, liderando actualmente su capacidad para resolver problemas reales de GitHub. El modelo introduce presupuestos de tareas para ayudar a gestionar el consumo de tokens en sesiones de agentes de múltiples turnos. Anthropic ha integrado salvaguardas de ciberseguridad en tiempo real en la arquitectura central para evitar que el modelo participe en exploits maliciosos, manteniendo al mismo tiempo su utilidad para los investigadores de seguridad.

Claude Opus 4.7

Casos de uso de Claude Opus 4.7

Descubre las diferentes formas de usar Claude Opus 4.7 para lograr excelentes resultados.

Agentic Software Engineering

Utilización de niveles de esfuerzo alto para refactorizar repositorios de forma autónoma y resolver dependencias complejas entre archivos.

Síntesis de repositorios a gran escala

Procesamiento de 1 millón de tokens de código fuente para mapear flujos arquitectónicos y generar documentación técnica.

Análisis de visión de alta resolución

Análisis de gráficos densos y capturas de pantalla de UI a nivel de píxel con 3,3 veces más detalle que anteriores frontier models.

Investigación de vulnerabilidades de ciberseguridad

Realización de auditorías de seguridad profundas y análisis de zero-day dentro de límites de seguridad verificados.

Extracción de conocimiento empresarial

Extracción de datos estructurados de bibliotecas técnicas masivas y realización de revisiones complejas entre documentos.

Prototipado 3D interactivo

Generación de entornos 3D funcionales y lógica de juegos a partir de descripciones en lenguaje natural.

Fortalezas

Limitaciones

Precisión de programación líder en la industria: Alcanza un 87,6 % en SWE-bench Verified, superando a todos los demás modelos disponibles para ingeniería de software.
Mayor consumo de tokens: Un nuevo tokenizador resulta en un uso de tokens aproximadamente un 35 % mayor para el mismo texto en comparación con versiones anteriores de Claude.
Estabilidad de contexto masivo: Mantiene una precisión del 100 % en la context window de 1 millón de tokens sin cobrar un sobrecoste por contexto largo.
Parámetros de muestreo fijos: La eliminación de los controles de temperature y top-p limita la flexibilidad creativa para casos de uso no deterministas.
Agudeza visual superior: Admite imágenes de hasta 2576px, permitiendo un mapeo de píxeles 1:1 para un análisis preciso de documentos e interfaces de usuario.
Alta latencia en esfuerzo máximo: La generación de respuestas con niveles de esfuerzo 'xhigh' conlleva tiempos de espera significativos para tareas complejas.
Control de reasoning dinámico: Permite a los desarrolladores alternar niveles de esfuerzo mediante el marco de adaptive thinking para un equilibrio personalizado entre latencia y lógica.
Rechazos de seguridad agresivos: Los filtros de ciberseguridad en tiempo real pueden generar falsos positivos al rechazar solicitudes de investigación de seguridad legítimas.

Inicio rápido de API

anthropic/claude-opus-4-7

Ver documentación
anthropic SDK
import Anthropic from '@anthropic-ai/sdk';

const anthropic = new Anthropic({
  apiKey: process.env.ANTHROPIC_API_KEY,
});

const msg = await anthropic.messages.create({
  model: "claude-opus-4-7",
  max_tokens: 4096,
  thinking: { type: "adaptive" },
  messages: [{ role: "user", content: "Analiza esta arquitectura en busca de errores de concurrencia." }],
});

console.log(msg.content[0].text);

Instala el SDK y comienza a hacer llamadas API en minutos.

Lo que la gente dice sobre Claude Opus 4.7

Mira lo que la comunidad piensa sobre Claude Opus 4.7

Claude Opus 4.7 lidera en SWE-bench y reasoning agentic, superando a GPT-5.4 y Gemini 3.1 Pro.
zarfet
twitter
El hecho de que pueda generar un juego de skate 3D procedimental de una sola vez es prueba de la densidad lógica del modelo.
jrandolph
hackernews
Opus 4.7 acaba de salir. cursorbench saltó del 58 % al 70 %. Agudeza visual XBOW 98,5 % frente al 54,5 % en Opus 4.6.
hirenthakore
twitter
Claude tiende a sobre-diseñar: pides una función simple y obtienes una arquitectura diseñada para escalar durante la próxima década.
Ok_Today5649
reddit
Los primeros comentarios sobre Claude Opus 4.7 apuntan a un mayor uso de tokens y requisitos de prompting más estrictos.
kimmonismus
twitter
El esfuerzo de reasoning X-High es el punto medio que necesitábamos para flujos de trabajo agentic complejos.
Bijan Bowen
youtube

Videos sobre Claude Opus 4.7

Mira tutoriales, reseñas y discusiones sobre Claude Opus 4.7

Claude ha sido y sigue siendo el mejor modelo de cita disponible hoy.

De hecho, tiene el mismo precio que antes, pero te dieron más control sobre su reasoning.

Esto funciona perfectamente. Eligió las herramientas que yo mismo habría elegido.

El modelo se siente notablemente más rápido cuando no usas los niveles de thinking más altos.

Puedes verlo pensando en los casos extremos antes incluso de escribir una sola línea de código.

Este modelo es mucho más caro de ejecutar... pagarás un 35 % más por Opus 4.7.

La mejora en visión por sí sola merece la pena... puede tomar imágenes con tres veces la resolución sin recortar.

Si usas la API, espera pagar un 35 % más que antes.

El cambio de tokenización es un asesino silencioso para tus facturas de API si no tienes cuidado.

Maneja el contexto profundo mucho mejor que la versión anterior de Opus 4.

Las capacidades de visión de este modelo son sustancialmente mejores.

El esfuerzo de reasoning X-High es el punto medio que necesitábamos para flujos de trabajo agentic complejos.

Esto justifica al 100 % un título de locura. Me dejó realmente impresionado.

Identificó correctamente un error en mi base de código heredada que otros tres modelos pasaron por alto.

El nivel de autonomía en los bucles agentic es lo que diferencia a esto de GPT-5.

Mas que solo prompts

Potencia tu flujo de trabajo con Automatizacion IA

Automatio combina el poder de agentes de IA, automatizacion web e integraciones inteligentes para ayudarte a lograr mas en menos tiempo.

Agentes de IA
Automatización Web
Flujos Inteligentes

Consejos Pro para Claude Opus 4.7

Consejos de expertos para ayudarte a sacar el máximo provecho de Claude Opus 4.7.

Activar Adaptive Thinking

Habilite explícitamente el modo de adaptive thinking en las llamadas a la API para asegurar que Claude seleccione la profundidad de reasoning óptima.

Usar X-High para Agents

Establezca el parámetro de esfuerzo (effort) en xhigh para los bucles agentic con el fin de maximizar la autoverificación y la precisión lógica.

Eliminar Scaffolding

Elimine prompts heredados como "revisa tu trabajo dos veces", ya que el modelo está optimizado para la autocorrección interna.

Monitorear el consumo de tokens

Utilice el nuevo seguimiento de tokenización para gestionar el aumento del 35 % en el conteo de tokens para entradas de texto idénticas.

Testimonios

Lo Que Dicen Nuestros Usuarios

Unete a miles de usuarios satisfechos que han transformado su flujo de trabajo

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Relacionados AI Models

google

Gemini 3.1 Pro

Google

Gemini 3.1 Pro is Google's elite multimodal model featuring the DeepThink reasoning engine, a 1M+ context window, and industry-leading ARC-AGI logic scores.

1M context
$2.00/$12.00/1M
google

Gemini 3.1 Flash Live Preview

Google

Gemini 3.1 Flash Live Preview is Google's ultra-low-latency, audio-to-audio model featuring a 131K context window, high-fidelity multimodal reasoning, and...

131K context
$0.75/$4.50/1M
xai

Grok-3

xAI

Grok-3 is xAI's flagship reasoning model, featuring deep logic deduction, a 128k context window, and real-time integration with X for live research and coding.

1M context
$3.00/$15.00/1M
openai

GPT-5.2 Pro

OpenAI

GPT-5.2 Pro is OpenAI's 2025 flagship reasoning model featuring Extended Thinking for SOTA performance in mathematics, coding, and expert knowledge work.

400K context
$21.00/$168.00/1M
google

Gemini 3 Pro

Google

Google's Gemini 3 Pro is a multimodal powerhouse featuring a 1M token context window, native video processing, and industry-leading reasoning performance.

1M context
$2.00/$12.00/1M
anthropic

Claude Opus 4.6

Anthropic

Claude Opus 4.6 is Anthropic's flagship model featuring a 1M token context window, Adaptive Thinking, and world-class coding and reasoning performance.

1M context
$5.00/$25.00/1M
google

Gemini 3 Flash

Google

Gemini 3 Flash is Google's high-speed multimodal model featuring a 1M token context window, elite 90.4% GPQA reasoning, and autonomous browser automation tools.

1M context
$0.50/$3.00/1M
anthropic

Claude Sonnet 4.6

Anthropic

Claude Sonnet 4.6 offers frontier performance for coding and computer use with a massive 1M token context window for only $3/1M tokens.

1M context
$3.00/$15.00/1M

Preguntas Frecuentes Sobre Claude Opus 4.7

Encuentra respuestas a preguntas comunes sobre Claude Opus 4.7