alibaba

Qwen3.5-Omni

Qwen3.5-Omni est une IA nativement omnimodale d'Alibaba Cloud, offrant un raisonnement audiovisuel fluide, un chat vocal en temps réel et 256k de contexte pour...

OmnimodalVoix en temps réelVision vidéoAlibaba CloudMoE
alibaba logoalibabaQwen3.529 mars 2026
Contexte
256Ktokens
Sortie max.
8Ktokens
Prix entrée
$0.40/ 1M
Prix sortie
$4.80/ 1M
Modalité:TextImageAudioVideo
Capacités:VisionOutilsStreaming
Benchmarks
GPQA
83.9%
GPQA: Questions-Réponses Scientifiques Niveau Doctorat. Un benchmark rigoureux avec 448 questions à choix multiples en biologie, physique et chimie créées par des experts du domaine. Les experts en doctorat n'atteignent que 65-74% de précision, tandis que les non-experts obtiennent seulement 34% même avec un accès web illimité (d'où le terme 'résistant à Google'). Qwen3.5-Omni a obtenu 83.9% sur ce benchmark.
HLE
34.2%
HLE: Raisonnement d'Expertise de Haut Niveau. Teste la capacité d'un modèle à démontrer un raisonnement de niveau expert dans des domaines spécialisés. Évalue la compréhension approfondie de sujets complexes nécessitant des connaissances de niveau professionnel. Qwen3.5-Omni a obtenu 34.2% sur ce benchmark.
MMLU
94.2%
MMLU: Compréhension Linguistique Multitâche Massive. Un benchmark complet avec 16 000 questions à choix multiples couvrant 57 matières académiques incluant les mathématiques, la philosophie, le droit et la médecine. Teste les connaissances générales et les capacités de raisonnement. Qwen3.5-Omni a obtenu 94.2% sur ce benchmark.
MMLU Pro
85.9%
MMLU Pro: MMLU Édition Professionnelle. Une version améliorée du MMLU avec 12 032 questions utilisant un format plus difficile à 10 options. Couvre les mathématiques, la physique, la chimie, le droit, l'ingénierie, l'économie, la santé, la psychologie, les affaires, la biologie, la philosophie et l'informatique. Qwen3.5-Omni a obtenu 85.9% sur ce benchmark.
SimpleQA
48.2%
SimpleQA: Benchmark de Précision Factuelle. Teste la capacité d'un modèle à fournir des réponses précises et factuelles à des questions directes. Mesure la fiabilité et réduit les hallucinations dans les tâches de récupération de connaissances. Qwen3.5-Omni a obtenu 48.2% sur ce benchmark.
IFEval
89.7%
IFEval: Évaluation du Suivi d'Instructions. Mesure la capacité d'un modèle à suivre des instructions et contraintes spécifiques. Teste la capacité à respecter les règles de formatage, les limites de longueur et autres exigences explicites. Qwen3.5-Omni a obtenu 89.7% sur ce benchmark.
AIME 2025
81.6%
AIME 2025: Examen d'Invitation Américain en Mathématiques. Problèmes mathématiques de niveau compétition issus du prestigieux examen AIME conçu pour les lycéens talentueux. Teste la résolution de problèmes mathématiques avancés nécessitant un raisonnement abstrait, pas simplement de la correspondance de motifs. Qwen3.5-Omni a obtenu 81.6% sur ce benchmark.
MATH
90.4%
MATH: Résolution de Problèmes Mathématiques. Un benchmark mathématique complet testant la résolution de problèmes en algèbre, géométrie, calcul et autres domaines mathématiques. Nécessite un raisonnement en plusieurs étapes et des connaissances mathématiques formelles. Qwen3.5-Omni a obtenu 90.4% sur ce benchmark.
GSM8k
94.5%
GSM8k: Mathématiques Niveau Primaire 8K. 8 500 problèmes de mathématiques niveau primaire nécessitant un raisonnement en plusieurs étapes. Teste l'arithmétique de base et la pensée logique à travers des scénarios réels comme les achats ou les calculs de temps. Qwen3.5-Omni a obtenu 94.5% sur ce benchmark.
MGSM
94.1%
MGSM: Mathématiques Niveau Primaire Multilingue. Le benchmark GSM8k traduit en 10 langues incluant l'espagnol, le français, l'allemand, le russe, le chinois et le japonais. Teste le raisonnement mathématique dans différentes langues. Qwen3.5-Omni a obtenu 94.1% sur ce benchmark.
MathVista
86.1%
MathVista: Raisonnement Mathématique Visuel. Teste la capacité à résoudre des problèmes mathématiques impliquant des éléments visuels comme les graphiques, les diagrammes de géométrie et les figures scientifiques. Combine la compréhension visuelle avec le raisonnement mathématique. Qwen3.5-Omni a obtenu 86.1% sur ce benchmark.
SWE-Bench
75%
SWE-Bench: Benchmark d'Ingénierie Logicielle. Les modèles d'IA tentent de résoudre de vrais problèmes GitHub dans des projets Python open-source avec vérification humaine. Teste les compétences pratiques en ingénierie logicielle sur des bases de code en production. Les meilleurs modèles sont passés de 4,4% en 2023 à plus de 70% en 2024. Qwen3.5-Omni a obtenu 75% sur ce benchmark.
HumanEval
91.2%
HumanEval: Problèmes de Programmation Python. 164 problèmes de programmation écrits à la main où les modèles doivent générer des implémentations de fonctions Python correctes. Chaque solution est vérifiée par des tests unitaires. Les meilleurs modèles atteignent maintenant plus de 90% de précision. Qwen3.5-Omni a obtenu 91.2% sur ce benchmark.
LiveCodeBench
65.6%
LiveCodeBench: Benchmark de Code en Direct. Teste les capacités de codage sur des défis de programmation réels continuellement mis à jour. Contrairement aux benchmarks statiques, utilise des problèmes frais pour éviter la contamination des données et mesurer les vraies compétences de codage. Qwen3.5-Omni a obtenu 65.6% sur ce benchmark.
MMMU
80.1%
MMMU: Compréhension Multimodale. Benchmark de Compréhension Multimodale Multi-discipline Massive testant les modèles vision-langage sur des problèmes universitaires dans 30 matières nécessitant à la fois la compréhension d'images et des connaissances expertes. Qwen3.5-Omni a obtenu 80.1% sur ce benchmark.
MMMU Pro
73.9%
MMMU Pro: MMMU Édition Professionnelle. Version améliorée du MMMU avec des questions plus difficiles et une évaluation plus stricte. Teste le raisonnement multimodal avancé aux niveaux professionnel et expert. Qwen3.5-Omni a obtenu 73.9% sur ce benchmark.
ChartQA
85.3%
ChartQA: Questions-Réponses sur Graphiques. Teste la capacité à comprendre et raisonner sur les informations présentées dans les graphiques. Nécessite l'extraction de données, la comparaison de valeurs et l'exécution de calculs à partir de représentations visuelles de données. Qwen3.5-Omni a obtenu 85.3% sur ce benchmark.
DocVQA
95.2%
DocVQA: Q&R Visuelle sur Documents. Benchmark de Questions-Réponses Visuelles sur Documents testant la capacité à extraire et raisonner sur les informations des images de documents incluant les formulaires, rapports et textes numérisés. Qwen3.5-Omni a obtenu 95.2% sur ce benchmark.
Terminal-Bench
52.5%
Terminal-Bench: Tâches Terminal/CLI. Teste la capacité à effectuer des opérations en ligne de commande, écrire des scripts shell et naviguer dans les environnements terminal. Mesure les compétences pratiques en administration système et flux de travail de développement. Qwen3.5-Omni a obtenu 52.5% sur ce benchmark.
ARC-AGI
12.5%
ARC-AGI: Abstraction et Raisonnement. Corpus d'Abstraction et de Raisonnement pour l'AGI - teste l'intelligence fluide à travers des puzzles de reconnaissance de motifs nouveaux. Chaque tâche nécessite de découvrir la règle sous-jacente à partir d'exemples, mesurant la capacité de raisonnement général plutôt que la mémorisation. Qwen3.5-Omni a obtenu 12.5% sur ce benchmark.

À propos de Qwen3.5-Omni

Découvrez les capacités, fonctionnalités et façons d'utiliser Qwen3.5-Omni.

Architecture omnimodale unifiée

Qwen3.5-Omni est un modèle nativement omnimodal développé par Alibaba Cloud, construit sur une architecture unifiée conçue pour traiter simultanément les entrées texte, image, audio et vidéo. Contrairement aux modèles précédents qui s'appuyaient sur des encodeurs séparés, Qwen3.5-Omni utilise une architecture Thinker-Talker. Le composant Thinker effectue un raisonnement multimodal complexe sur des signaux entrelacés, tandis que le composant Talker génère une parole en streaming de haute qualité et à faible latence. Cela permet au modèle de gérer un contexte massif, incluant jusqu'à 10 heures d'audio ou près de sept minutes de vidéo 720p en un seul prompt.

Synchronisation et performances avancées

Une caractéristique technique clé de ce modèle est le système ARIA (Adaptive Rate Interleave Alignment), qui synchronise les tokens de texte et de parole pour garantir des réponses vocales naturelles. Le modèle prend en charge l'interruption sémantique en temps réel, permettant aux utilisateurs de couper l'IA pendant la conversation. Il est optimisé à la fois pour l'analyse multimodale en entreprise et pour les assistants vocaux en temps réel destinés aux consommateurs, offrant des performances en tâches visuelles et audio égales, voire supérieures, aux modèles propriétaires flagships.

Spécialisé pour l'interaction à faible latence

L'architecture du modèle est spécifiquement calibrée pour les applications en temps réel où la latence est critique. En utilisant une approche MoE (Mixture-of-Experts) avec une architecture de réseaux delta à porte (gated delta networks), le modèle maintient une haute efficacité computationnelle. Cette efficacité lui permet de fournir une interaction audio en temps réel tout en gérant une context window de 256k tokens, ce qui le rend idéal pour l'analyse de contenus longs tels que les transcriptions de réunions ou l'indexation de vidéos cinématographiques.

Qwen3.5-Omni

Cas d'utilisation de Qwen3.5-Omni

Découvrez les différentes façons d'utiliser Qwen3.5-Omni pour obtenir d'excellents résultats.

Assistants vocaux en temps réel

Le modèle permet de créer des avatars IA interactifs capables d'engager des conversations vocales naturelles avec prise en charge de l'interruption sémantique.

Sous-titrage vidéo cinématographique

Il génère des descriptions de niveau scénaristique et des annotations horodatées pour des contenus vidéo haute définition longue durée.

Live coding audiovisuel

Les développeurs corrigent leur code en partageant leur écran et en expliquant oralement la logique au modèle en temps réel.

Archivage audio d'entreprise

Le système traite jusqu'à 10 heures d'enregistrements de réunions ou de podcasts pour en extraire des insights en un seul passage.

Services de traduction multilingue

Il offre une traduction speech-to-speech complète dans 113 langues et divers dialectes régionaux chinois.

Modération de contenu

Le modèle audite les flux vidéo et audio pour assurer la sécurité en identifiant simultanément les contenus visuels et verbaux prohibés.

Points forts

Limitations

Fusion omnimodale native: Il intègre le texte, la vision et l'audio dans un seul modèle, atteignant des résultats SOTA sur 215 sous-tâches multimodales.
Exigence élevée en GPU: Le déploiement local de l'architecture MoE omnimodale nécessite une quantité importante de VRAM par rapport aux modèles purement textuels.
Vaste horizon audio: La context window de 256k permet de traiter plus de 10 heures de données audio continues en une seule requête.
Latence de l'API régionale: Les performances en temps réel sont actuellement optimisées pour les utilisateurs proches des clusters régionaux d'Alibaba Cloud en Asie.
Voix en temps réel à faible latence: L'architecture Thinker-Talker garantit des temps de réponse inférieurs à la seconde pour des conversations vocales interactives et interrompables.
Lacune dans le raisonnement textuel: Bien qu'excellent dans les tâches multimodales, ses performances de logique pure (GPQA 83.9) restent inférieures aux modèles de raisonnement spécialisés.
Tarification ultra-efficace: À 0,40 $ par million de tokens en entrée, il offre des capacités multimodales de niveau flagship à un coût réduit par rapport à la concurrence.
Codage visuel expérimental: La fonctionnalité de « vibe coding » est une capacité émergente qui peut avoir des difficultés avec les coordonnées UI spatiales complexes dans une vidéo.

Démarrage rapide API

alibaba/qwen3.5-omni-plus

Voir la documentation
alibaba SDK
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: process.env.DASHSCOPE_API_KEY,
  baseURL: 'https://dashscope-intl.aliyuncs.com/compatible-mode/v1',
});

const completion = await client.chat.completions.create({
  model: 'qwen3.5-omni-plus',
  messages: [{ role: 'user', content: 'Analyze this video content.' }],
  modalities: ['text'],
  stream: true,
});

for await (const chunk of completion) {
  process.stdout.write(chunk.choices[0]?.delta?.content || '');
}

Installez le SDK et commencez à faire des appels API en quelques minutes.

Ce que les gens disent de Qwen3.5-Omni

Voyez ce que la communauté pense de Qwen3.5-Omni

Le codage audiovisuel « vibe coding » change la donne ; il comprend enfin ce que je montre à l'écran pendant que j'explique le bug.
dev_mindset
reddit
La capacité de Qwen3.5-Omni à gérer 10 heures d'audio dans un seul contexte est insensée pour les chercheurs et les podcasteurs.
AI_Explorer_01
twitter
Le clonage vocal semble étonnamment naturel par rapport à la génération précédente, presque indiscernable en anglais.
TechGuru_Reviews
youtube
Enfin un modèle qui ne me coupe pas la parole en milieu de phrase ; l'interruption sémantique fonctionne comme promis.
hacker_news_user
hackernews
Des chiffres impressionnants sur le nouveau Qwen3.6 27B, mais la version Omni est celle que tout le monde utilisera pour des produits réels.
David Hendrickson
twitter
J'ai essayé de l'interrompre cinq fois, et il a capté mon intention à chaque fois.
Matt Shumer
youtube

Vidéos sur Qwen3.5-Omni

Regardez des tutoriels, critiques et discussions sur Qwen3.5-Omni

L'architecture Thinker-Talker est un pas de géant pour la latence en temps réel [04:15].

Il gère 400 secondes de vidéo, soit le double de ce que nous voyons habituellement [07:22].

Ce modèle est nativement multilingue et multimodal de bout en bout [10:05].

Le système ARIA empêche les erreurs de prononciation présentes dans la TTS standard [15:30].

Vous pouvez littéralement montrer votre écran et avoir une conversation fluide sur le code [22:10].

J'ai essayé de l'interrompre cinq fois, et il a capté mon intention à chaque fois [08:30].

La façon dont il écrit du code en se basant sur ce qu'il voit dans la vidéo est impressionnante [10:45].

C'est le premier vrai concurrent du mode vocal de GPT-4o que nous ayons vu [14:20].

Il prend en charge 113 langues pour la reconnaissance vocale, ce qui est un avantage majeur [18:55].

L'extraction visuelle est beaucoup plus robuste pour les PDF complexes et la vidéo [25:15].

Le contexte audio de 10 heures est la vraie star ici pour un usage en entreprise [12:10].

C'est sur les langues non anglaises que Qwen prend vraiment de l'avance [15:40].

Il peut faire la distinction entre le bruit de fond et une réelle interruption de l'utilisateur [19:22].

La tarification est très compétitive, surtout au vu du nombre de paramètres actifs [24:10].

C'est actuellement le modèle le plus performant pour l'automatisation Python impliquant une interface utilisateur visuelle [28:45].

Plus que de simples prompts

Optimisez votre flux de travail avec l'Automatisation IA

Automatio combine la puissance des agents IA, de l'automatisation web et des integrations intelligentes pour vous aider a accomplir plus en moins de temps.

Agents IA
Automatisation Web
Flux Intelligents

Conseils Pro pour Qwen3.5-Omni

Conseils d'experts pour tirer le meilleur parti de Qwen3.5-Omni.

Optimiser l'ingestion audio

Segmentez les fichiers audio de plus de 10 heures pour maintenir une précision de récupération factuelle au sein de la context window de 256k.

Exploiter l'interruption sémantique

Activez les fonctionnalités natives de prise de parole dans les applications vocales pour distinguer l'intention de l'utilisateur du bruit de fond.

Utiliser ARIA pour les termes techniques

Utilisez le mode de synthèse vocale en streaming pour bénéficier de l'alignement ARIA, qui garantit une prononciation précise des chiffres et termes techniques.

Contrôle de la fréquence d'images vidéo

Téléchargez les vidéos standard à 1 FPS, mais augmentez la fréquence pour les scènes d'action intense afin d'assurer une précision visuelle.

Témoignages

Ce Que Disent Nos Utilisateurs

Rejoignez des milliers d'utilisateurs satisfaits qui ont transforme leur flux de travail

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Associés AI Models

openai

GPT-5.4

OpenAI

GPT-5.4 is OpenAI's frontier model featuring a 1.05M context window and Extreme Reasoning. It excels at autonomous UI interaction and long-form data analysis.

1M context
$2.50/$15.00/1M
moonshot

Kimi K2 Thinking

Moonshot

Kimi K2 Thinking is Moonshot AI's trillion-parameter reasoning model. It outperforms GPT-5 on HLE and supports 300 sequential tool calls autonomously for...

256K context
$0.60/$2.50/1M
openai

GPT-5.2

OpenAI

GPT-5.2 is OpenAI's flagship model for professional tasks, featuring a 400K context window, elite coding, and deep multi-step reasoning capabilities.

400K context
$1.75/$14.00/1M
alibaba

Qwen3.6-Max-Preview

alibaba

Qwen3.6-Max-Preview is Alibaba's flagship MoE model featuring 1M context, a native thinking mode, and SOTA scores in agentic coding and reasoning.

1M context
$1.25/$10.00/1M
zhipu

GLM-5

Zhipu (GLM)

GLM-5 is Zhipu AI's 744B parameter open-weight powerhouse, excelling in long-horizon agentic tasks, coding, and factual accuracy with a 200k context window.

200K context
$1.00/$3.20/1M
zhipu

GLM-5.1

Zhipu (GLM)

GLM-5.1 is Zhipu AI's flagship reasoning model, featuring a 202K context window and an autonomous 8-hour execution loop for complex agentic engineering.

203K context
$1.40/$4.40/1M
openai

GPT-5.3 Codex

OpenAI

GPT-5.3 Codex is OpenAI's 2026 frontier coding agent, featuring a 400K context window, 77.3% Terminal-Bench score, and superior logic for complex software...

400K context
$1.75/$14.00/1M
google

Gemini 3.1 Flash-Lite

Google

Gemini 3.1 Flash-Lite is Google's fastest, most cost-efficient model. Features 1M context, native multimodality, and 363 tokens/sec speed for scale.

1M context
$0.25/$1.50/1M

Questions Fréquentes sur Qwen3.5-Omni

Trouvez des réponses aux questions courantes sur Qwen3.5-Omni