Brief IA

Qwen 3.5, l'alternative chinoise 100% gratuite à ChatGPT

🤖 Modèles & LLMvia Journal du Net IA·Benjamin Polge·

Qwen 3.5, l'alternative chinoise 100% gratuite à ChatGPT

Qwen 3.5, l'alternative chinoise 100% gratuite à ChatGPT

⚡ Résumé en français par Brief IA

Qwen 3.5 est une nouvelle intelligence artificielle chinoise qui fonctionne sur PC de bureau et qui se distingue par sa performance, surpassant même GPT-5 Nano dans de nombreux tests. De plus, elle est entièrement open source et gratuite, offrant ainsi une alternative accessible à ChatGPT.

📄 Article traduit en français

Qwen 3.5, l'alternative chinoise 100% gratuite à ChatGPT

Qwen 3.5 tourne sur un PC de bureau et surpasse GPT-5 Nano sur la majorité des benchmarks, le tout en open source, sans débourser un centime.

Dans la course à l'IA, la Chine reste collée au pare-chocs des Américains. Mois après mois, les laboratoires chinois, tels que Moonshot, MiniMax, ou DeepSeek, enchaînent les déploiements de modèles à un rythme soutenu. Leur stratégie se dessine clairement : face aux modèles propriétaires américains, ils prônent des modèles open source de haute volée, dont les résultats aux benchmarks se rapprochent inexorablement des leaders du secteur. Dernier exemple en date : le laboratoire d'IA du géant Alibaba a dévoilé une nouvelle mouture de son modèle phare, Qwen.

La version 3.5, annoncée en février, propose une gamme allant de 397 milliards de paramètres dans sa déclinaison la plus massive jusqu'à une version 27B, en passant par des modèles intermédiaires à 122 et 35 milliards de paramètres. Cette dernière, en architecture MoE avec 3 milliards de paramètres actifs, reste déjà gourmande en ressources, nécessitant plus de 22 Go de VRAM. Début mars, elle s'enrichit de quatre nouveaux modèles : 9B, 4B, 2B et 0.8B, taillés pour l'inférence sur PC sans configuration matérielle démesurée. Ces modèles, en plus de fonctionner sur de petites machines, parviennent à égaler, voire surpasser, plusieurs modèles propriétaires qui faisaient encore figure de référence il y a quelques mois. Alors, faut-il troquer son abonnement ChatGPT contre un modèle chinois open source qui tourne en local sur votre machine ?

Qwen 3.5, un modèle conçu pour une exécution locale

La dernière mise à jour de Qwen 3.5, le 2 mars, apporte ainsi quatre nouveaux modèles : Qwen 3.5 0.8B, Qwen 3.5 2B, Qwen 3.5 4B et Qwen 3.5 9B. Côté architecture, Qwen ne se contente pas de rétrécir son modèle géant. Les petites versions héritent d'une innovation clé de la série : un système d'attention hybride qui alterne entre deux mécanismes. Sur quatre étapes de traitement consécutives, trois utilisent une "attention linéaire", bien moins gourmande en calcul, et une seule fait appel à l'attention classique, plus précise mais plus coûteuse en ressources. Concrètement, Alibaba est parvenu à compresser significativement les ressources nécessaires à l'exécution du modèle sans compromettre la qualité de ses réponses.

L'ensemble des versions publiées est également nativement multimodal. Contrairement à d'autres modèles qui greffent un encodeur de vision après coup, Qwen 3.5 intègre la compréhension visuelle dès sa conception : texte, images et vidéo sont traités au sein du même réseau neuronal, sans distinction. Le modèle ne produit en revanche que du texte en sortie. Côté contexte, Qwen 3.5 revendique une fenêtre de 262 000 tokens nativement, soit l'équivalent d'un roman de 500 pages traité d'un seul coup. Il est même possible de pousser cette limite jusqu'à un million de tokens (environ 2 heures de vidéo) moyennant une légère perte de précision, via YaRN (une technique d'ajustement mathématique de la taille de contexte).

Un modèle au-dessus de GPT-5 Nano sur plusieurs benchmarks

Les résultats dans les benchmarks ont de quoi surprendre et sont la véritable force du modèle. Sur les tâches de vision et de raisonnement multimodal, Qwen 3.5-9B domine largement GPT-5 Nano d'OpenAI et Gemini 2.5 Flash-Lite de Google. En compréhension de documents (OmniDocBench), la version 9B affiche 87,7 contre 55,9 pour le modèle d'OpenAI. Même constat en compréhension vidéo, en intelligence spatiale ou en VQA médicale : le petit modèle d'Alibaba écrase ses concurrents propriétaires sur quasiment toute la ligne.

Plus remarquable encore sur les benchmarks textuels : le 9B surpasse GPT-OSS-120B, le modèle open source d'OpenAI qui pèse pourtant 120 milliards de paramètres, soit treize fois plus. C'est le cas en raisonnement scientifique (GPQA Diamond : 81,7 contre 80,1), en connaissances générales (MMLU-Pro : 82,5 contre 80,8) ou encore en compréhension de contextes longs (LongBench v2 : 55,2 contre 48,2). La version 4B, plus modeste, reste aussi au-dessus de GPT-5 Nano et Gemini Flash-Lite sur la majorité des benchmarks vision, ce qui en fait une option très crédible pour les configurations les plus contraintes.

Qwen 3.5 pêche toutefois en code (LiveCodeBench) : le 9B plafonne à 65,6 contre 82,7 pour GPT-OSS-120B (la taille compte encore pour les tâches de code complexe). Même décalage sur les compétitions mathématiques avancées (HMMT) : 83,2 contre 90,0 pour le modèle d'OpenAI.

En clair, pour les usages classiques, analyse de documents, raisonnement visuel, compréhension multilingue, agents, Qwen 3.5-9B joue dans la cour des grands. Mais pour le code de haut niveau et les mathématiques de compétition, les modèles plus lourds conservent une longueur d'avance.

Un modèle simple et facile à installer

Publié sous licence Apache 2.0, Qwen 3.5 est entièrement gratuit et libre d'utilisation, y compris pour un usage commercial (et c’est notable).

TwitterLinkedIn

Brief IA — Veille IA en français

Toutes les innovations mondiales en IA, traduites et résumées automatiquement. Recevoir les meilleures actus IA chaque jour.