Derniers artefacts ouverts (#19) : Qwen 3.5, GLM 5, MiniMax 2.5 — La dernière avancée des laboratoires chinois

⚡ Résumé en français par Brief IA
• Les laboratoires chinois ont récemment lancé des modèles avancés d'IA, notamment Qwen 3.5, GLM 5 et MiniMax 2.5. • Ces modèles représentent une avancée significative dans le domaine de l'intelligence artificielle, avec des performances améliorées par rapport à leurs prédécesseurs. • Ce développement s'inscrit dans un contexte de compétition accrue entre les laboratoires d'IA en Chine et à l'international, soulignant l'importance de l'innovation continue dans ce secteur. 💡 Pourquoi c'est important : Ces avancées pourraient redéfinir les standards de l'IA et influencer les stratégies des entreprises à l'échelle mondiale.
📄 Article traduit en français
Derniers artefacts ouverts (#19) : Qwen 3.5, GLM 5, MiniMax 2.5 — La dernière avancée des laboratoires chinois
Le mois a été chargé en matière d'IA à poids ouverts, avec de nouveaux modèles phares de Qwen, MiniMax, Z.ai, Ant Ling et StepFun. Cependant, toutes les attentions se portent sur la sortie imminente de DeepSeek V4, dont les rumeurs continuent de s'intensifier. En dehors des grands modèles de pointe, ce numéro est un peu plus léger en ce qui concerne les modalités de niche et les tailles de modèles.
Avec toutes ces nouvelles sorties, nous les suivons grâce à nos nouvelles Métriques d'Adoption Relative (RAM), un outil de mesure qui normalise les téléchargements de modèles par rapport aux modèles pairs de leur catégorie de taille. Cet outil s'est déjà révélé extrêmement utile, mettant en lumière des modèles sous-estimés comme GPT-OSS, qui est littéralement hors des graphiques en termes de téléchargements — le modèle à poids ouverts américain le plus populaire depuis Llama 3.1. Un score RAM >1 signifie que le modèle est en bonne voie pour devenir un des 10 modèles les plus téléchargés de tous les temps dans sa catégorie de taille. Nous sommes particulièrement intéressés de voir comment l'adoption précoce des petits modèles denses Qwen 3.5 se comparera à celle de Qwen 3 — équilibrant la marque en pleine croissance de Qwen avec une architecture de modèle hybride plus complexe qui peut repousser les limites de certains outils open-source.
Un résumé des scores RAM pour certains des modèles populaires lancés fin 2025 est ci-dessous, mettant en avant Kimi K2 Thinking et certains modèles OCR comme des gagnants clairs. DeepSeek V3.2, ainsi que leurs autres modèles récents, ont sous-performé par rapport aux premières sorties de DeepSeek en 2025.
Le temps ici est exprimé en jours depuis la sortie.
Journal des Artefacts
Nos Sélections
-
Qwen3.5-397B-A17B par Qwen : La mise à jour tant attendue de Qwen est enfin là. Elle se décline en plusieurs tailles allant de 0.8B à 27B (dense) et de 35B-A3B à 397B-A17B (MoE), certains d'entre eux étant même dotés de modèles de base. Tous sont multi-modaux, utilisent le raisonnement par défaut et sont basés sur l'architecture Qwen-Next avec des couches GDN. Nous avons testé ces modèles au cours des derniers jours, et ils représentent une nette amélioration par rapport à la version précédente : de nombreuses améliorations substantielles ont été apportées, les rendant parfaits pour une large gamme de tâches. Leur style et leur capacité à suivre les instructions se sont améliorés, et les modèles sont encore meilleurs pour les tâches multilingues, couvrant plus de langues. Cependant, au moins les petits modèles ont encore tendance à trop réfléchir. Vous pouvez désactiver le raisonnement en le désactivant dans le modèle de chat.
-
Step-3.5-Flash par stepfun-ai : StepFun a vraiment relevé le niveau, en lançant un modèle 196B-A11B MoE avec de solides métriques dans tous les domaines. Il est particulièrement performant dans les benchmarks mathématiques, surpassant des modèles plusieurs fois plus grands que lui.
-
GLM-5 par zai-org : Un modèle 744B-A40B de l'équipe Zhipu, qui a entraîné une telle augmentation de la demande qu'ils ont relevé les prix de leur plan de codage. Il est également accompagné d'un rapport technique.
-
MiniMax-M2.5 par MiniMaxAI : Malgré sa taille relativement petite, MiniMax-M2.5 peut rivaliser avec des modèles tels que GLM-5 et Kimi K2.5 et est rapidement devenu l'un des favoris de la communauté.
-
OpenThinker-Agent-v1 par open-thoughts : Les OpenThinkers, connus pour leurs sorties de raisonnement ouvert (comme OpenThoughts 3), s'attaquent maintenant au raisonnement agentique. Leur première sortie inclut des données SFT et RL, ainsi qu'une version "lite" de tâches basées sur le terminal pour évaluer les modèles plus petits.
Les différences subtiles dans l'architecture de ces modèles sont couvertes en détail dans le récapitulatif similaire, plus axé sur la technique, — c'est un bon complément si vous souhaitez approfondir : Ahead of AIA Dream of Spring for Open-Weight LLMs: 10 Architectures from Jan-Feb 2026.
Si vous avez eu un peu de mal à suivre les sorties de modèles à poids ouverts ce mois-ci, cet article devrait vous mettre à jour sur les principaux thèmes…
Modèles
-
Tri-21B-Think par trillionlabs : Les Trillion Labs coréens sont des invités réguliers de la série Artifacts. Cette fois, ils lancent un modèle de raisonnement de 21B avec support pour l'anglais, le coréen et le japonais.
-
MiniCPM-SALA par openbmb : Un modèle de 8B en anglais et en chinois avec attention sparse, supportant une fenêtre de contexte de 1M.
Brief IA — Veille IA en français
Toutes les innovations mondiales en IA, traduites et résumées automatiquement. Recevoir les meilleures actus IA chaque jour.