Brief IA

Nvidia s'engage dans le domaine de l'IA open-source laissé vacant par OpenAI, Meta et Anthropic

💻 Code & Devvia The Decoder·Maximilian Schreiner·

Nvidia s'engage dans le domaine de l'IA open-source laissé vacant par OpenAI, Meta et Anthropic

Nvidia s'engage dans le domaine de l'IA open-source laissé vacant par OpenAI, Meta et Anthropic

⚡ Résumé en français par Brief IA

• Nvidia prévoit d'investir 26 milliards de dollars dans des modèles d'IA open-weight au cours des cinq prochaines années. • Cette initiative vise à contrer la montée en puissance des modèles open-source chinois. • En renforçant son écosystème matériel, Nvidia cherche à fidéliser les développeurs et à sécuriser sa position sur le marché. 💡 Pourquoi c'est important : Cette stratégie pourrait redéfinir la compétition dans le secteur de l'IA en favorisant l'innovation tout en consolidant la domination de Nvidia.

📄 Article traduit en français

Nvidia s'engage dans le domaine de l'IA open-source laissé vacant par OpenAI, Meta et Anthropic

Selon un dépôt auprès de la SEC, Nvidia prévoit d'investir 26 milliards de dollars dans des modèles d'IA open-source sur cinq ans. L'entreprise lance également Nemotron 3 Super, son modèle ouvert le plus puissant à ce jour.

Les fournisseurs chinois comme DeepSeek et Alibaba dominent actuellement l'espace open-source, tandis que les entreprises américaines telles que Meta et OpenAI limitent ou affaiblissent leurs offres ouvertes.

Nvidia pourrait utiliser stratégiquement ces modèles ouverts pour maintenir les développeurs dans son propre écosystème matériel et se positionner comme une alternative occidentale aux modèles open-weight chinois.

Un dépôt auprès de la SEC révèle qu'Nvidia prévoit de dépenser 26 milliards de dollars sur cinq ans pour développer des modèles d'IA open-weight. Ce mouvement répond à la domination croissante des modèles open-source chinois et vise à garder les développeurs ancrés dans l'écosystème matériel de Nvidia.

Nvidia investira 26 milliards de dollars sur cinq ans pour construire des modèles d'IA open-source, selon un dépôt financier auprès de la Securities and Exchange Commission des États-Unis. Des dirigeants de l'entreprise ont confirmé ces plans lors d'interviews avec WIRED.

En parallèle de cette annonce, Nvidia a lancé Nemotron 3 Super, son modèle open-weight le plus performant à ce jour avec 128 milliards de paramètres. Sur le banc d'essai Artificial Analysis Index, le modèle surpasse légèrement GPT-OSS d'OpenAI et se situe à peu près au même niveau que Claude 4.5 Haiku d'Anthropic, mais reste en deçà de concurrents comme le Qwen3.5 122B A10B chinois.

Nvidia a utilisé plusieurs innovations techniques lors de l'entraînement pour améliorer les capacités de raisonnement et la gestion de longs contextes. Comme ses variantes plus petites, Nemotron 3 Super est un modèle hybride combinant l'architecture Transformer avec Mamba.

Les fournisseurs chinois prennent les devants dans l'IA open-source

Cet investissement intervient à un moment où l'équilibre des pouvoirs dans les modèles d'IA ouverts est en train de changer. Meta a ouvert la voie avec Llama, mais le PDG Zuckerberg a récemment signalé que les futurs modèles pourraient ne pas être entièrement ouverts. GPT-OSS d'OpenAI reste significativement moins puissant que les offres propriétaires de l'entreprise. Anthropic n'offre pas de modèles ouverts du tout.

Pendant ce temps, des fournisseurs chinois comme DeepSeek, Alibaba, Moonshot AI et MiniMax publient presque tous leurs poids de modèle gratuitement. Il y a eu des signes récents de changement ici aussi, avec des départs de l'équipe Qwen d'Alibaba. Cependant, les modèles chinois restent la meilleure alternative ouverte pour de nombreux cas d'utilisation, même si des benchmarks plus récents montrent que l'écart pratique avec les meilleurs modèles occidentaux est souvent plus important que ce que les anciens benchmarks - que tous les fournisseurs optimisent - pourraient suggérer.

Malgré cela, l'adoption généralisée de ces modèles dans l'industrie occidentale ne s'est pas concrétisée. La tendance semble se diriger vers des modèles fermés de fournisseurs comme Anthropic ou OpenAI.

Les modèles ouverts comme outil pour vendre plus de matériel Nvidia

En janvier 2025, DeepSeek a provoqué des turbulences sur le marché boursier avec un modèle open-source efficace qui remettait en question l'avance perçue des laboratoires d'IA occidentaux et la quantité de matériel nécessaire pour rivaliser. Le prochain choc pourrait être imminent : un nouveau modèle de DeepSeek aurait été entraîné exclusivement sur des puces du fabricant chinois Huawei, qui est sous sanctions américaines. Si cela s'avère vrai, davantage d'entreprises et de chercheurs pourraient se tourner vers le matériel de Huawei, en particulier en Chine.

D'autres rapports suggèrent que DeepSeek a également accès à des GPU Nvidia Blackwell sanctionnés et continue de s'entraîner avec eux. Sous la pression du gouvernement chinois, DeepSeek essaie depuis un certain temps de s'entraîner sur des puces Huawei, mais selon des rapports de l'année dernière, l'effort a échoué en raison de problèmes techniques, notamment des performances instables et une chaîne d'outils logiciels immature. En même temps, Nvidia a reçu l'autorisation d'exporter à nouveau des puces d'IA plus puissantes vers la Chine après des années de sanctions strictes. Les entreprises chinoises sont désireuses d'acheter, mais la direction chinoise souhaite éviter une dépendance renouvelée.

La publication de ses propres modèles ouverts optimisés spécifiquement pour le matériel Nvidia crée un contrepoids ici - et, à condition que Nvidia puisse produire des modèles véritablement compétitifs, une alternative pour les entreprises occidentales. Ceux qui utilisent Nemotron et des modèles connexes restent dans l'écosystème Nvidia. L'entreprise cible également un marché où les grands laboratoires d'IA ont été largement absents : la robotique et d'autres applications d'IA en périphérie.

Bryan Catanzaro, vice-président de la recherche en apprentissage profond appliqué chez Nvidia, l'a diplomatiquement exprimé à WIRED : "Nous sommes une entreprise américaine, mais nous travaillons avec des entreprises du monde entier. Il est dans notre intérêt de rendre l'écosystème diversifié et fort partout."

Nvidia a déjà pré-entraîné un modèle de 550 milliards de paramètres et a publié des modèles spécialisés pour la robotique, la modélisation climatique et le repliement des protéines.

Kari Briski, vice-présidente des logiciels d'IA générative, a souligné une autre dimension stratégique : les modèles servent également à tester la résistance des centres de données à l'échelle des superordinateurs de Nvidia et à faire avancer sa feuille de route matérielle. "Nous les construisons pour étirer nos systèmes et tester non seulement le calcul, mais aussi le stockage et le réseau, et pour développer notre feuille de route d'architecture matérielle," a-t-elle déclaré à WIRED.

TwitterLinkedIn

Brief IA — Veille IA en français

Toutes les innovations mondiales en IA, traduites et résumées automatiquement. Recevoir les meilleures actus IA chaque jour.