Le PDG de Nvidia, Jensen Huang : L'idée que l'IA détruira le logiciel est "ridicule"
Jensen Huang explique sur le podcast de Lex Fridman pourquoi les agents d'IA utiliseront les logiciels existants au lieu de les remplacer. Même un robot humanoïde utiliserait le micro-ondes plutôt que de projeter des micro-ondes avec ses doigts - et deviendrait instantanément un expert en lisant le manuel en ligne.
Huang considère le cadre OpenClaw de Nvidia comme un tournant pour l'IA agentique, le qualifiant de "l'iPhone des tokens". Il prédit des prix de tokens premium allant jusqu'à 1 000 $ par million de tokens, avec des centres de données se transformant en usines de tokens.
Nvidia a redessiné son architecture de racks en conséquence : la nouvelle plateforme Vera Rubin se compose de cinq types de racks spécialisés, conçus spécifiquement pour exécuter des agents d'IA plutôt que pour l'inférence de modèles linguistiques.
Jensen Huang explique pourquoi les agents d'IA utiliseront des logiciels plutôt que de les remplacer. Nvidia a redessiné l'ensemble de son architecture de racks en conséquence.
"Beaucoup de gens diraient : 'Vous savez, l'IA va complètement détruire le logiciel. Nous n'avons plus besoin de logiciels. Nous n'avons même plus besoin d'outils.' C'est ridicule," déclare Jensen Huang sur le podcast de Lex Fridman.
Son contre-argument est une expérience de pensée : même l'agent le plus impressionnant que nous puissions imaginer dans les dix prochaines années - un robot humanoïde - utiliserait probablement simplement le micro-ondes existant plutôt que de projeter des micro-ondes de ses doigts. La première fois qu'il s'approche du micro-ondes, il ne sait probablement pas comment l'utiliser. "Mais ce n'est pas grave. Il est connecté à Internet. Il lit le manuel de ce micro-ondes, le lit, et devient instantanément un expert." Avec cela, Huang dit qu'il a essentiellement décrit "presque toutes les propriétés d'OpenClaw." Il affirme avoir esquissé le concept pour de tels agents deux ans plus tôt sur la scène du GTC.
Huang compare l'impact d'OpenClaw à celui de ChatGPT
Huang voit OpenClaw comme un tournant comparable à ChatGPT. Selon lui, le cadre "a fait pour les systèmes agentiques ce que ChatGPT a fait pour les systèmes génératifs." Il explique la percée en termes pratiques : OpenClaw est devenu viral "parce que les consommateurs pouvaient y accéder." Il le qualifie de "l'iPhone des tokens" et "de l'application à la croissance la plus rapide de l'histoire."
Derrière cela se cache un argument économique plus large. Selon Huang, les tokens deviennent une marchandise avec des niveaux de prix différenciés, allant des tokens gratuits aux tokens premium. L'idée que quelqu'un sera prêt à payer 1 000 $ par million de tokens est "juste au coin de la rue. Ce n'est pas si, c'est seulement quand," dit-il. À son avis, les centres de données se transforment de dépôts de données en usines de tokens dont les revenus sont directement corrélés à la production de tokens.
L'architecture de rack de Nvidia est conçue pour les agents, pas seulement pour les LLM
Pour Nvidia, cette conviction a de réelles conséquences. Les racks Grace Blackwell étaient encore purement optimisés pour l'inférence de LLM. La nouvelle plateforme Vera Rubin se compose plutôt de cinq types de racks spécialisés. Ceux-ci incluent des racks Vera CPU dédiés pour le sandboxing des agents, des racks de stockage BlueField-4 pour un contexte de cache KV massif, et le rack Groq 3 LPX pour une inférence à ultra-faible latence. "Tout ce système de racks est complètement différent de l'ancien," déclare Huang. Le précédent était conçu pour exécuter des modèles linguistiques MoE pour l'inférence. Celui-ci est construit pour exécuter des agents. Et les agents, comme le dit Huang, "frappent sur des outils."
📧
Cet article vous a plu ?
Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.
