Meta and OpenAI's compute crunch gives Arm a big opportunity
La crise de calcul de Meta et OpenAI offre une grande opportunité à Arm
Le PDG d'Arm, Rene Haas, a annoncé le processeur AGI de l'entreprise lors de la conférence Arm Everywhere mardi. Arm a dévoilé son propre puce AI, le processeur AGI, et s'associe avec OpenAI et Meta. Ce nouveau processeur AGI d'Arm vise à résoudre les problèmes d'efficacité énergétique et de contraintes de mémoire dans les centres de données AI. Malgré des perspectives de croissance solides, Arm fait face à la concurrence de géants établis comme Nvidia et AMD.
Arm a longtemps fonctionné en tant qu'architecte en coulisses, concevant des puces qui alimentent presque tous les smartphones du monde et générant des revenus grâce aux royalties des puces qu'elle conçoit pour ses clients. Maintenant, Arm change de cap en annonçant sa propre puce AI, le processeur AGI. Rene Haas a déclaré mardi lors d'une conférence que ce changement massif n'était pas seulement un ajustement stratégique interne, mais une demande directe des plus puissants géants de l'AI. L'entreprise a mentionné OpenAI et Meta comme partenaires majeurs pour cette puce.
« La principale raison pour laquelle nous faisons cela est que nos partenaires l'ont demandé », a déclaré Haas mardi.
Avec les contraintes énergétiques et les pénuries de mémoire, l'essor de l'AI a créé un goulot d'étranglement massif dans les centres de données. Face à cette demande, Arm a proposé une puce AI qu'elle affirme être plus énergétiquement efficace. Arm estime voir une opportunité de marché de 1,5 trillion de dollars alors qu'elle se lance dans les puces AI pour le cloud, l'edge et l'AI physique. L'action d'Arm a augmenté de plus de 18 % mercredi. Les analystes de Mizuho ont écrit qu'ils voient de « fortes opportunités de croissance » pour Arm dans l'infrastructure AI et l'industrie automobile. L'analyste de recherche de Bank of America, Vivek Arya, a noté dans une communication aux investisseurs que les perspectives de l'entreprise pourraient être « trop ambitieuses ».
Partenariats de Meta et OpenAI avec Arm
Meta a construit des centres de données à une échelle massive pour alimenter ses applications et ses dernières initiatives de superintelligence. Santosh Janardhan, responsable de l'infrastructure chez Meta, a déclaré mardi sur scène que son futur cluster « Hyperion » pourrait consommer 5 gigawatts d'énergie, suffisant pour alimenter 50 villes de la taille de Palo Alto.
« Si nous atteignions les performances, nous ne pouvions pas obtenir l'énergie. Si nous obtenions l'énergie, nous n'aurions pas les performances », a déclaré Janardhan.
Cela a déclenché un projet d'ingénierie au sein de Meta, où les ingénieurs « travaillaient jour et nuit » pour adapter ses systèmes à Arm en trois mois, a déclaré Paul Saab, un ingénieur de Meta. « Je n'ai même pas demandé la permission à mon patron ici pour acheter ces machines ou même commencer le projet », a déclaré Saab sur scène. Bien que Saab ait constaté des avantages de performance majeurs, à l'époque, il n'y avait pas de puce ARM disponible à l'achat.
OpenAI a rencontré un problème similaire. Sa demande de calcul a considérablement augmenté alors qu'elle forme et exécute ses modèles ChatGPT, son outil de codage AI Codex, et plus encore. « C'est l'une des choses les plus courantes que j'entends chez OpenAI. J'ai besoin de plus de calcul », a déclaré Kevin Weil, vice-président d'OpenAI pour la science, sur scène, ajoutant qu'ils avaient besoin de puces énergétiquement efficaces. Arm a déclaré qu'elle s'attend à ce que cette puce génère 15 milliards de dollars de revenus d'ici l'exercice fiscal 2031.
Un marché des puces de plus en plus encombré
Arm fait face au risque que le marché des processeurs soit « de plus en plus encombré », a écrit Arya dans sa note d'analyste. D'autres concurrents, tels qu'AMD, Nvidia et Intel, ont plus de produits de processeurs et des clients plus établis. Notamment, Meta et OpenAI travaillent également avec AMD et Nvidia, ce qui pourrait laisser une opportunité « limitée » pour la nouvelle puce d'Arm, a écrit Arya.
« De plus, plus l'AI se développe, plus les marchés de smartphones/consommateurs d'ARM seraient sous pression en raison des approvisionnements limités en mémoire », a écrit Arya.
Cela dit, la demande croissante a conduit de nombreux clients à se tourner vers des entreprises de puces au-delà de Nvidia pour leurs besoins en calcul. Meta et OpenAI travaillent également avec Broadcom pour construire des puces AI.
L'essor des agents AI a également entraîné une demande accrue pour l'inférence, ou la manière dont les modèles AI tirent des conclusions et font des prédictions. Alors que les puces AI principales de Nvidia, les GPU, dominent l'entraînement AI, des processeurs comme le processeur AGI d'Arm peuvent également aider avec l'inférence. Nvidia a également récemment fait des mouvements dans ce marché.
Brief IA — Veille IA quotidienne
Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.