L'IA est insatiable
🤖 Modeles & LLM

L'IA est insatiable

IEEE Spectrum
Harry Goldstein·3 min·1 vues
En bref
1L'article aborde la pénurie actuelle de DRAM due à la demande excessive des hyperscalers de l'IA pour la mémoire.
2La pénurie concerne particulièrement la mémoire à large bande passante (HBM), essentielle pour le fonctionnement rapide des modèles de langage.
3Cette situation souligne le besoin urgent d'augmenter la capacité de production de mémoire pour soutenir l'expansion de l'IA.
💡Pourquoi c'est importantLa limitation des ressources mémoire pourrait freiner l'innovation et le déploiement des technologies d'IA avancées.
📄
Article traduit en français

L'IA est insatiable

En parcourant notre site web il y a quelques semaines, je suis tombé sur l'article de Samuel K. Moore, "Comment et quand la pénurie de puces mémoire prendra fin". Son analyse se concentre sur la pénurie actuelle de DRAM causée par l'appétit insatiable des hyperscalers de l'IA pour la mémoire, une contrainte majeure sur la vitesse à laquelle fonctionnent les grands modèles de langage. Moore fournit une explication claire de la pénurie, en particulier pour la mémoire à large bande passante (HBM).

Comme nous et le reste des médias tech l'avons documenté, l'IA est un véritable gouffre de ressources. La consommation d'électricité de l'IA pourrait représenter jusqu'à 12 % de toute l'énergie aux États-Unis d'ici 2028. Les requêtes d'IA générative ont consommé 15 térawattheures en 2025 et devraient atteindre 347 TWh d'ici 2030. La consommation d'eau pour le refroidissement des centres de données de l'IA devrait doubler, voire quadrupler d'ici 2028 par rapport à 2023.

Mais le reportage de Moore met en lumière un aspect obscur du boom de l'IA. La HBM est un type particulier de produit mémoire conçu sur mesure pour servir les processeurs d'IA. Les fabricants de ces processeurs, notamment Nvidia et AMD, exigent de plus en plus de mémoire pour chacun de leurs puces, motivés par les besoins et désirs d'entreprises comme Google, Microsoft, OpenAI et Anthropic, qui financent une construction sans précédent de centres de données. Et certaines de ces installations sont colossales : vous pouvez lire sur les défis d'ingénierie liés à la construction du site Hyperion de 5 gigawatts de Meta en Louisiane dans l'article "Qu'est-ce qu'il faudra pour construire le plus grand centre de données du monde ?".

Nous avons réalisé que l'histoire de Moore sur la HBM était à la fois importante et unique, et nous avons donc décidé de l'inclure dans ce numéro, avec quelques mises à jour depuis sa publication originale le 10 février. Nous l'avons associée à un article récent de Matthew S. Smith, notre rédacteur associé, explorant comment la pénurie de puces mémoire fait grimper le prix des ordinateurs à bas coût comme le Raspberry Pi. Le résultat est "L'IA est un gouffre de mémoire".

La grande question maintenant est : quand la pénurie prendra-t-elle fin ? La pression sur les prix causée par la demande des hyperscalers de l'IA sur tous les types d'électronique grand public est masquée par une inflation tenace combinée à un régime tarifaire en perpétuelle évolution, du moins ici aux États-Unis. J'ai donc demandé à Moore quels indicateurs il surveillait pour signaler un assouplissement de la pénurie de mémoire.

« Du côté de l'offre, je dirais que si l'une des trois grandes entreprises de HBM — Micron, Samsung et SK Hynix — annonce qu'elle ajuste le calendrier d'arrivée de la nouvelle production, ce serait un signal important », m'a déclaré Moore. « Du côté de la demande, il sera intéressant de voir comment les entreprises technologiques s'adaptent tout au long de la chaîne d'approvisionnement. Les centres de données pourraient se tourner vers du matériel qui sacrifie un peu de performance pour moins de mémoire. Les startups développant toutes sortes de produits pourraient pivoter vers des redesigns créatifs utilisant moins de mémoire. Les contraintes comme les pénuries peuvent mener à des solutions technologiques intéressantes, donc j'ai hâte de couvrir cela. »

Lire l'article original sur IEEE Spectrum

📧

Cet article vous a plu ?

Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.

Chaque soir à 19h

Gratuit · Pas de spam · Désabonnement en 1 clic

Commentaires