Après les serveurs IA, Micron annonce que la robotique et les voitures autonomes pourraient s'approprier toute la RAM
Micron triple son chiffre d'affaires et prévient : les voitures autonomes et robots humanoïdes auront besoin de 300 Go de DRAM chacun. La pénurie de mémoire n'est pas près de se calmer.
La pénurie de mémoire qui frappe le marché depuis fin 2025 a une cause principale : les data centers d'intelligence artificielle. Mais les résultats trimestriels de Micron, publiés ce mercredi, dessinent un horizon encore plus tendu. Le fabricant américain anticipe deux nouvelles sources massives de demande à moyen terme : la conduite autonome et la robotique humanoïde.
Des résultats qui confirment l'appétit insatiable de l'IA
Les chiffres du deuxième trimestre fiscal 2026 donnent le vertige. Micron affiche 23,86 milliards de dollars de revenus. C'est presque le triple des 8,05 milliards enregistrés un an plus tôt. Par rapport au trimestre précédent, le bond atteint 10,3 milliards. Le bénéfice net s'établit à 13,8 milliards, contre 1,58 milliard au même trimestre en 2025. Le P.D.-G. attribue ces résultats à l'explosion de la demande liée à l'IA, aux contraintes structurelles d'approvisionnement et à l'exécution opérationnelle de Micron. L'entreprise signe désormais des contrats stratégiques pluriannuels avec ses clients. Un premier accord sur cinq ans a déjà été conclu. De nouvelles lignes de production doivent augmenter la capacité de 20 % d'ici la fin de l'année.
300 Go par robot : projection technique ou storytelling financier ?
Le point clé de la présentation se situait au-delà des data centers. Le CEO estime que les véhicules autonomes de niveau 4 nécessiteront plus de 300 Go de DRAM. Le niveau 4, dit « L4 », désigne un véhicule capable de rouler sans conducteur dans un périmètre géographique défini. Les robotaxis Waymo à San Francisco en sont l'exemple le plus avancé. Contre 16 Go pour un véhicule actuel, le ratio est de 1 à 19. Pour les robots humanoïdes, la facture serait comparable. Micron parle d'un « vecteur de croissance sur vingt ans » pour la robotique.
Mais ces chiffres méritent d'être confrontés aux données de l'industrie. Les spécifications techniques du L4 évoquent 300 Go/s de bande passante, pas 300 Go de capacité. Ce n'est pas la même chose. La bande passante désigne le débit de transfert, la capacité désigne le volume de mémoire embarquée. En 2023, une étude publiée par Micron tablait sur 278 Go de DRAM et NAND combinés pour un véhicule moyen en 2026. Plus tôt encore, des estimations du même fabricant plaçaient la DRAM seule à 74 Go pour un véhicule L5 en 2025. Le bond à 300 Go de DRAM pure pour le L4 représente une inflation considérable par rapport à ses propres projections. Côté robots, aucune source tierce ne corrobore ce niveau. Les plateformes actuelles, du Jetson AGX Thor de NVIDIA au Tesla Optimus, fonctionnent avec quelques dizaines de Go.
Un message clair pour les investisseurs
N'oublions pas à qui s'adresse le patron de Micron lorsqu'il fait ce type de déclarations. Malgré des résultats historiques, le titre a reculé en séance post-clôture. Les investisseurs redoutent un essoufflement de la fièvre des serveurs IA une fois les grands déploiements achevés. La robotique et l'autonome servent ici de relais narratif. Le message est limpide : même si la demande serveur ralentit, d'autres gouffres à mémoire suivront.
Sauf que Micron est à la fois le fournisseur et l'auteur des projections de demande. La pénurie actuelle ne devrait pas se résorber avant fin 2027 selon les analystes. Si les véhicules autonomes et les robots entrent en production de masse dans cette fenêtre, le répit n'arrivera jamais pour le grand public. Si ces marchés tardent, Micron aura besoin d'un nouveau récit.
Quand celui qui vend la mémoire est aussi celui qui prédit la demande, mieux vaut prendre ses prévisions avec des pincettes.
📧
Cet article vous a plu ?
Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.