Les puces IA évincent tout le reste des lignes de production les plus avancées de TSMC

⚡ Résumé en français par Brief IA
• D'ici 2027, 86 % de la capacité N3 de TSMC pourrait être dédiée aux accélérateurs IA. • TSMC, acteur majeur dans la fabrication de semi-conducteurs, voit une demande croissante pour les puces IA. • Les smartphones servent de tampon pour la demande excédentaire, soulignant une évolution du marché. 💡 Pourquoi c'est important : Cette transition vers les puces IA pourrait redéfinir les priorités de production dans l'industrie des semi-conducteurs.
📄 Article traduit en français
Les puces IA évincent tout le reste des lignes de production les plus avancées de TSMC
En 2026, Nvidia, Google, Amazon et AMD déplaceront tous leurs accélérateurs IA vers le processus N3 de TSMC en même temps. Selon SemiAnalysis, TSMC a sous-estimé la demande pendant des années et ne sera pas en mesure de construire suffisamment de capacité pendant au moins deux années supplémentaires.
Les plaques de silicium IA devraient représenter environ 86 % de la capacité N3 d'ici 2027. La demande affaiblie pour les smartphones libère de la capacité qui est redirigée directement vers les puces IA.
La mémoire est également rare. La HBM consomme environ trois fois plus de capacité de plaque par bit que la DRAM standard, et avec la HBM4, ce ratio pourrait devenir encore plus défavorable.
D'ici 2027, 86 % de la capacité N3 de TSMC pourrait être consacrée aux accélérateurs IA, selon SemiAnalysis. Les smartphones deviennent un tampon pour la demande excédentaire.
En 2026, presque chaque grande famille d'accélérateurs IA se déplacera vers le processus de fabrication N3 de TSMC en même temps : le Rubin de Nvidia, le TPU v7/v8 de Google, le Trainium3 d'Amazon et le MI350X d'AMD. Le choc de demande qui en résulte frappe une fonderie qui ne peut tout simplement pas s'étendre assez rapidement. Selon SemiAnalysis, TSMC a été pris au dépourvu, avec une expansion de la capacité des plaques bien en retard par rapport à la demande IA en forte hausse.
SemiAnalysis souligne à quel point TSMC a mal évalué la demande IA. Même si la plus grande expansion de calcul de l'histoire a commencé fin 2022, les dépenses d'investissement de TSMC n'ont pas dépassé leur précédent pic avant 2025. Ce n'est que maintenant que TSMC a reconnu à quel point la demande des clients a dépassé sa capacité, et l'entreprise prévoit de dépasser de manière significative le record de dépenses d'investissement de l'année dernière en 2026.
Mais même des milliards de dépenses supplémentaires ne résoudront pas le problème rapidement, car de nouvelles salles blanches doivent être construites et équipées avant que la capacité supplémentaire ne soit opérationnelle. SemiAnalysis s'attend à ce que TSMC ne puisse pas ajouter suffisamment de capacité pour répondre pleinement à la demande pendant au moins les deux prochaines années.
La capacité d'utilisation de N3 devrait dépasser 100 %
La situation est si tendue que l'utilisation effective de N3 devrait dépasser 100 % au second semestre de 2026, écrivent les analystes. TSMC déplace déjà certaines couches de processus vers d'autres fonderies pour maximiser la capacité N3 là où cela est possible. Bien que les plaques liées à l'IA représentent actuellement un peu moins de 60 % de la production N3 en 2026, cette part devrait atteindre 86 % en 2027.
L'industrie des smartphones devient ce que SemiAnalysis appelle la valve de décharge. La demande des consommateurs, affaiblie par la hausse des prix de la mémoire, libère de la capacité de plaques qui est redirigée vers les accélérateurs IA. SemiAnalysis calcule que la réallocation de 25 % des débuts de plaques N3 pour smartphones permettrait de produire environ 700 000 GPU Rubin supplémentaires ou 1,5 million de TPU v7 supplémentaires.
Mais une capacité logicielle accrue à elle seule ne résoudra pas le problème, car la mémoire est également rare. La HBM consomme environ trois fois plus de capacité de plaque que la DRAM standard, un écart qui pourrait se creuser pour atteindre près de quatre fois à mesure que l'industrie passe à la HBM4.
Brief IA — Veille IA en français
Toutes les innovations mondiales en IA, traduites et résumées automatiquement. Recevoir les meilleures actus IA chaque jour.