Brief IA

Meta dévoile quatre générations de puces IA personnalisées pour réduire les coûts d'inférence pour des milliards d'utilisateurs

🛠️ Outils IAvia The Decoder·Matthias Bastian·

Meta dévoile quatre générations de puces IA personnalisées pour réduire les coûts d'inférence pour des milliards d'utilisateurs

Meta dévoile quatre générations de puces IA personnalisées pour réduire les coûts d'inférence pour des milliards d'utilisateurs

⚡ Résumé en français par Brief IA

• Meta a lancé quatre nouvelles puces IA sur mesure axées sur l'inférence. • Ces puces visent à diminuer la dépendance de Meta vis-à-vis des fabricants de GPU comme Nvidia et AMD. • Cette initiative pourrait transformer le paysage de l'IA en rendant les technologies plus accessibles et moins coûteuses. 💡 Pourquoi c'est important : Cela pourrait réduire significativement les coûts d'infrastructure pour les entreprises utilisant l'IA.

📄 Article traduit en français

Meta dévoile quatre générations de puces IA personnalisées

Meta a dévoilé quatre nouvelles générations de puces IA personnalisées : MTIA 300, 400, 450 et 500, conçues pour rendre l'IA moins coûteuse à déployer sur ses plateformes.

Les puces sont développées en partenariat avec Broadcom et visent à rendre les applications IA plus rentables pour les milliards d'utilisateurs des plateformes de Meta. Meta indique qu'elle suit un cycle de développement d'environ six mois par génération de puces. Entre les MTIA 300 et 500, la bande passante mémoire (HBM) augmente d'un facteur de 4,5 et la puissance de calcul bondit de 25 fois.

Détails des générations de puces

  • MTIA 300 : Optimisée pour les modèles de classement et de recommandation (R&R) et déjà en production.

  • MTIA 400 : Première génération capable de rivaliser avec les principaux produits commerciaux en termes de performance brute. Un rack de 72 puces forme un domaine de montée en charge. La MTIA 400 a terminé les tests en laboratoire et est actuellement déployée dans les centres de données.

  • MTIA 450 et 500 : Ciblent spécifiquement l'inférence IA générative. La MTIA 450 double la bande passante HBM par rapport à la MTIA 400, surpassant les produits commerciaux existants. Ces puces prennent en charge des formats de données à faible précision comme MX4 et MX8, réduisant la puissance de calcul nécessaire pour l'inférence sans nuire significativement à la qualité du modèle. La MTIA 500 ajoute encore 50 % de bande passante HBM et jusqu'à 80 % de capacité HBM supplémentaire. Les deux puces sont prévues pour une production de masse en 2027.

Performance et compatibilité logicielle

Meta a construit les puces autour de normes industrielles telles que PyTorch, vLLM et Triton. Les développeurs peuvent porter des modèles existants vers MTIA sans adaptations spéciales et les exécuter à la fois sur des GPU et sur MTIA. Plus de détails techniques sont disponibles sur le blog de Meta.

Meta continue également de collaborer avec AMD et Nvidia pour les GPU. Début février 2026, Meta a annoncé un contrat d'un milliard de dollars avec AMD pour fournir jusqu'à six gigawatts de puissance de calcul GPU AMD Instinct pour les charges de travail IA de Meta.

TwitterLinkedIn

Brief IA — Veille IA en français

Toutes les innovations mondiales en IA, traduites et résumées automatiquement. Recevoir les meilleures actus IA chaque jour.