Reuters.com
24 avril 2026Un soldat américain inculpé pour avoir parié sur la chute de Nicolas Maduro grâce à des informations classifiées
24 avril 2026Analyse : Voici quelques points à considérer selon notre équipe éditoriale.
Les journalistes partagent leur point de vue sur « Meta utilisera des centaines de milliers de puces AWS Graviton ».
Éléments essentiels
Autour 3,6 milliards les gens utilisent Les méta applications chaque jour, et la société de réseautage social fonctionnera 32 centres de données pour gérer la charge avec l’achèvement d’un nouveau projet en Oklahoma. Mais cela ne suffit pas.
d’Amazon Cloud Unit a déclaré vendredi que Meta avait accepté d’utiliser les puces Graviton à usage général d’Amazon dans le cadre d’un accord qui durerait au moins trois ans.
Cet accord démontre la volonté de Meta, sous la direction du PDG Mark Zuckerberg, de faire des folies afin de pouvoir répondre à une demande informatique élevée, aux côtés de ses pairs technologiques tels que Alphabet et Microsoft. Ces dernières semaines, Meta a signé des accords d’une valeur combinée 48 milliards de dollars avec CoreWeave et je ne le ferai pasqui louent tous deux l’accès aux unités de traitement graphique Nvidia, ou GPU, qui exécutent des modèles d’IA.
Amazon n’a pas divulgué la valeur de son accord Meta.
Meta contrebalance l’expansion des infrastructures par des réductions d’effectifs. Jeudi, l’entreprise a annoncé son intention de licencier environ 8 000 salariéssoit 10 % de ses effectifs.
Contrairement aux GPU Nvidia, BrasLes processeurs Graviton basés sur le cloud supérieur d’Amazon Web Services peuvent prendre en charge un large éventail de tâches informatiques, similaires à Intel ou AMD unités centrales de traitement, ou CPU. Mais Graviton peut toujours s’avérer utile pour les charges de travail d’IA, en particulier pour les raffinements ou la post-formation, une fois que les modèles ont été entraînés avec de grandes quantités de données à l’aide de clusters informatiques à grande échelle.
« Graviton est l’une des plates-formes de pré-formation les plus utilisées par de nombreuses entreprises modèles de fondations, et Meta est désormais l’une des plus récentes », a déclaré Nafea Bshara, vice-présidente d’AWS et ingénieure distinguée.
Bshara a cofondé la société de puces Annapurna Labs, qu’Amazon a acquise en 2015. Depuis lors, Amazon a développé puces à usage spécial pour la formation et l’exécution de modèles d’IA, entre autres composants. Graviton est devenu un succès retentissant, étant adopté par Adobe, Pomme et Flocon de neige. Plus tôt cette semaine, le constructeur de modèles d’IA soutenu par Amazon, Anthropic plans annoncés d’utiliser également les processeurs Graviton.
AWS affirme que Graviton offre le meilleure performance pour un prix donné de toutes les options informatiques disponibles via le service informatique EC2, tout en utilisant 60 % d’énergie en moins.
Meta a utilisé des puces Graviton à petite échelle et va désormais exploiter des centaines de milliers de puces, ce qui en fera l’un des cinq principaux clients de Graviton, a déclaré Bshara. La société loue des GPU Nvidia à AWS depuis 2017, a-t-il déclaré.
Jeudi, Lip-Bu Tan, PDG d’Intel a déclaré aux analystes cette demande dépasse l’offre pour ses puces de serveur Xeon.
« Ces dernières années, l’histoire du calcul haute performance concernait presque exclusivement les GPU et autres accélérateurs », a déclaré Tan. « Ces derniers mois, nous avons vu des signes clairs que le CPU est en train de se réinsérer comme le fondement indispensable de l’ère de l’IA. »
Mais Meta n’a pas choisi Graviton parce que d’autres types de processeurs n’étaient pas disponibles, a déclaré Bshara.
« L’extension à Graviton nous permet d’exécuter les charges de travail gourmandes en CPU derrière l’IA agentique avec les performances et l’efficacité dont nous avons besoin à notre échelle », a déclaré Santosh Janardhan, responsable de l’infrastructure de Meta, cité dans un communiqué.
Source : www.cnbc.com
Conclusion : Cette situation mérite une attention continue de notre équipe éditoriale.

9999999
