Le boom de l'infrastructure d'IA crée une crise d'inflation cachée pour les plus grandes entreprises technologiques mondiales, les coûts de la mémoire devant quadrupler en tant que part des dépenses.
Le boom de l'infrastructure d'IA crée une crise d'inflation cachée pour les plus grandes entreprises technologiques mondiales, les coûts de la mémoire devant quadrupler en tant que part des dépenses.

Au-delà de la « taxe Nvidia » bien documentée, une nouvelle « taxe sur la mémoire » devrait consommer 30 % des dépenses d'investissement (Capex) du cloud hyperscale d'ici 2026, contre seulement 8 % en 2024, selon une étude de SemiAnalysis. Cette tendance menace les modèles de profit des leaders de l'IA comme Microsoft et Meta tout en orientant des bénéfices historiques vers une poignée de fournisseurs de mémoire.
« Presque toute la valeur s'accumule au niveau de la couche des puces, ce qui est à la fois sans précédent et insoutenable », a déclaré James Covello, responsable de la recherche sur les actions mondiales chez Goldman Sachs. « La prospérité des entreprises de puces se fait au détriment de toutes les entreprises situées plus haut dans la chaîne de valeur. »
La pression sur les coûts est déjà visible dans les prévisions prospectives. Microsoft s'attend désormais à ce que la hausse des prix des composants augmente ses dépenses d'investissement annuelles de 25 milliards de dollars, portant son total à 190 milliards de dollars. Meta a récemment relevé ses prévisions de Capex de 10 milliards de dollars, citant les coûts des puces mémoire comme principal moteur. Cela fait suite à une augmentation de plus de 90 % d'un trimestre à l'autre des prix de vente moyens de la DRAM pour Samsung et à des marges opérationnelles record de 72 % pour le fabricant de mémoire SK Hynix lors de son dernier trimestre.
Cette dynamique crée un vent contraire majeur pour les fournisseurs de cloud comme Amazon, Google et Microsoft, tout en alimentant un marché haussier historique pour un trio concentré de fournisseurs de mémoire : SK Hynix, Samsung et l'américain Micron Technology (MU). La valeur boursière combinée de ces trois sociétés a déjà dépassé les 2,8 billions de dollars alors qu'elles capitalisent sur les pénuries structurelles de mémoire à haute bande passante (HBM), un composant clé des accélérateurs d'IA.
Au cours des deux dernières années, le principal moteur de coût dans l'infrastructure d'IA a été le GPU, la domination du marché par Nvidia lui permettant d'imposer des marges brutes supérieures à 75 % — un phénomène connu sous le nom de « taxe Nvidia ». Aujourd'hui, une deuxième crise des coûts émerge de la mémoire. Les accélérateurs d'IA grand public nécessitent de grandes quantités de HBM, un type de DRAM (mémoire vive dynamique) spécialisé et gourmand en silicium qui permet un accès rapide aux données.
Selon SemiAnalysis, le marché est structurellement sous-approvisionné en HBM, et les prix de la DRAM devraient plus que doubler d'ici 2026. Le cabinet de recherche a également noté une dynamique souvent ignorée par le marché : Nvidia bénéficie d'une tarification « très, très prioritaire » sur la DRAM, bien en dessous de ce que paient ses clients hyperscale. Cet arrangement masque la gravité réelle de la pénurie d'approvisionnement pour le reste du marché.
Le marché de la mémoire est un oligopole fonctionnel contrôlé par les sud-coréens SK Hynix et Samsung Electronics, aux côtés de Micron Technology, basé dans l'Idaho. Ces entreprises sont les principales bénéficiaires de la taxe sur la mémoire. SK Hynix a récemment déclaré que les clients « privilégient la sécurisation des volumes plutôt que les négociations de prix ».
Micron est un acteur clé, ses solutions HBM connaissant une forte adoption par les hyperscaleurs. Le leadership de l'entreprise dans la technologie DRAM et sa feuille de route pour la prochaine génération HBM4 la positionnent pour capturer une part significative du marché en expansion. Pour son exercice fiscal actuel, les analystes s'attendent à ce que le chiffre d'affaires et les bénéfices de Micron croissent de plus de 100 % chacun, selon Zacks Investment Research, qui attribue à l'action une note « Strong Buy » (#1). Le boom de l'IA profite également à d'autres acteurs de l'infrastructure comme Seagate Technology (STX), qui bénéficie de la demande de stockage de masse pour soutenir les modèles d'IA.
Face à l'escalade des coûts provenant de fournisseurs externes, les plus grands fournisseurs de cloud accélèrent leurs efforts pour développer leurs propres puces personnalisées. Les unités de traitement Tensor (TPU) de Google, les puces Trainium d'Amazon et les accélérateurs Maia de Microsoft représentent tous des efforts stratégiques pour réduire la dépendance vis-à-vis de Nvidia et prendre le contrôle de leur infrastructure matérielle. Amazon estime que ses puces Trainium pourraient lui faire économiser des milliards de dollars en coûts d'approvisionnement annuels.
Cependant, cette voie n'offre aucun soulagement à court terme. Construire un semi-conducteur compétitif est un effort de plusieurs années et de plusieurs milliards de dollars. De plus, la fabrication de ces puces repose toujours sur des fonderies tierces comme Taiwan Semiconductor Manufacturing Co. (TSMC), qui fonctionnent elles-mêmes à pleine capacité. La construction d'usines de fabrication de semi-conducteurs prenant des années, une augmentation significative de l'offre n'est pas imminente.
Les conséquences du boom du matériel d'IA commencent à se répercuter sur l'économie au sens large. Les fabricants de mémoire privilégiant les commandes de centres de données à forte marge, l'offre pour l'électronique grand public s'est tendue. Cela oblige les fabricants de smartphones, de PC et de consoles de jeux à choisir entre augmenter les prix, réduire les spécifications ou absorber des bénéfices moindres. Nintendo a déjà annoncé une augmentation de prix pour sa future console Switch 2, et les ventes mondiales de smartphones devraient baisser cette année.
Les économistes notent également la pression inflationniste. « L'immense demande de semi-conducteurs, de capacité de mémoire et d'autres composants d'infrastructure d'IA semble se répercuter sur les prix à la consommation », a déclaré Tiffany Wilding, économiste chez PIMCO, citant des données récentes sur l'inflation de la consommation personnelle. Si la Réserve fédérale n'est pas en mesure de réduire les taux d'intérêt en conséquence, le coût élevé de la poursuite de l'intelligence artificielle sera payé par tous.
Cet article est fourni à titre informatif uniquement et ne constitue pas un conseil en investissement.