Amazon Web Services redessine ses centres de données de fond en comble, une entreprise colossale pour répondre aux besoins énergétiques de l'IA de nouvelle génération.
Amazon remanie la construction et la conception de ses centres de données dans le cadre d'un projet interne nommé « Titus ». Ce projet fait partie d'un plan d'investissement record de 200 milliards de dollars cette année, visant à gérer une nouvelle génération de matériel d'intelligence artificielle gourmand en énergie, provenant de sociétés comme Nvidia. Cette initiative marque un changement fondamental dans la manière dont le plus grand fournisseur de cloud au monde équipe ses installations pour l'ère de l'IA, en mettant l'accent sur la rapidité, l'efficacité et les technologies de refroidissement avancées.
« Nous voyons Amazon se lancer véritablement dans la course avec de nouvelles conceptions optimisées pour un déploiement plus rapide », a déclaré Reyk Knuhtsen, analyste chez SemiAnalysis, à Business Insider, qualifiant cette initiative de « poussée stratégique importante ».
l'initiative Titus vise à réduire le délai entre la construction et l'exploitation des centres de données à moins de 35 semaines et à augmenter la capacité des sites de 17 % pour atteindre 68 mégawatts, selon des documents internes. L'une des caractéristiques clés est le déploiement élargi des systèmes de refroidissement liquide propriétaires d'AWS, les « In-Row Heat Exchanger », conçus pour réduire la consommation d'énergie de refroidissement de 15 % et pour supporter les futurs matériels tels que les systèmes de serveurs Nvidia GB200 et Vera Rubin.
Ces dépenses d'infrastructure massives sont conçues pour défendre la domination d'AWS dans le cloud computing face à ses rivaux et pour réduire les coûts opérationnels à long terme. Le passage au refroidissement liquide interne et aux architectures électriques flexibles vise à éviter la « puissance bloquée » (stranded power) et à réduire le coût par kilowatt de 10 %, ce qui aura un impact direct sur la rentabilité de la fourniture de services d'IA à grande échelle.
La fin du refroidissement par air
Le boom de l'IA oblige à une remise en question des limites physiques des centres de données traditionnels. À mesure que les GPU de Nvidia et d'autres fabricants de puces deviennent exponentiellement plus puissants, ils génèrent également une chaleur immense que les systèmes de refroidissement par air conventionnels peinent à dissiper. Les documents de Titus montrent qu'AWS se prépare à un avenir où le refroidissement liquide ne sera plus une solution de niche, mais une nécessité courante. Le système « In-Row Heat Exchanger » (IRHX) est au cœur de cette stratégie, permettant à AWS de refroidir des baies à plus haute densité de puissance sans une refonte complète des installations. Cela les prépare aux prochaines plateformes GPU Vera Rubin de Nvidia, qui devraient augmenter considérablement la consommation d'énergie.
Construire plus vite, construire plus intelligemment
Au-delà du refroidissement, l'objectif central de Titus est la rapidité. AWS vise à raccourcir le délai entre le début du gros œuvre et une salle de serveurs entièrement opérationnelle à moins de 35 semaines, soit une accélération significative par rapport aux normes de l'industrie. Cela permet à l'entreprise de répondre plus rapidement à la demande croissante de capacité d'entraînement et d'inférence d'IA. Le projet se concentre également sur la création d'installations plus adaptables. En concevant des architectures électriques flexibles et en réduisant la « puissance bloquée », ou capacité électrique inutilisée, AWS peut s'assurer que ses centres de données coûteux sont utilisés plus efficacement, en s'adaptant à un plus large éventail de charges de travail, des tâches les moins intensives aux entraînements de modèles d'IA les plus exigeants.
L'alternative offshore
Pendant qu'Amazon redouble d'efforts pour redessiner ses installations terrestres, les besoins énergétiques extrêmes de l'IA poussent certains à explorer des concepts plus radicaux. Des start-ups comme Panthalassa développent des centres de données flottants autonomes dans l'océan, alimentés par l'énergie des vagues. De même, Aikido Technologies intègre des centres de données à des plateformes éoliennes offshore. Ces efforts, ainsi que des expériences passées comme le projet Natick de Microsoft, soulignent les immenses défis d'ingénierie auxquels l'industrie est confrontée. Pour l'instant, cependant, Amazon fait le pari que ses investissements massifs et ses innovations dans la conception et l'efficacité des centres de données terrestres seront la voie la plus viable pour « pérenniser » son infrastructure face à la vague d'IA à venir.
Cet article est fourni à titre informatif uniquement et ne constitue pas un conseil en investissement.