Sự bùng nổ hạ tầng AI đang tạo ra một cuộc khủng hoảng lạm phát tiềm ẩn cho các công ty công nghệ lớn nhất thế giới, với chi phí bộ nhớ dự kiến tăng gấp bốn lần trong tổng chi tiêu.
Sự bùng nổ hạ tầng AI đang tạo ra một cuộc khủng hoảng lạm phát tiềm ẩn cho các công ty công nghệ lớn nhất thế giới, với chi phí bộ nhớ dự kiến tăng gấp bốn lần trong tổng chi tiêu.

Ngoài 'thuế Nvidia' đã được ghi nhận rõ ràng, một loại 'thuế bộ nhớ' mới dự kiến sẽ tiêu tốn 30% chi phí vốn của điện toán đám mây quy mô lớn (hyperscale) vào năm 2026, tăng từ mức chỉ 8% vào năm 2024, theo nghiên cứu từ SemiAnalysis. Xu hướng này đe dọa các mô hình lợi nhuận của những gã khổng lồ AI như Microsoft và Meta, đồng thời chuyển lợi nhuận lịch sử sang một nhóm nhỏ các nhà cung cấp bộ nhớ.
James Covello, Trưởng bộ phận Nghiên cứu Cổ phiếu Toàn cầu tại Goldman Sachs, cho biết: 'Hầu như tất cả giá trị đang tích tụ ở lớp chip, điều này vừa chưa từng có tiền lệ vừa không bền vững. Sự thịnh vượng của các công ty chip đến từ sự đánh đổi của tất cả các công ty cao hơn trong chuỗi giá trị.'
Áp lực chi phí đã hiển hiện trong các dự báo tương lai. Microsoft hiện kỳ vọng giá linh kiện cao hơn sẽ làm tăng chi phí vốn hàng năm thêm 25 tỷ USD, đẩy tổng số lên 190 tỷ USD. Meta gần đây đã tăng dự báo capex thêm 10 tỷ USD, viện dẫn chi phí chip bộ nhớ là động lực chính. Điều này theo sau sự gia tăng hơn 90% so với quý trước về giá bán trung bình DRAM của Samsung và biên lợi nhuận hoạt động kỷ lục 72% cho nhà sản xuất bộ nhớ SK Hynix trong quý gần nhất.
Động lực này tạo ra một rào cản lớn cho các nhà cung cấp đám mây như Amazon, Google và Microsoft, đồng thời thúc đẩy một thị trường giá lên lịch sử cho bộ ba nhà cung cấp bộ nhớ tập trung: SK Hynix, Samsung và Micron Technology (MU) có trụ sở tại Hoa Kỳ. Giá trị vốn hóa thị trường kết hợp của ba công ty này đã vượt quá 2,8 nghìn tỷ USD khi họ tận dụng tình trạng thiếu hụt cấu trúc của bộ nhớ băng thông rộng (HBM), một thành phần quan trọng trong các máy tăng tốc AI.
Trong hai năm qua, động lực chi phí chính trong hạ tầng AI là GPU, với sự thống trị thị trường của Nvidia cho phép công ty này kiểm soát biên lợi nhuận gộp trên 75% — một hiện tượng được gọi là 'thuế Nvidia'. Giờ đây, một cuộc khủng hoảng chi phí thứ hai đang nổi lên từ bộ nhớ. Các máy tăng tốc AI phổ thông đòi hỏi lượng lớn HBM, một loại DRAM (bộ nhớ truy cập ngẫu nhiên động) chuyên dụng và thâm dụng silicon, cung cấp khả năng truy cập dữ liệu nhanh chóng.
Theo SemiAnalysis, thị trường đang thiếu hụt nguồn cung HBM về mặt cấu trúc và giá DRAM dự kiến sẽ tăng hơn gấp đôi vào năm 2026. Công ty nghiên cứu cũng lưu ý một động lực thường bị thị trường bỏ qua: Nvidia nhận được mức giá 'cực kỳ ưu tiên' cho DRAM, thấp hơn nhiều so với mức giá mà các khách hàng hyperscale của họ phải trả. Thỏa thuận này che giấu mức độ nghiêm trọng thực sự của tình trạng khan hiếm nguồn cung đối với phần còn lại của thị trường.
Thị trường bộ nhớ là một sự độc quyền nhóm được kiểm soát bởi SK Hynix và Samsung Electronics của Hàn Quốc, cùng với Micron Technology có trụ sở tại Idaho. Các công ty này là những người thụ hưởng chính của thuế bộ nhớ. SK Hynix gần đây đã tuyên bố rằng khách hàng đang 'ưu tiên việc đảm bảo khối lượng hơn là đàm phán giá cả'.
Micron là một người chơi chủ chốt, với các giải pháp HBM của họ đang được các nhà cung cấp hyperscale áp dụng mạnh mẽ. Sự dẫn đầu của công ty trong công nghệ DRAM và lộ trình cho thế hệ HBM4 tiếp theo giúp họ có vị thế để chiếm lĩnh một phần đáng kể của thị trường đang mở rộng. Trong năm tài chính hiện tại, các nhà phân tích kỳ vọng doanh thu và thu nhập của Micron sẽ tăng hơn 100% mỗi loại, theo Zacks Investment Research, đơn vị xếp hạng cổ phiếu này là #1 'Mua mạnh'. Cơn sốt AI cũng đang nâng tầm các nhà cung cấp hạ tầng khác như Seagate Technology (STX), công ty đang hưởng lợi từ nhu cầu lưu trữ dung lượng lớn để hỗ trợ các mô hình AI.
Đối mặt với chi phí leo thang từ các nhà cung cấp bên ngoài, các nhà cung cấp đám mây lớn nhất đang đẩy nhanh nỗ lực phát triển chip tùy chỉnh của riêng họ. Đơn vị xử lý Tensor (TPU) của Google, chip Trainium của Amazon và máy tăng tốc Maia của Microsoft đều đại diện cho những nỗ lực chiến lược nhằm giảm sự phụ thuộc vào Nvidia và giành quyền kiểm soát hệ thống phần cứng của họ. Amazon ước tính chip Trainium của mình có thể tiết kiệm hàng tỷ USD chi phí mua sắm hàng năm.
Tuy nhiên, con đường này không mang lại sự giải tỏa trong ngắn hạn. Xây dựng một chất bán dẫn cạnh tranh là một nỗ lực kéo dài nhiều năm và tiêu tốn nhiều tỷ USD. Hơn nữa, việc sản xuất các chip này vẫn phụ thuộc vào các xưởng đúc bên thứ ba như Taiwan Semiconductor Manufacturing Co. (TSMC), những nơi vốn đang hoạt động hết công suất. Với việc các nhà máy chế tạo bán dẫn mất nhiều năm để xây dựng, việc tăng nguồn cung đáng kể không phải là chuyện sớm muộn.
Hệ quả của sự bùng nổ phần cứng AI đang bắt đầu lan rộng ra nền kinh tế rộng lớn hơn. Với việc các nhà sản xuất bộ nhớ ưu tiên các đơn hàng trung tâm dữ liệu có biên lợi nhuận cao, nguồn cung cho điện tử tiêu dùng đã bị thắt chặt. Điều này buộc các nhà sản xuất điện thoại thông minh, PC và máy chơi game phải lựa chọn giữa tăng giá, giảm thông số kỹ thuật hoặc chấp nhận lợi nhuận thấp hơn. Nintendo đã thông báo tăng giá cho bảng điều khiển Switch 2 sắp tới và doanh số bán điện thoại thông minh toàn cầu dự kiến sẽ giảm trong năm nay.
Các nhà kinh tế cũng đang lưu ý đến áp lực lạm phát. 'Nhu cầu khổng lồ về bán dẫn, dung lượng bộ nhớ và các thành phần hạ tầng AI khác dường như đang chuyển sang giá tiêu dùng,' Tiffany Wilding, nhà kinh tế tại PIMCO, cho biết khi trích dẫn dữ liệu lạm phát tiêu dùng cá nhân gần đây. Nếu Cục Dự trữ Liên bang không thể cắt giảm lãi suất do kết quả này, cái giá đắt cho việc theo đuổi trí tuệ nhân tạo sẽ do mọi người chi trả.
Bài viết này chỉ mang tính chất thông tin và không cấu thành lời khuyên đầu tư.