Micron giới thiệu bộ nhớ tiên tiến cho PC AI
Micron Technology (MU) đã công bố ra mắt các mô-đun bộ nhớ Crucial LPCAMM2 mới được thiết kế cho máy tính xách tay và máy trạm sẵn sàng AI. Sự ra mắt sản phẩm chiến lược này đã thúc đẩy phản ứng tích cực của thị trường, với cổ phiếu của Micron tăng 5,06% vào ngày công bố, phản ánh niềm tin ngày càng tăng của nhà đầu tư vào phân khúc PC AI đang phát triển.
Đổi mới kỹ thuật và định vị thị trường
Bộ nhớ Crucial LPCAMM2 mới được giới thiệu, dựa trên công nghệ LPDDR5X của Micron, mang lại những cải tiến đáng kể về hiệu suất. Các mô-đun này tự hào có tốc độ lên tới 8.533 megatransfers mỗi giây (MT/s) và dung lượng đạt tới 64GB. Các tính năng chính bao gồm tốc độ vượt trội, kiểu dáng nhỏ gọn hơn và mức tiêu thụ điện năng thấp hơn so với bộ nhớ máy tính xách tay DDR5 truyền thống. Hơn nữa, khả năng nâng cấp của LPCAMM2 cho phép thay thế hoặc mở rộng dễ dàng, kéo dài tuổi thọ thiết bị.
Được thiết kế để xử lý các khối lượng công việc đòi hỏi khắt khe như tác vụ AI, mô phỏng và đa nhiệm, Micron đã hợp tác với các nhà sản xuất PC lớn như Lenovo và Dell để đảm bảo tích hợp liền mạch vào các thiết kế máy tính xách tay sắp tới. Việc tập trung vào PC AI này đại diện cho một thành phần quan trọng trong chiến lược tăng trưởng của Micron.
Phản ứng thị trường và triển vọng tài chính
Phản ứng ngay lập tức của thị trường đối với thông báo của Micron là đặc biệt lạc quan. Ngoài mức tăng trong một ngày, cổ phiếu của Micron đã tăng 121,7% từ đầu năm đến nay, vượt trội đáng kể so với ngành Hệ thống tích hợp máy tính của Zacks, vốn chỉ tăng 64,2% trong cùng kỳ. Hiệu suất này nhấn mạnh sự lạc quan mạnh mẽ của nhà đầu tư xung quanh bước chuyển chiến lược của Micron hướng tới phần cứng do AI điều khiển.
Trong cuộc gọi báo cáo thu nhập quý 4 năm tài chính 2025, Micron đã nhấn mạnh tầm quan trọng ngày càng tăng của PC AI đối với quỹ đạo tăng trưởng của mình. Công ty dự đoán số lượng máy tính cá nhân xuất xưởng sẽ tăng vào năm 2025, được thúc đẩy bởi việc áp dụng hệ thống hỗ trợ AI và việc thay thế các thiết bị Windows 10 cũ hơn. Các nhà phân tích dự báo tổng doanh thu của Micron trong năm tài chính 2026 sẽ tăng 42,4% lên 53,22 tỷ USD, với lợi nhuận dự kiến tăng 100% trong cùng năm tài chính. Từ góc độ định giá, MU giao dịch ở tỷ lệ giá trên doanh số dự phóng là 3,82, thấp hơn mức trung bình ngành là 4,4.
Bối cảnh thị trường rộng lớn hơn và Cảnh quan cạnh tranh
Việc ra mắt LPCAMM2 định vị Micron để tận dụng thị trường PC AI đang mở rộng nhanh chóng, được dự báo sẽ tăng từ 48,74 tỷ USD vào năm 2024 lên khoảng 281,08 tỷ USD vào năm 2034, với tốc độ tăng trưởng kép hàng năm (CAGR) là 19,15%.
Cơ hội tăng trưởng này cũng đã thu hút các công ty khác trong ngành. Western Digital (WDC) và Intel (INTC) đang tích cực phát triển các chiến lược riêng trong hệ sinh thái PC AI:
- Western Digital đang tăng cường các sản phẩm lưu trữ của mình cho khối lượng công việc AI, được chứng minh bằng việc thử nghiệm nền tảng OpenFlex Data24 NVMe-oF để cải thiện xử lý dữ liệu AI và thúc đẩy SSD của mình để xử lý dữ liệu AI tốt hơn.
- Intel đang phát triển PC AI thông qua bộ xử lý Core Ultra, tích hợp đơn vị xử lý thần kinh (NPU) tích hợp. Ngoài ra, Intel đang hợp tác với NVIDIA để phát triển các hệ thống mới kết hợp CPU và GPU của họ để tăng cường hiệu suất AI.
Những sáng kiến này làm nổi bật một cách tiếp cận đa diện của ngành để đáp ứng nhu cầu đa dạng của khối lượng công việc AI trong điện toán cá nhân, với các công ty tập trung vào các thành phần khác nhau như bộ nhớ, lưu trữ và đơn vị xử lý chứ không phải cạnh tranh trực tiếp về các yếu tố hình thức cụ thể.
Triển vọng: Tăng trưởng bền vững trong phần cứng do AI điều khiển
Trong tương lai, sự gia tăng dự kiến về số lượng PC AI xuất xưởng vào năm 2025 được kỳ vọng sẽ thúc đẩy tăng trưởng đáng kể trên toàn bộ chuỗi cung ứng thành phần PC AI. LPCAMM2 của Micron sẵn sàng thiết lập một luồng doanh thu mới và ổn định, đa dạng hóa danh mục đầu tư của công ty ngoài bộ nhớ băng thông cao (HBM) và DRAM truyền thống. Những nỗ lực chung của các công ty công nghệ hàng đầu nhấn mạnh những tiến bộ toàn diện cần thiết trong bộ nhớ, lưu trữ và xử lý để hỗ trợ các yêu cầu nghiêm ngặt của ứng dụng AI thế hệ tiếp theo.