執行摘要
微軟正與博通洽談開發客製化人工智慧(AI)晶片,這項策略性舉措旨在降低其對輝達的依賴,並控制其資料中心營運不斷上漲的成本。隨著AI在其產品套件中(特別是Copilot等服務)的深度融合,微軟正在尋求一種垂直整合策略,以創建針對其獨特工作負載最佳化的客製化晶片,這一策略已由Google及其Tensor處理單元(TPU)等競爭對手成功採用。
事件詳情
報告顯示,微軟正積極與博通合作,設計用於AI加速的客製化ASIC(應用特定積體電路)。此舉似乎旨在使其AI硬體供應鏈多樣化,目前該供應鏈由輝達昂貴、高性能的GPU主導。潛在的合作還可能導致微軟逐漸減少與Marvell Technology等其他合作夥伴的合作,後者此前曾與超大規模資料中心運營商合作開發客製化晶片。目標是生產專門針對微軟AI模型量身定制的晶片,從而可能為推論任務——運行訓練好的AI模型的過程——提供更高的效率,而推論任務在資料中心工作負載中所佔比例越來越高。
財務機制解析
這一策略背後的財務驅動力顯而易見:減輕AI基礎設施所需的巨額資本支出。輝達在其高階GPU上的毛利率超過70%,淨利率超過50%,這些GPU每塊售價可超過3萬美元。對於微軟、亞馬遜和Meta等在AI領域投入數千億美元的超大規模資料中心運營商來說,這種「輝達稅」是一個重要的開支項目。
透過與客製化晶片設計領域的領導者博通合作,微軟可以設計出針對其自有軟體(如為Azure和Copilot提供支援的模型)進行最佳化的處理器。這可以透過提高每瓦性能和減少對單一高價供應商的依賴來降低總體擁有成本。行業正見證從AI訓練(輝達在該領域的主導地位無爭議)到AI推論的策略轉變,後者是對營運成本和效率更敏感的領域,客製化設計的晶片可以在此提供競爭優勢。
市場影響
微軟-博通的合作將對半導體市場產生連鎖反應:
- 對於輝達 (NVDA): 這引入了一個實力雄厚、資金充足的競爭對手。雖然輝達的CUDA軟體生態系統提供了強大的護城河,但PyTorch等開源框架的興起以及客製化硬體的普及正開始侵蝕其主導地位。此舉驗證了替代方案市場的可行性。
- 對於博通 (AVGO): 這標誌著一次重要的設計勝利,鞏固了其作為尋求垂直整合硬體堆棧的科技巨頭關鍵推動者的作用。它使博通的收入多樣化,並增強了其在高增長AI晶片市場的地位。
- 對於Marvell (MRVL): 失去微軟這一關鍵客製化晶片客戶的可能性將凸顯ASIC設計領域的激烈競爭。
- 對於英特爾 (INTC) 和AMD (AMD): 這強化了市場對超越單一架構的多樣化AI硬體解決方案的需求,驗證了它們與輝達競爭的自身努力。
更廣闊的背景
這一發展並非憑空發生,而是科技行業更大範圍策略調整的一部分。Google以其TPU開創了這一策略,這些TPU在高效訓練和運行其AI模型方面發揮了重要作用。同樣,Meta也正在大力投資其自有客製化晶片,以實現其AI雄心。這一趨勢凸顯了超大規模資料中心運營商的策略 imperative:控制其自身技術棧,以管理成本、確保供應鏈韌性並最佳化性能。
此外,此舉是在全球記憶體晶片短缺(特別是對於AI加速器至關重要的高頻寬記憶體HBM)的背景下進行的。擁有客製化晶片可以更好地進行協同設計和與記憶體解決方案的整合。地緣政治因素也發揮了作用,因為該行業正尋求降低高度集中在台灣的供應鏈風險。透過開發自己的硬體路線圖,微軟在預計到2026年年銷售額將接近1萬億美元的行業中,獲得了對其技術和地緣政治命運的更大控制權。