NVIDIA 以 50 億美元入股 Intel 普通股。在金融市場,這是一則投資新聞,但在 AI 產業,許多人把它解讀為一個趨勢訊號:AI 算力生態圈的競爭正在洗牌中。
過去十年,GPU 幾乎是算力的代名詞。但隨著大型語言模型(LLM) 開始進入企業應用,大家發現:
因此,LLM 部署的挑戰已經從「顯卡有多強」轉為 CPU × RAM × VRAM 是否能協同。
NVLink:CPU 與 GPU 的潛在橋樑
外界推測,這次 Intel × NVIDIA 的合作,關鍵可能落在互連技術。
傳統的 NVLink,主要用於 GPU 與 GPU(或其他加速器)之間的高速互聯。而針對 CPU 與 GPU 的連結,NVIDIA 在 Computex 推出了 NVLink C2C(Chip-to-Chip),目的就是加速 CPU 與 GPU 之間的資料傳輸,並可能讓 CPU 主記憶體(如 DDR5)與 GPU 的 VRAM(HBM)在邏輯上形成更大的共享記憶體池。
若 Intel 的 CPU 能導入 NVLink C2C,將有機會讓 NVIDIA 的 x86 平台效能更接近 Grace Hopper(Arm CPU)那樣的緊密整合。不過,目前 NVLink 與另一個重要協定 CXL 屬於不同技術路線,尚未統一。因此,合作雖具可能性,但實際落地還需要時間觀察。
GB10 與 Arm 路線仍是現階段主力
可以確定的是,NVIDIA 目前的主力產品線仍然以 Arm 架構 CPU 為核心。近期準備上市的 GB10(Grace Blackwell 超級系統,GH200 的後繼),就是專門針對大規模 LLM 訓練與推理。
這也意味著,Intel 的角色較可能是「補上 x86 市場需求」,而不是在短期內取代 NVIDIA 既有的 Arm 方案。
專家觀點
過去就這兩大陣營合作的生態圈中,未來巢科技 Futurenest 董事長許旭安 提醒:「很多公司以為導入 LLM 就是多買幾張 GPU,但真正的挑戰常常來自 CPU 的調度速度、RAM 的頻寬,以及 VRAM 的大小。如果三者沒有搭配好,算力紅利就會被稀釋。」
他指出,當三者能協同設計並對齊時,不僅速度會提升,也能降低能耗、提升穩定性,並讓企業在總成本上得到回報。
產業格局的可能變化
業界觀察認為,Intel 若能與 NVIDIA 在 NVLink C2C 上展開合作,可能幫助 NVIDIA 在 x86 平台上減少對 AMD 的依賴。這或許會對 AMD 的 MI300(整合 CPU+GPU 架構)造成一定壓力。不過,目前仍是推測,真正的市場效果要看產品能否量產並被大規模採用。
對 Intel 來說,付出授權費與權利金的同時,有望藉此保住自己在 AI 伺服器市場的地位,避免在未來算力生態中被邊緣化。
對企業的提醒
對正在考慮導入 LLM 的企業而言,這件事的啟示在於:不要只看 GPU 規格,而要評估整體架構是否協同。CPU、RAM、VRAM 的搭配,將直接決定投資是否能換來實際效能與成本效益。
NVIDIA 入股 Intel 並不代表產品立即改變,而更像是市場的一個趨勢訊號:未來的競爭重點,不是單點效能,而是全局優化。