新聞 國際財經

輝達推GB200 NVL72「自證實力」,抗衡TPU與Trainium搶開源MoE賽道

2025/12/5 10:54

【財訊快報/陳孟朔】外電報導,面對谷歌TPU與亞馬遜Trainium等自研AI晶片步步進逼,AI晶片巨頭輝達(Nvidia)再度選擇用技術說話。繼強調其GPU技術「領先業界一代」、並私下回應看空聲音之後,輝達最新透過技術博文強調,自家GB200 NVL72系統可讓頂尖開源AI模型的性能最高提升10倍,意在對市場釋出「護城河仍在手中」的強烈訊號。

輝達在技術說明中指出,GB200 NVL72將72顆Blackwell GPU整合為單一系統,提供約1.4 exaflops AI運算能力與30TB高速共享記憶體,並透過NVLink Switch實現高達每秒130TB的GPU內部通訊頻寬。在此架構下,Artificial Analysis排行榜上的開源強勢模型,包括Kimi K2 Thinking、DeepSeek-R1與Mistral Large 3等混合專家模型(MoE),在該系統上測得性能可達最多10倍的提升,顯示其針對前沿模型形態進行深度優化。

市場人士指出,MoE架構已成為前沿大模型的主流選擇,其核心是模仿人腦分工邏輯,每次計算僅喚醒少數「專家」模組,而非動員全部參數,從而在控制計算成本的前提下,加快token生成速度。輝達此次強調的關鍵,在於透過軟硬體協同設計,試圖解決MoE模型在生產環境中擴展時的通訊瓶頸與資源利用效率問題,將過去容易在實際部署中「卡關」的前沿模型,變成雲端與大型客戶可落地運行的高效服務。

在商業落地方面,輝達表示,GB200 NVL72系統正由多家主要雲服務商與合作夥伴部署,包括亞馬遜雲服務、谷歌雲、微軟Azure、Oracle雲基礎設施及多家AI基礎設施供應商。

業界觀察認為,隨著雲端業者加速將MoE模型推向量產服務,GB200 NVL72若能在功耗、密度與延遲上取得實際優勢,有助輝達穩固其在數據中心AI加速市場的主導地位,並提高客戶對其完整平台(晶片加系統加軟體)的黏著度。

不過,分析人士同時提醒,谷歌TPU、亞馬遜Trainium以及多家大型科技企業自研AI加速晶片的步伐並未放緩,加上中國廠商在開源模型與本土AI晶片上的急起直追,長期而言勢必對輝達議價能力與市占形成壓力。輝達股價近一個月回落約一成,反映市場對資本支出回報與客戶多元化風險的消化;但若GB200 NVL72在實際應用中真能為開源MoE模型帶來級距明顯的效能躍升,仍有機會成為下一輪AI基建升級周期的核心硬體標的,使「技術迭代勝於單次突破」的長線多頭故事得以延續。

相關新聞