新加坡2025年7月30日 /美通社/ -- Super X AI Technology Limited(納斯達克代碼:SUPX)(以下簡稱「公司」或「SuperX」)今日宣布正式發佈其最新旗艦產品——SuperX XN9160-B200 AI伺服器。該伺服器搭載 NVIDIA 最新一代 Blackwell 架構 GPU(B200),旨在滿足客戶對人工智慧(AI)、機器學習(ML)和高效能運算(HPC)應用程式的高效能與可擴展性的算力需求。
XN9160-B200 AI伺服器專為加速大規模分散式訓練與推理任務而設計,可加速各種支援GPU的工作負載,特別適合使用強化學習(RL)與蒸餾法對基礎模型進行大規模分散式人工智慧訓練及推理、多模態訓練與推理,以及氣候建模、藥物發現、地震分析與保險風險建模等HPC應用程式的推理。一台該伺服器效能堪比超級電腦。
SuperX XN9160-B200 AI伺服器的推出標誌著SuperX在AI基礎設施領域邁出關鍵一步,為全球AI工廠客戶提供更強大的算力支援,加速人工智慧技術的創新與落地。
XN9160-B200 AI伺服器
全新的XN9160-B200產品提供8組NVIDIA Blackwell B200 GPU、第五代NVLink技術、1440 GB的高效能顯存(HBM3E)以及第六代Intel® Xeon®處理器。在10U機身內釋放出極致的AI運算效能。
為AI而生 —— 最強的訓練效能
SuperX XN9160-B200憑藉其核心動力:8組NVIDIA Blackwell B200 GPU,搭載第五代NVLink技術,提供高達1.8TB/s的GPU間超高頻寬。這顯著加速了大規模AI模型訓練,實現最高3倍的速度提升,大幅縮短萬億參數模型預訓練、模型微調等任務的研發週期。
在推理效能上,更是實現了跨越式飛躍:1440GB高效能HBM3E顯存在FP8精度下,針對GPT-MoE 1.8T模型,可實現單卡每秒58個Token的驚人吞吐量,相較上一代H100平台每秒3.5個Token的吞吐量,這代表著高達15倍的極致效能躍升。
搭載的第六代Intel® Xeon®處理器,協同5,600-8,000 MT/s的DDR5記憶體與NVMe全快閃儲存,這些關鍵配置有效加速資料預處理、保障高負載虛擬化環境的流暢運行、提升複雜並行運算的效率,支援AI大模型的訓練與推理任務高效穩定完成。
為保障系統運行的極致可靠性,XN9160-B200採用了先進的多路電源備援方案。配備1+1的12V備援電源與4+4的54V GPU備援電源,有效規避單點電源故障風險,確保在意外情況下系統也能持續穩定運行,為關鍵AI任務提供不中斷的動力保障。
SuperX XN9160-B200內建AST2600智慧管理系統,支援便捷的遠端監控與管理。每台伺服器均通過超48小時滿載壓力測試、冷熱啟動驗證與高低溫老化篩選,結合多項生產品質控流程,確保可靠交付。同時提供三年保固與專業技術支援,以全生命週期的服務保障,助企業在AI浪潮中破浪前行,引領未來!