北京2024年8月21日 /美通社/ -- 2024 DPU & AI Networking創新大會日前在北京圓滿落幕,大會表彰了在DPU與AI網絡技術創新及實踐應用中取得卓越成就的單位與項目。會上,浪潮信息「X400超級AI以太網解決方案」憑借領先的端網協同技術,顯著提升了大模型訓練效率,榮獲"2024 DPU & AI Networking Awards 創新引擎獎"。
隨著AIGC的發展,大模型的參數量越來越大,如何借助 AI 網絡將上千臺AI 服務器系統互聯,充分釋放算力資源的全部潛力,加速 AI 大模型訓練,成為 AIGC 時代的新挑戰。此次獲得"2024 DPU & AI Networking Awards 創新引擎獎"的浪潮信息X400 AI Fabric專為AIGC場景打造,能夠為用戶構建可彈性擴展至524,288個GPU的超大規模AI系統,憑借AR自適應路由、端到端擁塞控制、亞毫秒級故障自愈等技術,性能提升至傳統RoCE網絡的1.6倍,實現了AI網絡的超高吞吐量、高可擴展性和超高可靠性,極大提升大模型訓練性能,大幅縮短訓練時長并降低訓練成本。
■ 端網協同,網絡性能提升1.6倍:針對生成式AI場景下GPU之間會突發超高吞吐的通信特點,浪潮信息采用X400 + BF-3 SuperNICs的協同調度方式,通過自適應路由、報文保序、可編程CC等技術,實現交換機和網卡更緊密的配合,為AI大模型提供零丟包、無阻塞的全鏈路交換網絡,機間互聯性能高達400G,有效帶寬從傳統的60%提升到95%,性能提升1.6倍。同時,AI大模型訓練的網絡優化離不開NCCL通信庫支持,X400 AI Fabric和InfiniBand一樣,天然地與NCCL無縫銜接,能夠為大模型提供頂尖的性能。
■ 靈活拓展、極致穩定,全力加速大模型訓練:X400 超級 AI 以太網交換機憑借超高的端口密度以及彈性可拓展的能力,提供高性能、靈活可拓展的網絡服務,支持大規模 AI服務器系統。其中,X400 AI Fabric在二層組網下,GPU服務器數量可達1024臺,支持8,192張GPU卡,并可靈活拓展到三層組網,GPU服務器規模可達65,536臺,最大支持GPU卡的數量可以達到524,288張。隨著AI算力系統的規模不斷攀升,對可靠性的要求越來越高,浪潮信息X400集成系統級的高可用技術,在硬件上獨創IGE智能防護單元,對核心部件器件進行冗余備份,對關鍵硬件信號進行全面的監控和故障隔離,具有芯片級、系統級以及鏈路完整的監控,實時掌握AI節點間通信狀態,實現對潛在的故障鏈路進行自動隔離,在上層應用無感的情況下實現故障自愈,全方位保障AI網絡的極致穩定,降低大模型訓練成本和周期。
■ 敏捷易用,部署周期從數周縮短到天:傳統RoCE方案的網絡建設中,交換機涉及一系列的擁塞控制配置,不僅配置繁瑣,拉長部署周期,而且容易配置錯誤,導致訓練性能下降。為此,X400超級AI以太網解決方案提供RTTCC擁塞控制算法,無需交換機的參與,避免在交換機上進行復雜的參數調優,即插即用,部署周期從數周縮短到天,加速業務上線,徹底解決調參復雜、配置困難等問題。
目前,X400超級AI以太網解決方案已經在互聯網等行業實現測試應用。在大規模AI算力系統網絡調度過程中,相比傳統RoCE網絡方案,性能提升1.6倍,帶寬利用率超過95%,通信時延降低30%,并且在多租戶AI Cloud場景中,NCCL通信性能提升1.5倍,同時,該方案通過其卓越的成本效益,助力客戶大幅提高投資回報,實現成本與效益的完美平衡,為智算中心客戶帶來更快、更好、更省的網絡業務體驗。