2023年以來,AI大模型橫空出世并快速迭代,展現出變革經濟社會的巨大潛能,新興AI應用不斷涌現。AI時代到來,對算力尤其是智能算力需求極速增長,數據顯示,當前算力需求每隔兩個月就要翻倍,到2030年智能算力相比2020年將增長500倍。
可以看到,9月舉辦的PT展上,算力相關技術已成信息通信產業(yè)鏈展出的重要主題。9月27日開幕的2024中國算力大會,更是吸引了業(yè)內人士的密切關注,探討如何把握高速發(fā)展中的算力產業(yè)機遇。
在2024中國算力大會期間,中興通訊云及智算產品總經理余方宏接受C114采訪時表示,AI大模型參數量爆炸性增長,從千億到萬億,乃至將要達到十萬億參數量。“如何提升智算中心的帶寬,實現高效算力互聯(lián)已成業(yè)界面臨的新難題。”
OLink技術:破解算力互聯(lián)的堵點
余方宏談到,參數量的快速擴展,不僅帶來了模型復雜度的提升,也推動了從傳統(tǒng)的3D并行訓練向更先進的多維度并行訓練轉型,包括專家并行(EP)、張量并行(TP)、流水線并行(PP)和數據并行(DP)等方式。這些并行訓練方法對計算資源和通信帶寬的需求急劇增長,特別是在專家并行中,All-to-All通信對帶寬提出了極高要求。
為實現高效算力互聯(lián),底層GPU供應商英偉達,以及大模型廠商、互聯(lián)網云公司均采取了各自策略。如何提升帶寬,通信廠商的技術能力十分關鍵。據介紹,中興通訊已經提出了“以網強算”的核心主張,以先進的網絡技術,打造從芯間、卡間、機間和DC間的至強連接,提升算力基礎設施整體能力。
其中的核心,是中興通訊自主研發(fā)的OLink技術。余方宏提到,封閉的GPU互聯(lián)私有總線協(xié)議一直是行業(yè)面臨的重大挑戰(zhàn),限制了硬件系統(tǒng)的擴展能力,也增加了技術升級和維護的復雜性。傳統(tǒng)的Full Mesh互聯(lián)架構,雖然能提供高帶寬和低延遲的通信,但其擴展能力有限,一般最多只能支持單機8張GPU卡。
而OLink采用開放的總線協(xié)議,兼容RDMA標準,能夠提供高達800GB/s的帶寬。此外,OLink還支持在網計算,顯著降低通信時延,提升集群的整體性能和擴展性,從而打造更大規(guī)模的高帶寬域(HBD),大幅提升集群算力。
OLink總線技術基于成熟的以太網架構,利用其穩(wěn)定的組網和運維優(yōu)勢,實現了機內和機架間的高速互聯(lián)。這種解耦設計使得大規(guī)模網絡互聯(lián)與端側設備更加靈活,允許不同廠商的算力設備直接接入OLink網絡。在國內算力來源復雜、甚至影響到算力供給的客觀情況下,OLink可有效打通算力高速互聯(lián)的堵點,具有重要應用價值。
“中興通訊期待與更多合作伙伴攜手,共同構建規(guī)模更大、成本更低的智算平臺。”余方宏表示。
大模型訓練:推出超節(jié)點方案
中興通訊已將OLink技術應用到算力核心設備——AI服務器中。作為國內主流服務器提供商,中興通訊基于OLink技術推出了超節(jié)點方案,突破傳統(tǒng)單機8卡的限制,實現節(jié)點內GPU規(guī)模的擴展。
據C114了解,模型在不同GPU和服務器間進行數據傳輸時,GPU因等待無法充分利用,導致計算過程中出現‘空泡’,從而影響模型訓練的整體效率。余方宏指出,采用超節(jié)點方案,不僅能有效減少流水線并行帶來的資源“空泡”,還能降低MoE架構下大量All-to-All通信導致的GPU閑置問題,從而實現性能的飛躍。
據悉,中興通訊推出的旗艦AI服務器內置了16個GPU,并規(guī)劃推出算力規(guī)模更大的超節(jié)點。
更進一步,中興通訊從公司戰(zhàn)略層面正在從連接向“連接+算力”拓展,推出了全棧智算解決方案,涵蓋了從云端到邊緣再到端側的全鏈條應用,靈活適配不同的業(yè)務場景和算力需求。
目前來看,AI大模型仍在快速迭代中,各類AI技術層出不窮,將催生全新的產業(yè)機遇,為經濟社會數智化轉型不斷賦能。中興通訊持續(xù)投資AI技術研發(fā),將推動行業(yè)變革,攜手生態(tài)伙伴共同打造更強大、更高效的智能計算平臺,擁抱AI算力新時代。(劉定洲)
榜單收錄、高管收錄、融資收錄、活動收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報生成中...