【ZiDongHua之方案應用場:浪潮信息 、智算產(chǎn)業(yè)、 生成式AI 、自然語言AI 、AI大模型訓練、 AI服務器 、淮海智算中心】針對AI大模型訓練的計算特點,浪潮信息AI團隊對淮海智算中心算力系統(tǒng)進行了專業(yè)設計,對集群架構(gòu)、高速互聯(lián)、算力調(diào)度等方面進行全面優(yōu)化,在系統(tǒng)架構(gòu)上,采用單節(jié)點集成8顆加速器的AI服務器,節(jié)點內(nèi)加速器間實現(xiàn)超高速P2P通信,節(jié)點間建立極低延遲、超高帶寬的Infiniband通信網(wǎng)絡。在大模型訓練技術層面,成功運用了中文巨量AI模型"源1.0"的訓練優(yōu)化經(jīng)驗,對分布式訓練策略進行了針對性優(yōu)化,通過合理設計張量并行、流水并行和數(shù)據(jù)并行,精準調(diào)整模型結(jié)構(gòu)和訓練過程的超參數(shù),最終實現(xiàn)了千億參數(shù)規(guī)模AI大模型的訓練算力效率達到53.5%。

 

浪潮信息助力淮海智算中心,千億參數(shù)AI大模型訓練算力效率超50%

 

 

近日,淮海智算中心攜手浪潮信息進行了超大規(guī)模參數(shù)AI大模型訓練性能測試,實測數(shù)據(jù)表明,千億參數(shù)規(guī)模的自然語言AI單體大模型在淮海智算中心計算平臺上的訓練算力效率達53.5%,刷新了業(yè)內(nèi)AI大模型訓練算力效率新高。這意味著淮海智算中心將可為國內(nèi)生成式AI創(chuàng)新團隊提供高性能、高效率的AI大模型訓練算力服務。

生成式AI需要基于海量的自然語言或多模態(tài)數(shù)據(jù)集,對擁有巨大參數(shù)的超大規(guī)模AI模型進行訓練,其訓練所需AI算力當量非常高,如以PD(Petaflops-Day)為單位來衡量,OpenAI的GPT-3大模型訓練的算力當量為3640PD,而浪潮"源1.0"大模型的算力當量則為4095PD。

超大規(guī)模AI大模型的訓練一般必須在擁有成百上千加速卡的AI服務器集群上進行,如何在AI計算集群上獲得更高的訓練算力效率則會直接影響到模型訓練時長以及算力消耗成本,這對于提升生成式AI研發(fā)創(chuàng)新效率有著非常重要的影響。據(jù)公開資料表明,GPT-3大模型在其V100 GPU集群上的訓練算力效率為21.3%,而浪潮"源1.0"的訓練算力效率則達到了44.8%。

針對AI大模型訓練的計算特點,浪潮信息AI團隊對淮海智算中心算力系統(tǒng)進行了專業(yè)設計,對集群架構(gòu)、高速互聯(lián)、算力調(diào)度等方面進行全面優(yōu)化,在系統(tǒng)架構(gòu)上,采用單節(jié)點集成8顆加速器的AI服務器,節(jié)點內(nèi)加速器間實現(xiàn)超高速P2P通信,節(jié)點間建立極低延遲、超高帶寬的Infiniband通信網(wǎng)絡。在大模型訓練技術層面,成功運用了中文巨量AI模型"源1.0"的訓練優(yōu)化經(jīng)驗,對分布式訓練策略進行了針對性優(yōu)化,通過合理設計張量并行、流水并行和數(shù)據(jù)并行,精準調(diào)整模型結(jié)構(gòu)和訓練過程的超參數(shù),最終實現(xiàn)了千億參數(shù)規(guī)模AI大模型的訓練算力效率達到53.5%。

千億參數(shù)AI模型結(jié)構(gòu)及其實際性能表現(xiàn)
千億參數(shù)AI模型結(jié)構(gòu)及其實際性能表現(xiàn)

千億參數(shù)AI模型結(jié)構(gòu)及其實際性能表現(xiàn)

淮海智算中心由安徽省宿州市與浪潮共同推進建設,目標是建成技術先進、架構(gòu)開放、應用豐富、生態(tài)完善的國內(nèi)領先智算樞紐。淮海智算中心將依靠領先的算力、算法基礎設施,開放的技術架構(gòu),成熟豐富的生態(tài)應用,面向全國提供智能算力、數(shù)據(jù)和算法服務,打造良好的智算產(chǎn)業(yè)生態(tài)。

 
 

 

 
 
 
資料圖:2022年7月29日,安徽省宿州市與浪潮簽署戰(zhàn)略合作協(xié)議,共同推進淮海智算中心建設?;春V撬阒行目傮w投資10億元,全面建成后智能算力性能可達30億億次/秒,將成為技術先進、架構(gòu)開放、應用豐富、生態(tài)完善的國內(nèi)領先的智算樞紐。來源:智東西。