中新網(wǎng)上海新聞7月4日電(鄭瑩瑩)7月4日,在2024世界人工智能大會的AI基礎設施論壇上,無問芯穹聯(lián)合創(chuàng)始人兼CEO夏立雪發(fā)布了千卡規(guī)模異構(gòu)芯片混訓平臺。
就在4個月前,無問芯穹Infini-AI大模型開發(fā)與服務云平臺宣布首次公測,已有智譜AI、月之暗面、生數(shù)科技等大模型公司在Infini-AI上使用異構(gòu)算力。
作為大模型生命周期中不可或缺的兩個階段,訓練和推理均需要強大的計算資源支撐。然而,與國際上模型層與芯片層“相對集中”的格局相比,中國的模型層與芯片層更加“百花齊放”。然而,大量的異構(gòu)芯片也形成了“生態(tài)豎井”,不同硬件生態(tài)系統(tǒng)封閉且互不兼容,給算力的使用方帶來一系列技術(shù)挑戰(zhàn)。
為構(gòu)建適應多模型與多芯片格局的AI Native基礎設施,無問芯穹的底層解法是:提供高效整合異構(gòu)算力資源的好用算力平臺,以及支持軟硬件聯(lián)合優(yōu)化與加速的中間件,讓異構(gòu)芯片真正轉(zhuǎn)化為大算力。
近日,無問芯穹與清華、上交的聯(lián)合研究團隊發(fā)布了HETHUB,這是一個用于大規(guī)模模型的異構(gòu)分布式混合訓練系統(tǒng)。夏立雪介紹,這項技術(shù)工程化的初衷,是希望能夠通過整合更多異構(gòu)算力,繼續(xù)推高大模型技術(shù)能力的上限,同時通過打通異構(gòu)芯片生態(tài),持續(xù)降低大模型應用落地成本。
大模型行業(yè)發(fā)展正在進入規(guī);a(chǎn)業(yè)落地階段,應用場景的百花齊放,帶來了對大模型訓練日益迫切的需求。構(gòu)建大模型時代的AI Native基礎設施,不僅能夠為AI開發(fā)者提供更加通用、高效、便捷的研發(fā)環(huán)境,同時也是實現(xiàn)算力資源有效整合,支撐AI產(chǎn)業(yè)可持續(xù)發(fā)展的關(guān)鍵基石。
無問芯穹致力于構(gòu)建適應多模型與多芯片的AI Native基礎設施!凹夹g(shù)上限推高與技術(shù)落地擴散不矛盾,且取決于我們決心如何對待這個技術(shù)!毕牧⒀┱f。
他表示,優(yōu)良的基礎設施就是這樣一種“魔法”,當邊際成本下降到臨界值,就能有更多的人擁抱新技術(shù)。(完)
注:請在轉(zhuǎn)載文章內(nèi)容時務必注明出處!
編輯:鄭瑩瑩