中新網(wǎng)上海新聞9月1日電(鄭瑩瑩)2024 MiniMax Link伙伴日活動(dòng)8月31日在上海舉行。MiniMax創(chuàng)始人閆俊杰在活動(dòng)上講述了這么一個(gè)動(dòng)人故事:
在閆俊杰創(chuàng)業(yè)之前,他做了超過10年的人工智能技術(shù)研發(fā)。在他萌生創(chuàng)業(yè)想法的時(shí)候,人工智能當(dāng)時(shí)有兩大代表性應(yīng)用:人臉識(shí)別和阿爾法狗。
但在當(dāng)時(shí),這些距離普通人還很遠(yuǎn),這讓作為從業(yè)者的閆俊杰很困惑:我們花這么大力氣研究人工智能,到底為了什么?
轉(zhuǎn)折時(shí)刻是有一年春節(jié),他回了趟老家,去看望他外公。
“外公他想讓我?guī)退麑懕緜饔,講述他80年來的經(jīng)歷,但他不會(huì)打字,也不會(huì)進(jìn)行復(fù)雜的寫作,很遺憾我也沒法幫他完成。這件事理論上很適合AI 來完成,但很遺憾,那時(shí)候的AI還做不到!遍Z俊杰回憶說。
他表示,這件事給他很大的觸動(dòng),讓他意識(shí)到,未來的AI發(fā)展,是變得更加通用,能幫助到每個(gè)人?偨Y(jié)而言,也就是伙伴日現(xiàn)場四處可見的Intelligence with Everyone。
閆俊杰以“用技術(shù)突破回答‘每日與世界的30億次交互’”為主題拉開了伙伴日的序幕。
“很多時(shí)候不是我們的技術(shù)在幫助用戶,而是用戶在幫助我們。正是由于他們的共創(chuàng)、參與和反饋,產(chǎn)品模型變得更好!遍Z俊杰說。他介紹,MiniMax每天與全球用戶進(jìn)行超30億次交互,處理超3萬億文本token、2000萬張圖片和7萬小時(shí)語音。
活動(dòng)現(xiàn)場,閆俊杰分享了基于MOE(混合專家模型)+ Linear Attention(線性注意力)的新一代模型技術(shù)的應(yīng)用,并展示了MiniMax最新音樂模型、視頻模型的研發(fā)成果。
具體而言,MiniMax持續(xù)在模型算法上創(chuàng)新,最新推出的基于MOE+ Linear Attention的新一代模型技術(shù),讓MiniMax大模型能在單位時(shí)間內(nèi)更加高效地訓(xùn)練海量數(shù)據(jù),提升了模型的實(shí)用性和響應(yīng)速度。
據(jù)介紹,MiniMax視頻模型具有壓縮率高、文本響應(yīng)好和風(fēng)格多樣等優(yōu)點(diǎn),可生成原生高分辨率、高幀率視頻。
MiniMax第一款音樂模型可以合成純音樂,為制作人快速構(gòu)建歌曲的基本結(jié)構(gòu),由歌手演繹主唱或和聲部分。
目前,MiniMax音樂生成模型與視頻生成模型已經(jīng)在MiniMax開放平臺(tái)和海螺AI網(wǎng)頁版上線。(完)
注:請(qǐng)?jiān)谵D(zhuǎn)載文章內(nèi)容時(shí)務(wù)必注明出處!
編輯:鄭瑩瑩