人大系多模態(tài)模型邁向AGI:首次實(shí)現(xiàn)自主更新,寫(xiě)真視頻生成力壓Sora
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:人大系多模態(tài)模型邁向AGI:首次實(shí)現(xiàn)自主更新,寫(xiě)真視頻生成力壓Sora
關(guān)鍵字:模型,任務(wù),智能,視頻,數(shù)據(jù)
文章來(lái)源:機(jī)器之心
內(nèi)容字?jǐn)?shù):7375字
內(nèi)容摘要:
機(jī)器之心發(fā)布
機(jī)器之心編輯部在 4 月 27 日召開(kāi)的中關(guān)村論壇通用人工智能平行論壇上,人大系初創(chuàng)公司智子引擎隆重發(fā)布全新的多模態(tài)大模型 Awaker 1.0,向 AGI 邁出至關(guān)重要的一步。
相對(duì)于智子引擎前代的 ChatImg 序列模型,Awaker 1.0 采用全新的 MOE 架構(gòu)并具備自主更新能力,是業(yè)界首個(gè)實(shí)現(xiàn) “真正” 自主更新的多模態(tài)大模型。
在視覺(jué)生成方面,Awaker 1.0 采用完全自研的視頻生成底座 VDT,在寫(xiě)真視頻生成上取得好于 Sora 的效果,打破大模型 “最后一公里” 落地難的困境。Awaker 1.0 是一個(gè)將視覺(jué)理解與視覺(jué)生成進(jìn)行超級(jí)融合的多模態(tài)大模型。在理解側(cè),Awaker 1.0 與數(shù)字世界和現(xiàn)實(shí)世界進(jìn)行交互,在執(zhí)行任務(wù)的過(guò)程中將場(chǎng)景行為數(shù)據(jù)反哺給模型,以實(shí)現(xiàn)持續(xù)更新與訓(xùn)練;在生成側(cè),Awaker 1.0 可以生成高質(zhì)量的多模態(tài)內(nèi)容,對(duì)現(xiàn)實(shí)世界進(jìn)行模擬,為理解側(cè)模型提供更多的訓(xùn)練數(shù)據(jù)。
尤其重要的是,因?yàn)榫邆?“真正” 的自主更新能力,Awaker 1.0 適用于更廣泛的行業(yè)場(chǎng)景,能夠解決更復(fù)雜的實(shí)際任務(wù),比如 AI Agent、具身智能、綜合治
原文鏈接:人大系多模態(tài)模型邁向AGI:首次實(shí)現(xiàn)自主更新,寫(xiě)真視頻生成力壓Sora
聯(lián)系作者
文章來(lái)源:機(jī)器之心
作者微信:almosthuman2014
作者簡(jiǎn)介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺(tái)