Ilya觀點(diǎn)得證!僅靠預(yù)測(cè)下一個(gè)token統(tǒng)一圖像文本視頻,智源發(fā)布原生多模態(tài)世界模型Emu3
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:Ilya觀點(diǎn)得證!僅靠預(yù)測(cè)下一個(gè)token統(tǒng)一圖像文本視頻,智源發(fā)布原生多模態(tài)世界模型Emu3
關(guān)鍵字:模型,視覺,數(shù)據(jù),圖像,視頻
文章來源:量子位
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
夢(mèng)晨 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAIOpenAI前首席科學(xué)家、聯(lián)合創(chuàng)始人Ilya Sutskever曾在多個(gè)場(chǎng)合表達(dá)觀點(diǎn):
只要能夠非常好的預(yù)測(cè)下一個(gè)token,就能幫助人類達(dá)到通用人工智能(AGI)。
雖然,下一token預(yù)測(cè)已在大語(yǔ)言模型領(lǐng)域?qū)崿F(xiàn)了ChatGPT等突破,但是在多模態(tài)模型中的適用性仍不明確。多模態(tài)任務(wù)仍然由擴(kuò)散模型(如Stable Diffusion)和組合方法(如結(jié)合 CLIP視覺編碼器和LLM)所主導(dǎo)。
2024年10月21日,智源研究院正式發(fā)布原生多模態(tài)世界模型Emu3。該模型只基于下一個(gè)token預(yù)測(cè),無需擴(kuò)散模型或組合方法,即可完成文本、圖像、視頻三種模態(tài)數(shù)據(jù)的理解和生成。Emu3在圖像生成、視頻生成、視覺語(yǔ)言理解等任務(wù)中超過了SDXL 、LLaVA、OpenSora等知名開源模型,但是無需擴(kuò)散模型、CLIP視覺編碼器、預(yù)訓(xùn)練的LLM等技術(shù),只需要預(yù)測(cè)下一個(gè)token。
圖注:在圖像生成任務(wù)中,基于人類偏好評(píng)測(cè),Emu3優(yōu)于SD-1.5與SDXL模型。在視覺語(yǔ)言理解任務(wù)中,對(duì)于12 項(xiàng)基準(zhǔn)測(cè)試的平均得分,Emu3優(yōu)于LlaVA-1.6。在視頻生
原文鏈接:Ilya觀點(diǎn)得證!僅靠預(yù)測(cè)下一個(gè)token統(tǒng)一圖像文本視頻,智源發(fā)布原生多模態(tài)世界模型Emu3
聯(lián)系作者
文章來源:量子位
作者微信:
作者簡(jiǎn)介: