GPT-4+物理引擎加持?jǐn)U散模型,生成視頻逼真、連貫、合理

AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:GPT-4+物理引擎加持?jǐn)U散模型,生成視頻逼真、連貫、合理
文章來源:機(jī)器之心
內(nèi)容字?jǐn)?shù):6142字
內(nèi)容摘要:機(jī)器之心報(bào)道編輯:趙陽擴(kuò)散模型的出現(xiàn)推動(dòng)了文本生成視頻技術(shù)的發(fā)展,但這類方法的計(jì)算成本通常不菲,并且往往難以制作連貫的物體視頻。為了解決這些問題,來自中國科學(xué)院深圳先進(jìn)技術(shù)研究院、中國科學(xué)院大學(xué)和 VIVO AI Lab 的研究者聯(lián)合提出了一個(gè)無需訓(xùn)練的文本生成視頻新框架 ——GPT4Motion。GPT4Motion 結(jié)合了 GPT 等大型語言模型的規(guī)劃能力、Blender 軟件提供的物理模擬能力,以及擴(kuò)散模型的文生圖能力,旨在大幅提升視頻合成的質(zhì)量。項(xiàng)目鏈接:https://gpt4motion.github.io/論文鏈接:https://arxiv.org/pdf/2311.12631.pdf代碼鏈接:https://github.com/jiaxilv/GPT4Motion具體來說,GPT4Motion 使用 GPT-4 基于用戶輸入的文本 prompt 生成 Blender…
原文鏈接:點(diǎn)此閱讀原文:GPT-4+物理引擎加持?jǐn)U散模型,生成視頻逼真、連貫、合理
聯(lián)系作者
文章來源:機(jī)器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺(tái)
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載。
相關(guān)文章
暫無評(píng)論...

粵公網(wǎng)安備 44011502001135號(hào)