超越Sora極限,120秒超長AI視頻模型誕生!
AIGC動態(tài)歡迎閱讀
原標題:超越Sora極限,120秒超長AI視頻模型誕生!
關鍵字:視頻,研究人員,特征,模型,文本
文章來源:新智元
內容字數:6409字
內容摘要:
新智元報道編輯:潤 好困
【新智元導讀】UT奧斯丁等機構提出了一種名為StreamingT2V的技術,讓AI視頻的長度擴展至近乎無限,而且一致性,動作幅度也非常好!Sora一出,文生視頻的在長度這個指標上就卷的沒邊了。
從Pika和Runway的4秒,到VideoPoet的理論無限長,各個團隊都在通過各種不同的技術路徑不斷延長視頻生成長度的上限。
最近,來自Picsart AI Research,UT Austin和Shi Labs的研究團隊提出了一個新的文生視頻技術——StreamingT2,可以生成高度一致而且長度可擴展的視頻。
文生視頻技術進入長視頻時代。
論文地址:https://arxiv.org/abs/2403.14773
具體來說,StreamingT2V可以生成1200幀甚至理論上無限長的長視頻,并且能保證視頻內容過渡非常自然平滑,內容豐富多樣。
帝國士兵在煙霧中不停奔跑,雖然動作很滑稽,但是幅度很大,人物一致性很好。
它的核心構架由3個部分組成:
– 一個短期記憶單元——條件注意力模塊(CAM),它能夠確保視頻的連貫性,通過關注前一個視頻片段的特征來引導當前片段的
聯系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發(fā)展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...