AIGC動態歡迎閱讀
原標題:哪里要動點哪里!騰訊聯合清華、港科大推出全新圖生視頻大模型
關鍵字:解讀,騰訊,模型,視頻,團隊
文章來源:AI前線
內容字數:4058字
內容摘要:
整理 | 傅宇琪
只需輕輕一點,靜態的皮卡丘就會露出燦爛笑容:
咖啡會源源不斷地冒出熱氣:
漂亮姐姐會朝你眨眼:
以上這些效果,均來自一個新的圖生視頻模型 Follow-Your-Click,由騰訊混元、清華大學和香港科技大合推出。
這個模型使用起來也非常簡單:
把任意一張照片輸入模型??點擊想選中的區域??加上少量簡單的提示詞(如:動作、神態等)??圖片中原本靜態的區域就能動起來。
相關研究論文已經在 arXiv 上公開,GitHub 上也放出代碼,目前已經攬星 440+。
論文鏈接:https://arxiv.org/pdf/2403.08268.pdf
代碼鏈接:https://github.com/mayuelala/FollowYourClick哪里要動點哪里通過進一步測試,可以發現 Follow-Your-Click 能夠精準控制畫面的動態區域。
點擊畫面主體,它就能夠控制火箭發射和汽車行駛:
也能夠生成“大笑”、“生氣”、“震驚”的表情:
同樣是鳥圖,點擊小鳥,輸入“搖頭”、“扇翅膀”、“跳舞”,都能得到相應更精確的動作:總之,就是想要哪里動,就點哪里。
研究團隊還將
原文鏈接:哪里要動點哪里!騰訊聯合清華、港科大推出全新圖生視頻大模型
聯系作者
文章來源:AI前線
作者微信:ai-front
作者簡介:面向AI愛好者、開發者和科學家,提供大模型最新資訊、AI技術分享干貨、一線業界實踐案例,助你全面擁抱AIGC。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...