AIGC動態歡迎閱讀
原標題:香港大學發布組合性文生視頻基準,7大類20項指標,讓20個大模型一決雌雄
關鍵字:模型,視頻,騰訊,提示,綁定
文章來源:夕小瑤科技說
內容字數:0字
內容摘要:
夕小瑤科技說 原創作者 | Richard相較于文本生成、文生圖等領域而言,文生視頻領域發展相對較慢。當年一段“史密斯吃面”的視頻意外走紅網絡,可謂相當魔幻。
然而進入 2024 年,OpenAI 再一次給 AI界人了一個重磅 —— 文本視頻大模型 Sora 橫空出世,將 AI 創作的最后一塊拼圖也補上了。
此后,騰訊、Show Lab 等爭相發布了自己的文生視頻大模型。但是還沒有一個基準測試全面評估這些模型的能力。
為此,香港大學的研究團隊發布了名為 T2V-CompBench 的基準測試,并且首次將“組合性”這個概念引入視頻生成評估中。
T2V-CompBench 通過 7 個精心設計的類別全面評估文生視頻模型的組合性能力,包括一致屬性綁定、動態屬性綁定、空間關系、動作綁定、綁定、對象交互和生成數字。每個類別都針對視頻生成中的特定組合性挑戰,從靜態屬性的一致性到復雜的動態交互。
研究使用 T2V-CompBench 對 20 個主流視頻生成模型進行全面測評。結果顯示雖然文生視頻技術突飛猛進,但是在處理復雜動態場景時仍然“力不從心”。
有了這個基準,文生視頻可以針對現如今的一
原文鏈接:香港大學發布組合性文生視頻基準,7大類20項指標,讓20個大模型一決雌雄
聯系作者
文章來源:夕小瑤科技說
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...