AIGC動態歡迎閱讀
原標題:試了下 Stable Video,我的建議是不如不用|AI 測評室
關鍵字:字節跳動,視頻,模型,解讀,效果
文章來源:AI前線
內容字數:8022字
內容摘要:
作者 | 褚杏娟
去年 11 月,人工智能初創公司 Stability AI 首次推出了 Stable Video,這款模型基于之前發布的 Stable Diffusion 文本轉圖片模型進行延伸,能夠通過現有圖片生成視頻,是當時市面上少有的能夠生成視頻的 AI 模型之一。
當時,Stability AI 在 GitHub 上發布了模型代碼,并在 HuggingFace 上發布了權重,有硬件能力和相關技術的用戶可以在本地下載和運行。
近日,Stable Video 正式開放公測,這對于那些沒有強大的 GPU 或沒有足夠的技術能力來設置的人來說無疑是個好消息,而且內測期間的 Stable Video 還可以免費使用。另外,盡管大家都在關注 Sora,但有人估計至少 Sora 還需要三個月才能開始內測,因此 Stable Video 公測著實也吸引了一波關注。
那它的效果到底如何呢?
文生視頻:恭喜及格
相信很多人都見過 Sora 剛發布時候展示的這個 60 秒視頻,無數人都被視頻里場景的真實性震撼到了:
Sora 雖然沒有面向公眾開放,但其主創團隊一直在 X 上發出最新生成的視頻。Sor
原文鏈接:試了下 Stable Video,我的建議是不如不用|AI 測評室
聯系作者
文章來源:AI前線
作者微信:ai-front
作者簡介:面向AI愛好者、開發者和科學家,提供大模型最新資訊、AI技術分享干貨、一線業界實踐案例,助你全面擁抱AIGC。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...