后發先至,字節版 Sora 發布!10秒長度、多主體交互、一致性多鏡頭
AIGC動態歡迎閱讀
原標題:后發先至,字節版 Sora 發布!10秒長度、多主體交互、一致性多鏡頭
關鍵字:豆包,模型,快手,字節跳動,視頻
文章來源:Founder Park
內容字數:0字
內容摘要:
9月 24 日,字節跳動的豆包大模型發布多款新品——視頻生成、音樂生成以及同聲傳譯大模型。
字節的視頻生成模型首次亮相,這也意味著,在快手之后,國內的兩大短視頻巨頭都進入了AI視頻生成賽道。
發布會上還公布了豆包大模型的最新數據,截至9月,豆包大模型的日均 tokens 使用量已經超過1.3萬億,4個月的時間里 tokens 整體增長超過了10倍。在多模態方面,豆包·文生圖模型日均生成圖片5,000萬張,此外,豆包目前日均處理語音85萬小時。
目前,豆包大模型已涵蓋大語言模型、視覺大模型、語音大模型三大品類發布了13個大模型。此外,豆包通用模型Pro升級,初始TPM支持800k、上下文窗口達到256k。
文章轉載自「豆包」官方文章,部分內容轉載自「智東西」。
點擊關注,每天更新深度 AI 行業洞察
01視頻生成:多主體交互,一致性多鏡頭生成豆包視頻生成模型有PixelDance和Seaweed兩個版本,目前尚不清楚兩個版本的具體區別,目前均未開放試用。
PixelDance V1.4是ByteDance Research團隊開發的 DiT 結構的視頻生成大模型,同時支持文生視頻和圖生視
原文鏈接:后發先至,字節版 Sora 發布!10秒長度、多主體交互、一致性多鏡頭
聯系作者
文章來源:Founder Park
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...