我用豆包,生成了AI版《紅樓夢(mèng)》MV
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:我用豆包,生成了AI版《紅樓夢(mèng)》MV
關(guān)鍵字:豆包,模型,視頻,解讀,紅樓夢(mèng)
文章來(lái)源:量子位
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
金磊 發(fā)自 深圳量子位 | 公眾號(hào) QbitAI要論最近最火的AI視頻生成模型,無(wú)疑就屬字節(jié)豆包了。
也就是字節(jié)一口氣亮出的PixelDance模型和Seaweed模型。
而且大家都說(shuō)效果好,那這不就得親自測(cè)試一波嘍,而且是直接上難度的那種——
最近抖音里很多人都在模仿林黛玉哭泣,我們不妨用“全字節(jié)系的AI”來(lái)制作一支《紅樓夢(mèng)》的MV。
然后啊,效果簡(jiǎn)直就是一個(gè)大寫的萬(wàn)萬(wàn)沒想到!話不多說(shuō),直接展示成果:
不論是生成的多人物、畫面的質(zhì)量,甚至是故事情節(jié),豆包的視頻可以說(shuō)是相當(dāng)有《紅樓夢(mèng)》那味兒了。
而也正如剛才提到的,打造這支MV背后的AI,統(tǒng)統(tǒng)都是字節(jié)系。
現(xiàn)在我們就來(lái)一一拆解細(xì)節(jié)步驟。
第一步,用豆包查詢《紅樓夢(mèng)》中的經(jīng)典片段原文,作為生成圖片的Prompt。
例如王熙鳳出場(chǎng)的名場(chǎng)面,豆包給出了這樣的答案:
第二步,我們直接用《紅樓夢(mèng)》中的原文片段,“喂”給字節(jié)的即夢(mèng),讓它先生成一幅畫。
例如我們采用的Prompt是:
紅樓夢(mèng),只見一群媳婦丫鬟圍擁著一個(gè)人從后房門進(jìn)來(lái)。這個(gè)人打扮與眾姑娘不同,彩繡輝煌,恍若神妃仙子:頭上戴著金絲八寶攢珠髻,綰著朝陽(yáng)五鳳掛珠釵;項(xiàng)上帶著赤金盤螭瓔珞圈;
聯(lián)系作者
文章來(lái)源:量子位
作者微信:
作者簡(jiǎn)介: