Scaling Laws 又失靈了?谷歌新研究:擴(kuò)散模型不是越大越好
AIGC動態(tài)歡迎閱讀
原標(biāo)題:Scaling Laws 又失靈了?谷歌新研究:擴(kuò)散模型不是越大越好
關(guān)鍵字:模型,報告,步驟,圖像,任務(wù)
文章來源:夕小瑤科技說
內(nèi)容字?jǐn)?shù):5150字
內(nèi)容摘要:
夕小瑤科技說 原創(chuàng)作者 | Zicy近年來,模型規(guī)模呈現(xiàn)出愈來愈大的趨勢,越來越多的人相信“力大磚飛”。
OpenAI 雖然沒有公布Sora的訓(xùn)練細(xì)節(jié),但在Sora的技術(shù)報告中提到了:
Our largest model, Sora, is capable of generating a minute of high fidelity video. Our results suggest that scaling video generation models is a promising path towards building general purpose simulators of the physical world.
我們最大的模型 Sora 能夠生成一分鐘的高保真視頻。我們的結(jié)果表明,擴(kuò)展視頻生成模型是構(gòu)建物理用模擬器的一條有前途的途徑。
OpenAI是scaling laws的堅定擁護(hù)者。可是模型訓(xùn)練是否真的大力出奇跡呢?
谷歌最新的研究結(jié)論:
不是!
谷歌研究院和約翰霍普金斯大學(xué)在最新的論文中指出:對于潛在擴(kuò)散模型,模型不一定是越大越好。
論文鏈接:https
原文鏈接:Scaling Laws 又失靈了?谷歌新研究:擴(kuò)散模型不是越大越好
聯(lián)系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡介:專業(yè)、有趣、深度價值導(dǎo)向的科技媒體。聚集30萬AI工程師、研究員,覆蓋500多家海內(nèi)外機(jī)構(gòu)投資人,互聯(lián)網(wǎng)大廠中高管和AI公司創(chuàng)始人。一線作者來自清北、國內(nèi)外頂級AI實(shí)驗室和大廠,兼?zhèn)涿翡J的行業(yè)嗅覺和洞察深度。商務(wù)合作:zym5189