AIGC動態歡迎閱讀
原標題:大模型一定就比小模型好?谷歌的這項研究說不一定
關鍵字:模型,效率,性能,大小,規模
文章來源:機器之心
內容字數:9139字
內容摘要:
機器之心報道
編輯:Panda在這個大模型不斷創造新成就的時代,我們通常對機器學習模型有一個直觀認知:越大越好。但事實果真如此嗎?
近日,Google Research 一個團隊基于隱擴散模型(LDM)進行了大量實驗研究,得出了一個結論:更大并不總是更好(Bigger is not Always Better),尤其是在預算有限時。論文標題:Bigger is not Always Better: Scaling Properties of Latent Diffusion Models
論文地址:https://arxiv.org/pdf/2404.01367.pdf
近段時間,隱擴散模型和廣義上的擴散模型取得的成就不可謂不耀眼。這些模型在處理了大規模高質量數據之后,可以非常出色地完成多種不同任務,包括圖像合成與編輯、視頻創建、音頻生成和 3D 合成。
盡管這些模型可以解決多種多樣的問題,但要想在真實世界應用中大規模使用它們,還需要克服一大障礙:采樣效率低。
這一難題的本質在于,為了生成高質量輸出,LDM 需要依賴多步采樣,而我們知道:采樣總成本 = 采樣步驟數 × 每一步的成本。
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...