AIGC動態歡迎閱讀
原標題:何愷明新作:簡單框架達成無條件圖像生成新SOTA!與MIT合作完成
文章來源:量子位
內容字數:3534字
內容摘要:豐色 發自 凹非寺量子位 | 公眾號 QbitAI大佬何愷明還未正式入職MIT,但和MIT的第一篇合作研究已經出來了:他和MIT師生一起開發了一個自條件圖像生成框架,名叫RCG(代碼已開源)。這個框架結構非常簡單但效果拔群,直接在ImageNet-1K數據集上實現了無條件圖像生成的新SOTA。它生成的圖像不需要任何人類注釋(也就是提示詞、類標簽什么的),就能做到既保真又具有多樣性。這樣的它不僅顯著提高了無條件圖像生成的水平,還能跟當前最好的條件生成方法一較高下。用何愷明團隊自己的話來說:有條件和無條件生成任務之間長期存在的性能差距,終于在這一刻被彌補了。那么,它究竟是如何做到的呢?類似自監督學習的自條件生成首先,所謂無條件生成,就是模型在沒有輸入信號幫助的情況下直接捕獲數據分布生成內容。這種方式比較難以訓練,所以一直和條件生成有很大性能差距——就像無監督學習比不過監督學習一樣。但就像自監督…
原文鏈接:點此閱讀原文:何愷明新作:簡單框架達成無條件圖像生成新SOTA!與MIT合作完成
聯系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關注科技行業新突破
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...