AIGC動態歡迎閱讀
原標題:GPT超越擴散、視覺生成Scaling Law時刻!北大&字節提出VAR范式
關鍵字:模型,字節跳動,圖像,順序,能力
文章來源:機器之心
內容字數:7588字
內容摘要:
機器之心發布
機器之心編輯部新一代視覺生成范式「VAR: Visual Auto Regressive」視覺自回歸來了!使 GPT 風格的自回歸模型在圖像生成首次超越擴散模型,并觀察到與大語言模型相似的 Scaling Laws 縮放定律、Zero-shot Task Generalization 泛化能力:論文標題: “Visual Autoregressive Modeling: Scalable Image Generation via Next-Scale Prediction”
這項名為 VAR 的新工作由北京大學和字節跳動的研究者提出,登上了 GitHub 和 Paperwithcode 熱度榜單,并得到大量同行關注:目前體驗網站、論文、代碼、模型已放出:
體驗網站:https://var.vision/
論文鏈接:https://arxiv.org/abs/2404.02905
開源代碼:https://github.com/FoundationVision/VAR
開源模型:https://huggingface.co/FoundationVision/var
背景介紹
原文鏈接:GPT超越擴散、視覺生成Scaling Law時刻!北大&字節提出VAR范式
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...