<span id="3dn8r"></span>
    1. <span id="3dn8r"><optgroup id="3dn8r"></optgroup></span><li id="3dn8r"><meter id="3dn8r"></meter></li>

        超越擴散模型!自回歸新范式僅需2.9秒就生成高質量圖像,中科大哈工大度小滿出品

        AIGC動態11個月前發布 量子位
        285 0 0

        超越擴散模型!自回歸新范式僅需2.9秒就生成高質量圖像,中科大哈工大度小滿出品

        AIGC動態歡迎閱讀

        原標題:超越擴散模型!自回歸新范式僅需2.9秒就生成高質量圖像,中科大哈工大度小滿出品
        關鍵字:圖像,模型,尺度,位置,文本
        文章來源:量子位
        內容字數:0字

        內容摘要:


        STAR團隊 投稿自 凹非寺量子位 | 公眾號 QbitAI超越擴散模型!自回歸范式在圖像生成領域再次被驗證——
        中科大、哈工大、度小滿等機構提出通用文生圖模型STAR。
        僅需2.9秒就可生成高質量圖像,超越當前一眾包括SDXL在內擴散模型的性能。
        此外在生成圖像真實度、圖文一致性和人類偏好上均表現優秀。
        來看看具體是如何做到的?
        自回歸通用文生圖模型STAR擴散模由于其高質量和多元的生成,一度在文生圖領域占有主導地位。
        它通過逐步的去噪過程,為圖像生成提供了更強的穩定性和可控性,然而也導致生成過程極其耗時。
        而自回歸模型的潛力,在受到大語言模型啟發下,開始在這一領域逐漸被探索。
        比如VAR指出是因為自回歸模型逐個預測token的行為不符合圖像模態的特點,提出“next-scale prediction”范式,將視覺自回歸建模為逐個預測更大尺度scale的token map。這一方式避免了原始基于next-token的自回歸方案難以建模圖像模態的問題,重新為視覺生成定義了新的自回歸范式,從而使得生成的圖像具有更高的真實度,不過仍然有很多局限,性能仍落后于擴散模型。
        作者提出基于尺度的文


        原文鏈接:超越擴散模型!自回歸新范式僅需2.9秒就生成高質量圖像,中科大哈工大度小滿出品

        聯系作者

        文章來源:量子位
        作者微信:QbitAI
        作者簡介:追蹤人工智能新趨勢,關注科技行業新突破

        閱讀原文
        ? 版權聲明
        Trae官網

        相關文章

        Trae官網

        暫無評論

        暫無評論...
        主站蜘蛛池模板: 亚洲高清日韩精品第一区| 男女交性无遮挡免费视频| 亚洲午夜无码久久| 在线观看亚洲电影| 一个人看的www免费视频在线观看| 37pao成人国产永久免费视频| 四虎成人免费大片在线| 亚洲综合色7777情网站777| 亚洲免费日韩无码系列| 性盈盈影院免费视频观看在线一区| 亚洲国产精品日韩在线| 国产卡二卡三卡四卡免费网址 | 三年片在线观看免费观看高清电影| 日韩精品亚洲人成在线观看| 久久亚洲免费视频| 亚洲男女性高爱潮网站| 一区二区三区精品高清视频免费在线播放| 国产精品免费无遮挡无码永久视频 | 婷婷精品国产亚洲AV麻豆不片| 四虎国产成人永久精品免费| 亚洲精品在线播放| 好吊妞在线成人免费| 黄色免费在线观看网址| 91香蕉视频免费| 亚洲精品色在线网站| 亚洲AV无码乱码在线观看牲色| 国产日本亚洲一区二区三区| 午夜毛片不卡高清免费| 牛牛在线精品观看免费正 | 亚洲日本国产精华液| 男男AV纯肉无码免费播放无码| 亚洲欧美国产日韩av野草社区| 亚洲免费视频一区二区三区| 美女在线视频观看影院免费天天看 | 女人18毛片水最多免费观看 | 免费无毒a网站在线观看| 久久亚洲精品AB无码播放| 免费可以在线看A∨网站| 亚洲免费无码在线| 亚洲国产成人99精品激情在线| 免费中文字幕在线观看|