<span id="3dn8r"></span>
    1. <span id="3dn8r"><optgroup id="3dn8r"></optgroup></span><li id="3dn8r"><meter id="3dn8r"></meter></li>

        超越擴散模型!自回歸新范式僅需2.9秒就生成高質量圖像,中科大哈工大度小滿出品

        AIGC動態1年前 (2024)發布 量子位
        290 0 0

        超越擴散模型!自回歸新范式僅需2.9秒就生成高質量圖像,中科大哈工大度小滿出品

        AIGC動態歡迎閱讀

        原標題:超越擴散模型!自回歸新范式僅需2.9秒就生成高質量圖像,中科大哈工大度小滿出品
        關鍵字:圖像,模型,尺度,位置,文本
        文章來源:量子位
        內容字數:0字

        內容摘要:


        STAR團隊 投稿自 凹非寺量子位 | 公眾號 QbitAI超越擴散模型!自回歸范式在圖像生成領域再次被驗證——
        中科大、哈工大、度小滿等機構提出通用文生圖模型STAR。
        僅需2.9秒就可生成高質量圖像,超越當前一眾包括SDXL在內擴散模型的性能。
        此外在生成圖像真實度、圖文一致性和人類偏好上均表現優秀。
        來看看具體是如何做到的?
        自回歸通用文生圖模型STAR擴散模由于其高質量和多元的生成,一度在文生圖領域占有主導地位。
        它通過逐步的去噪過程,為圖像生成提供了更強的穩定性和可控性,然而也導致生成過程極其耗時。
        而自回歸模型的潛力,在受到大語言模型啟發下,開始在這一領域逐漸被探索。
        比如VAR指出是因為自回歸模型逐個預測token的行為不符合圖像模態的特點,提出“next-scale prediction”范式,將視覺自回歸建模為逐個預測更大尺度scale的token map。這一方式避免了原始基于next-token的自回歸方案難以建模圖像模態的問題,重新為視覺生成定義了新的自回歸范式,從而使得生成的圖像具有更高的真實度,不過仍然有很多局限,性能仍落后于擴散模型。
        作者提出基于尺度的文


        原文鏈接:超越擴散模型!自回歸新范式僅需2.9秒就生成高質量圖像,中科大哈工大度小滿出品

        聯系作者

        文章來源:量子位
        作者微信:QbitAI
        作者簡介:追蹤人工智能新趨勢,關注科技行業新突破

        閱讀原文
        ? 版權聲明
        蟬鏡AI數字人

        相關文章

        蟬鏡AI數字人

        暫無評論

        暫無評論...
        主站蜘蛛池模板: 免费看黄的成人APP| 国产精品免费αv视频| 亚洲avav天堂av在线网爱情| 亚洲视频中文字幕在线| 亚洲精品永久www忘忧草| 男女猛烈xx00免费视频试看| 久久久久久久久久免免费精品| 日韩精品无码免费专区午夜| 国产亚洲精品激情都市| 91亚洲国产成人久久精品| free哆拍拍免费永久视频| 亚洲国产综合人成综合网站| 亚洲精品福利在线观看| xxxx日本免费| 亚洲色WWW成人永久网址| 最新亚洲精品国偷自产在线| 成全视成人免费观看在线看| 大学生一级特黄的免费大片视频| 亚洲人成网站在线观看青青| 亚洲乱码在线观看| 美女视频黄a视频全免费| 亚洲香蕉成人AV网站在线观看| 国产成人AV免费观看| 亚洲黄色片免费看| 妞干网免费观看视频| 一进一出60分钟免费视频| 国产精品成人免费一区二区| 亚洲爱情岛论坛永久| 国产精品亚洲一区二区三区久久| 亚洲伊人久久综合影院| 小草在线看片免费人成视久网| 免费**毛片在线播放直播| 亚洲国产日韩精品| 亚洲成AV人网址| 苍井空亚洲精品AA片在线播放| 999任你躁在线精品免费不卡| 中文字幕亚洲日本岛国片| 免费不卡在线观看AV| 亚洲国产美女精品久久久| 免费看黄视频网站| 特级毛片全部免费播放a一级|