<span id="3dn8r"></span>
    1. <span id="3dn8r"><optgroup id="3dn8r"></optgroup></span><li id="3dn8r"><meter id="3dn8r"></meter></li>

        「知識(shí)蒸餾+持續(xù)學(xué)習(xí)」最新綜述!哈工大、中科院出品:全新分類(lèi)體系,十大數(shù)據(jù)集全面實(shí)驗(yàn)

        AIGC動(dòng)態(tài)4個(gè)月前發(fā)布 新智元
        374 0 0

        「知識(shí)蒸餾+持續(xù)學(xué)習(xí)」最新綜述!哈工大、中科院出品:全新分類(lèi)體系,十大數(shù)據(jù)集全面實(shí)驗(yàn)

        原標(biāo)題:「知識(shí)蒸餾+持續(xù)學(xué)習(xí)」最新綜述!哈工大、中科院出品:全新分類(lèi)體系,十大數(shù)據(jù)集全面實(shí)驗(yàn)
        文章來(lái)源:新智元
        內(nèi)容字?jǐn)?shù):14584字

        知識(shí)蒸餾在持續(xù)學(xué)習(xí)中的應(yīng)用綜述

        本文總結(jié)了哈爾濱工業(yè)大學(xué)和中科院自動(dòng)化所研究人員發(fā)表在IEEE Transactions on Neural Networks and Learning Systems (TNNLS)上的一篇綜述論文,該論文系統(tǒng)地探討了知識(shí)蒸餾技術(shù)在持續(xù)學(xué)習(xí)中緩解災(zāi)難性遺忘問(wèn)題的應(yīng)用。

        1. 持續(xù)學(xué)習(xí)與災(zāi)難性遺忘:持續(xù)學(xué)習(xí)旨在使模型能夠連續(xù)學(xué)習(xí)新任務(wù),而不會(huì)忘記之前學(xué)到的知識(shí)。然而,神經(jīng)網(wǎng)絡(luò)容易出現(xiàn)災(zāi)難性遺忘,即在學(xué)習(xí)新任務(wù)時(shí),對(duì)舊任務(wù)的性能急劇下降。知識(shí)蒸餾(KD)作為一種有效的緩解方法,通過(guò)讓新模型模仿舊模型的輸出,從而保留舊任務(wù)的知識(shí)。

        2. 知識(shí)蒸餾在持續(xù)學(xué)習(xí)中的分類(lèi):論文提出了一種新的分類(lèi)方法,將基于知識(shí)蒸餾的持續(xù)學(xué)習(xí)方法分為三大范式:

        1. 正則化的知識(shí)蒸餾:直接將知識(shí)蒸餾作為正則化項(xiàng),約束模型參數(shù)變化,以保持舊任務(wù)的知識(shí)。這種方法簡(jiǎn)單直接,但效果通常較弱。

        2. 知識(shí)蒸餾與數(shù)據(jù)回放結(jié)合:將知識(shí)蒸餾與數(shù)據(jù)回放技術(shù)相結(jié)合,從數(shù)據(jù)和模型兩個(gè)方面增強(qiáng)記憶保持能力。數(shù)據(jù)回放通過(guò)存儲(chǔ)和重放舊任務(wù)數(shù)據(jù)來(lái)減輕遺忘。該范式表現(xiàn)較好,但可能存在數(shù)據(jù)不平衡導(dǎo)致的分類(lèi)偏差問(wèn)題。

        3. 知識(shí)蒸餾與特征回放結(jié)合:無(wú)需存儲(chǔ)原始數(shù)據(jù),通過(guò)回放特征信息來(lái)保留模型的記憶能力。該范式具有內(nèi)存效率高,且能緩解分類(lèi)偏差的優(yōu)點(diǎn)。

        3. 知識(shí)來(lái)源與蒸餾損失:論文根據(jù)知識(shí)來(lái)源將KD方法分為三個(gè)層次:logits級(jí)別、特征級(jí)別和數(shù)據(jù)級(jí)別。logits級(jí)別蒸餾模仿舊模型的輸出概率或logit值;特征級(jí)別蒸餾模仿中間層的特征表示;數(shù)據(jù)級(jí)別蒸餾則通過(guò)生成模型或其他方式對(duì)齊數(shù)據(jù)分布。不同的知識(shí)來(lái)源和蒸餾損失函數(shù)(如交叉熵、KL散度、L1/L2距離、余弦相似度)對(duì)最終效果有顯著影響。

        4. 實(shí)驗(yàn)結(jié)果與分析:論文在CIFAR-100、TinyImageNet和ImageNet-100數(shù)據(jù)集上進(jìn)行了廣泛的實(shí)驗(yàn),驗(yàn)證了知識(shí)蒸餾在減輕遺忘方面的有效性。實(shí)驗(yàn)結(jié)果表明,“知識(shí)蒸餾與數(shù)據(jù)回放結(jié)合”范式的方法通常表現(xiàn)最佳,但分類(lèi)偏差可能會(huì)削弱知識(shí)蒸餾的效果。使用separated softmax損失函數(shù)可以有效緩解這個(gè)問(wèn)題。

        5. 未來(lái)展望:論文展望了基于知識(shí)蒸餾的持續(xù)學(xué)習(xí)的未來(lái)研究方向,包括:

        1. 高質(zhì)量知識(shí)的知識(shí)蒸餾:如何提取和傳遞更高質(zhì)量的知識(shí),是提升持續(xù)學(xué)習(xí)效果的關(guān)鍵。

        2. 針對(duì)特定任務(wù)的知識(shí)蒸餾:需要針對(duì)不同任務(wù)(如目標(biāo)檢測(cè)、語(yǔ)義分割等)進(jìn)行定制化設(shè)計(jì)。

        3. 更好的教師模型:利用預(yù)訓(xùn)練模型(PTM)和大型語(yǔ)言模型(LLM)作為教師模型,可以更有效地指導(dǎo)學(xué)生模型學(xué)習(xí)。

        總而言之,該綜述論文系統(tǒng)地總結(jié)了知識(shí)蒸餾在持續(xù)學(xué)習(xí)中的應(yīng)用,為該領(lǐng)域的研究提供了寶貴的參考,并指出了未來(lái)研究的方向。


        聯(lián)系作者

        文章來(lái)源:新智元
        作者微信:
        作者簡(jiǎn)介:智能+中國(guó)主平臺(tái),致力于推動(dòng)中國(guó)從互聯(lián)網(wǎng)+邁向智能+新紀(jì)元。重點(diǎn)關(guān)注人工智能、機(jī)器人等前沿領(lǐng)域發(fā)展,關(guān)注人機(jī)融合、人工智能和機(jī)器人對(duì)人類(lèi)社會(huì)與文明進(jìn)化的影響,領(lǐng)航中國(guó)新智能時(shí)代。

        閱讀原文
        ? 版權(quán)聲明
        Trae官網(wǎng)

        相關(guān)文章

        Trae官網(wǎng)

        暫無(wú)評(píng)論

        暫無(wú)評(píng)論...
        主站蜘蛛池模板: 大地影院MV在线观看视频免费| 亚洲一区二区三区电影| 免费观看午夜在线欧差毛片| 中文字幕亚洲专区| 亚洲国产成人久久精品app| 国产精品亚洲综合网站| 午夜影院免费观看| 免费中文字幕不卡视频| 亚洲国产精品SSS在线观看AV| 2017亚洲男人天堂一| 成人性做爰aaa片免费看| 亚洲一区爱区精品无码| 综合一区自拍亚洲综合图区| 亚洲人成免费电影| 亚洲日韩国产精品第一页一区| 国产黄在线观看免费观看不卡| 成人免费网站在线观看| 亚洲影院在线观看| 久久国产精品成人片免费| 在线观看免费人成视频色9| 日本免费电影一区| 亚洲国产老鸭窝一区二区三区 | 国产91成人精品亚洲精品| 亚洲国产成人久久一区WWW| 精品丝袜国产自在线拍亚洲| 午夜私人影院免费体验区| 亚洲国产日韩在线人成下载| 性做久久久久久免费观看| 男男gay做爽爽免费视频| 亚洲中文字幕无码爆乳av中文| 亚洲高清乱码午夜电影网| 无人在线观看免费高清视频| 欧美日韩亚洲精品| 免费一看一级毛片全播放| A级毛片高清免费视频在线播放| 亚洲精品美女久久久久| 99精品视频在线观看免费专区| 亚洲成av人在线视| 无码永久免费AV网站| 人人爽人人爽人人片A免费| 亚洲三区在线观看无套内射|