<span id="3dn8r"></span>
    1. <span id="3dn8r"><optgroup id="3dn8r"></optgroup></span><li id="3dn8r"><meter id="3dn8r"></meter></li>

        Transformer作者初創(chuàng)重磅發(fā)布Transformer2!AI模型活了,動(dòng)態(tài)調(diào)整自己權(quán)重

        AIGC動(dòng)態(tài)8個(gè)月前發(fā)布 新智元
        343 0 0

        Transformer作者初創(chuàng)重磅發(fā)布Transformer2!AI模型活了,動(dòng)態(tài)調(diào)整自己權(quán)重

        原標(biāo)題:Transformer作者初創(chuàng)重磅發(fā)布Transformer2!AI模型活了,動(dòng)態(tài)調(diào)整自己權(quán)重
        文章來源:新智元
        內(nèi)容字?jǐn)?shù):6474字

        Sakana AI提出Transformer2:賦予LLM實(shí)時(shí)適應(yīng)能力

        大型語言模型(LLM)的傳統(tǒng)微調(diào)方法耗時(shí)費(fèi)力,且難以應(yīng)對(duì)多樣化任務(wù)。Sakana AI的研究團(tuán)隊(duì)為此提出了一種名為Transformer2的新方法,它能夠讓LLM實(shí)時(shí)適應(yīng)未見過的任務(wù),顯著提升模型的泛化和自適應(yīng)能力。

        1. LLM的“大腦”與奇異值分解

        文章將LLM的權(quán)重矩陣比作人類大腦,存儲(chǔ)著模型學(xué)習(xí)到的知識(shí)。為了理解并有效調(diào)整這個(gè)“大腦”,研究人員利用奇異值分解(SVD)將權(quán)重矩陣分解成更小、更的組件,如同將大腦中的知識(shí)路徑分解成更小的模塊。

        2. Transformer2的兩步過程

        Transformer2包含兩個(gè)核心步驟:首先,模型分析傳入的任務(wù),理解其需求;然后,應(yīng)用任務(wù)專用的適應(yīng)性調(diào)整,生成最佳結(jié)果。這通過動(dòng)態(tài)調(diào)整權(quán)重矩陣中的關(guān)鍵組件實(shí)現(xiàn)。

        3. 奇異值微調(diào)(SVF)與強(qiáng)化學(xué)習(xí)(RL)

        在訓(xùn)練階段,Transformer2采用奇異值微調(diào)(SVF)方法,利用強(qiáng)化學(xué)習(xí)(RL)來增強(qiáng)或抑制不同組件的信號(hào),使其適應(yīng)多種下游任務(wù)。每個(gè)任務(wù)對(duì)應(yīng)一個(gè)z向量,該向量指定了每個(gè)組件的期望強(qiáng)度,如同“放大器”或“衰減器”。

        4. 三種自適應(yīng)策略

        在推理階段,Transformer2采用三種自適應(yīng)策略:基于提示的適應(yīng)、基于分類器的適應(yīng)和少樣本適應(yīng)。這些策略能夠根據(jù)任務(wù)或輸入提示,選擇或組合合適的z向量來調(diào)整模型權(quán)重,生成最佳響應(yīng)。

        5. 實(shí)驗(yàn)結(jié)果與知識(shí)轉(zhuǎn)移

        實(shí)驗(yàn)結(jié)果表明,Transformer2在數(shù)學(xué)、代碼、推理和視覺問答等任務(wù)上均優(yōu)于LoRA,尤其是在未見過的任務(wù)上表現(xiàn)出色。更令人興奮的是,該方法還展現(xiàn)出模型知識(shí)轉(zhuǎn)移的潛力:將一個(gè)模型學(xué)習(xí)到的z向量轉(zhuǎn)移到另一個(gè)模型,也能提升后者的性能。

        6. “智能”的未來

        Transformer2為L(zhǎng)LM的未來發(fā)展指明了方向:AI系統(tǒng)將不再是靜態(tài)實(shí)體,而是能夠不斷學(xué)習(xí)、演化和適應(yīng)的“智能”。這將推動(dòng)高效、個(gè)性化、完全集成的AI工具的開發(fā),并在各個(gè)行業(yè)帶來進(jìn)步。

        總而言之,Transformer2通過巧妙地利用SVD和RL,實(shí)現(xiàn)了LLM的實(shí)時(shí)自適應(yīng)能力,為構(gòu)建更靈活、高效和智能的AI系統(tǒng)開辟了新的道路。


        聯(lián)系作者

        文章來源:新智元
        作者微信:
        作者簡(jiǎn)介:智能+中國(guó)主平臺(tái),致力于推動(dòng)中國(guó)從互聯(lián)網(wǎng)+邁向智能+新紀(jì)元。重點(diǎn)關(guān)注人工智能、機(jī)器人等前沿領(lǐng)域發(fā)展,關(guān)注人機(jī)融合、人工智能和機(jī)器人對(duì)人類社會(huì)與文明進(jìn)化的影響,領(lǐng)航中國(guó)新智能時(shí)代。

        閱讀原文
        ? 版權(quán)聲明
        蟬鏡AI數(shù)字人

        相關(guān)文章

        蟬鏡AI數(shù)字人

        暫無評(píng)論

        暫無評(píng)論...
        主站蜘蛛池模板: 亚洲国产成人久久精品影视| 亚洲成在人线中文字幕| 亚洲日韩av无码中文| 97在线观看永久免费视频| 最近中文字幕无吗免费高清 | 国产成人精品免费视频大全麻豆| 午夜高清免费在线观看| 亚洲校园春色另类激情| 成年人免费视频观看| 亚洲av无码成人精品区一本二本| a级毛片免费网站| 最新国产AV无码专区亚洲| 成人免费777777被爆出| 亚洲av网址在线观看| 亚洲国产精品免费视频| 亚洲在成人网在线看| 成人毛片免费观看视频在线| 无套内射无矿码免费看黄| 亚洲精品视频免费在线观看| 亚洲欧洲精品在线| 我要看WWW免费看插插视频| 国产成人精品日本亚洲语音 | 亚洲AV无码1区2区久久| 免费看男女下面日出水来| 亚洲一久久久久久久久| 99久久精品免费视频| 亚洲avav天堂av在线网爱情| 久久精品免费观看| 亚洲欧洲日本在线| 美女内射无套日韩免费播放 | 欧美三级在线电影免费| 亚洲视频中文字幕| 成人免费午间影院在线观看| 无人视频在线观看免费播放影院| 亚洲狠狠婷婷综合久久久久| 一级黄色片免费观看| 亚洲国产香蕉人人爽成AV片久久| 久久国产精品国产自线拍免费| 亚洲成A人片在线播放器| 亚洲中文字幕成人在线| 日亚毛片免费乱码不卡一区|