<span id="3dn8r"></span>
    1. <span id="3dn8r"><optgroup id="3dn8r"></optgroup></span><li id="3dn8r"><meter id="3dn8r"></meter></li>

        谷歌推出Transformer架構(gòu)的繼任者Titans:訓(xùn)練代碼也會(huì)公開(kāi)

        谷歌推出Transformer架構(gòu)的繼任者Titans:訓(xùn)練代碼也會(huì)公開(kāi)

        原標(biāo)題:谷歌推出Transformer架構(gòu)的繼任者Titans:訓(xùn)練代碼也會(huì)公開(kāi)
        文章來(lái)源:人工智能學(xué)家
        內(nèi)容字?jǐn)?shù):9852字

        谷歌發(fā)布Transformer繼任者Titans:神經(jīng)長(zhǎng)期記憶模塊賦能AI

        本文概述了谷歌最新發(fā)布的Transformer架構(gòu)繼任者——Titans,以及其核心創(chuàng)新、架構(gòu)設(shè)計(jì)和實(shí)驗(yàn)結(jié)果。

        1. Titans的核心創(chuàng)新:神經(jīng)長(zhǎng)期記憶模塊

        Titans的核心創(chuàng)新在于提出了一種新型的神經(jīng)長(zhǎng)期記憶模塊,該模塊能夠在測(cè)試時(shí)學(xué)習(xí)記憶。它通過(guò)將訓(xùn)練過(guò)程視為在線(xiàn)學(xué)習(xí)問(wèn)題,并根據(jù)輸入的“驚訝程度”(通過(guò)計(jì)算神經(jīng)網(wǎng)絡(luò)相對(duì)于輸入的梯度來(lái)衡量)來(lái)更新記憶。為了解決記憶容量有限的問(wèn)題,該模塊還引入了自適應(yīng)的遺忘機(jī)制,并通過(guò)實(shí)驗(yàn)發(fā)現(xiàn)深度記憶模塊(多層感知機(jī))比線(xiàn)性模型更有效。記憶的檢索則通過(guò)簡(jiǎn)單的正向傳遞實(shí)現(xiàn)。

        2. Titans架構(gòu)設(shè)計(jì):三個(gè)分支協(xié)同工作

        Titans架構(gòu)包含三個(gè)分支:核心分支(Core)使用注意力機(jī)制處理數(shù)據(jù);長(zhǎng)期記憶分支(Long-term Memory)使用神經(jīng)長(zhǎng)期記憶模塊存儲(chǔ)和回憶歷史信息;持久記憶分支(Persistent Memory)使用可學(xué)習(xí)但不依賴(lài)于數(shù)據(jù)的參數(shù)編碼任務(wù)相關(guān)知識(shí)。論文提出了三種不同的Titans變體:上下文記憶(MAC)、門(mén)控記憶(MAG)和層式記憶(MAL),分別探索了不同記憶融合方式的有效性。

        3. 實(shí)驗(yàn)結(jié)果:超越Transformer和循環(huán)模型

        在語(yǔ)言建模、常識(shí)推理、長(zhǎng)距離依賴(lài)、時(shí)間序列預(yù)測(cè)和DNA建模等任務(wù)上,Titans架構(gòu)在所有基準(zhǔn)測(cè)試中都優(yōu)于現(xiàn)代循環(huán)模型及其混合變體,并在相同上下文窗口大小下優(yōu)于Transformer模型。尤其在長(zhǎng)上下文任務(wù)中,Titans展現(xiàn)出更具競(jìng)爭(zhēng)力的性能,并能有效擴(kuò)展到大于2M的上下文窗口大小。消融研究驗(yàn)證了架構(gòu)中每個(gè)組件的積極貢獻(xiàn),其中權(quán)重衰減、動(dòng)量、卷積和持久記憶的貢獻(xiàn)最大。

        4. 代碼開(kāi)源與未來(lái)展望

        Titans已使用PyTorch和JAX實(shí)現(xiàn),谷歌計(jì)劃很快公開(kāi)用于訓(xùn)練和評(píng)估模型的代碼。這項(xiàng)研究為深度學(xué)習(xí)模型的長(zhǎng)期記憶機(jī)制提供了新的思路,有望進(jìn)一步提升AI模型在處理長(zhǎng)序列數(shù)據(jù)和復(fù)雜任務(wù)方面的能力。

        5. 補(bǔ)充:歐米伽研究所“未來(lái)知識(shí)庫(kù)”

        文章最后提及了歐米伽研究所的“未來(lái)知識(shí)庫(kù)”,這是一個(gè)收集人工智能、腦科學(xué)等領(lǐng)域前沿進(jìn)展與未來(lái)趨勢(shì)的在線(xiàn)知識(shí)庫(kù)平臺(tái),提供大量前沿科技趨勢(shì)報(bào)告,例如美國(guó)眾議院人工智能報(bào)告、DeepMind AI 加速科學(xué)創(chuàng)新報(bào)告等。 這部分內(nèi)容旨在引導(dǎo)讀者進(jìn)一步了解相關(guān)領(lǐng)域的最新研究進(jìn)展。


        聯(lián)系作者

        文章來(lái)源:人工智能學(xué)家
        作者微信:
        作者簡(jiǎn)介:致力成為權(quán)威的人工智能科技媒體和前沿科技研究機(jī)構(gòu)

        閱讀原文
        ? 版權(quán)聲明
        蟬鏡AI數(shù)字人

        相關(guān)文章

        蟬鏡AI數(shù)字人

        暫無(wú)評(píng)論

        暫無(wú)評(píng)論...
        主站蜘蛛池模板: 国产卡二卡三卡四卡免费网址 | 亚洲熟伦熟女新五十路熟妇 | 成人黄软件网18免费下载成人黄18免费视频| 亚洲精品视频免费看| 日本高清色本免费现在观看| 精品免费国产一区二区三区| 亚洲中文字幕无码一区二区三区| 亚洲综合无码一区二区三区| 亚洲成a人无码亚洲成av无码| 亚洲免费日韩无码系列| 30岁的女人韩剧免费观看| 97久久精品亚洲中文字幕无码| 精品久久亚洲一级α| 999任你躁在线精品免费不卡| 国产精品视_精品国产免费| 18亚洲男同志videos网站| 最近中文字幕mv免费高清在线| 免费在线一级毛片| 亚洲一区二区三区亚瑟| 国产免费人成视频在线播放播| 四虎免费影院ww4164h| 国产亚洲美女精品久久久| 国内精品久久久久影院亚洲 | 一个人免费观看日本www视频 | 四虎在线最新永久免费| 亚洲精品美女久久久久久久| 又大又黄又粗又爽的免费视频| 精品免费久久久久国产一区| 久久夜色精品国产噜噜噜亚洲AV| 亚洲第一视频在线观看免费| 亚洲AV无码专区电影在线观看| 一个人免费观看日本www视频| 久久精品国产亚洲AV嫖农村妇女| 无人在线直播免费观看| 亚洲国产精品久久网午夜| 最新国产乱人伦偷精品免费网站 | 国产三级在线免费观看| 亚洲精品视频久久| 一本久到久久亚洲综合| 中国china体内裑精亚洲日本| 亚洲av无码天堂一区二区三区|