<span id="3dn8r"></span>
    1. <span id="3dn8r"><optgroup id="3dn8r"></optgroup></span><li id="3dn8r"><meter id="3dn8r"></meter></li>

        清華NLP組發布InfLLM:無需額外訓練,「1024K超長上下文」100%召回!

        AIGC動態2年前 (2024)發布 新智元
        602 0 0

        清華NLP組發布InfLLM:無需額外訓練,「1024K超長上下文」100%召回!

        AIGC動態歡迎閱讀

        原標題:清華NLP組發布InfLLM:無需額外訓練,「1024K超長上下文」100%召回!
        關鍵字:記憶,上下文,語義,模型,單元
        文章來源:新智元
        內容字數:6896字

        內容摘要:


        新智元報道編輯:LRS
        【新智元導讀】挖掘大模型固有的長文本理解能力,InfLLM在沒有引入額外訓練的情況下,利用一個外部記憶模塊存儲超長上下文信息,實現了上下文長度的擴展。大模型只能夠記憶與理解有限的上下文已經成為大模型在真實應用中的能力瓶頸,例如對話式AI系統往往無法記憶你前一天對話的內容,利用大模型構建智能體會產生前后不一致的行為與記憶。
        為了讓大模型能夠記憶并處理更長的上下文,來自清華大學、麻省理工學院和人民大學的研究人員聯合提出無需額外訓練的大模型長文本理解方法 InfLLM,利用少量計算和顯存開銷實現了 LLM的超長文本處理。論文地址:https://arxiv.org/abs/2402.04617
        代碼倉庫:https://github.com/thunlp/InfLLM
        實驗結果表明,InfLLM能夠有效地擴展Mistral、LLaMA的上下文處理窗口,并在1024K上下文的海底撈針任務中實現100%召回。
        研究背景大規模預訓練語言模型(LLMs)近幾年在眾多任務上取得了突破性的進展,成為眾多應用的基礎模型。
        這些真實應用也給LLMs處理超長序列的能力提出了更高的要求


        原文鏈接:清華NLP組發布InfLLM:無需額外訓練,「1024K超長上下文」100%召回!

        聯系作者

        文章來源:新智元
        作者微信:AI_era
        作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。

        閱讀原文
        ? 版權聲明
        蟬鏡AI數字人

        相關文章

        蟬鏡AI數字人

        暫無評論

        暫無評論...
        主站蜘蛛池模板: 亚洲偷自拍另类图片二区| 久久国产亚洲精品| 日本视频免费高清一本18| 亚洲熟妇无码另类久久久| 中文在线免费看视频| 亚洲中文久久精品无码| a级精品九九九大片免费看| 亚洲精品高清国产一线久久| 久久免费精品视频| 亚洲欧洲国产视频| 在线观看无码AV网站永久免费| 亚洲一日韩欧美中文字幕在线 | 久久免费精品视频| 亚洲一区二区成人| 一个人免费高清在线观看| 亚洲日韩精品无码专区加勒比 | 特黄aa级毛片免费视频播放| 亚洲精品无码你懂的网站| 青青操视频在线免费观看| 91亚洲导航深夜福利| 99精品国产免费久久久久久下载| 亚洲日韩av无码中文| 亚洲伊人成无码综合网| 污污网站18禁在线永久免费观看| 亚洲国产日产无码精品| 国产精品二区三区免费播放心| 国产黄色免费观看| 亚洲网红精品大秀在线观看| 岛国片在线免费观看| 国产视频精品免费视频| 中文字幕在线观看亚洲| 香蕉视频在线观看免费国产婷婷 | 亚洲jjzzjjzz在线播放| 免费欧洲美女牲交视频| 国产精品免费AV片在线观看| 中文无码亚洲精品字幕| 亚洲精品乱码久久久久久自慰| 日韩欧美一区二区三区免费观看| 国产成人无码精品久久久久免费| 亚洲国产精品久久丫| 国产成人高清亚洲|