<span id="3dn8r"></span>
    1. <span id="3dn8r"><optgroup id="3dn8r"></optgroup></span><li id="3dn8r"><meter id="3dn8r"></meter></li>

        Meta無限長文本大模型來了:參數僅7B,已開源

        AIGC動態1年前 (2024)發布 機器之心
        690 0 0

        Meta無限長文本大模型來了:參數僅7B,已開源

        AIGC動態歡迎閱讀

        原標題:Meta無限長文本大模型來了:參數僅7B,已開源
        關鍵字:報告,注意力,上下文,序列,長上
        文章來源:機器之心
        內容字數:7261字

        內容摘要:


        機器之心報道
        編輯:澤南、陳萍谷歌之后,Meta 也來卷無限長上下文。Transformers 的二次復雜度和弱長度外推限制了它們擴展到長序列的能力,雖然存在線性注意力和狀態空間模型等次二次解決方案,但從以往的經驗來看,它們在預訓練效率和下游任務準確性方面表現不佳。
        長文本是大語言模型一直在努力的方向。近日,谷歌提出的 Infini-Transformer 引入有效方法,可以將基于 Transformer 的大型語言模型 (LLM) 擴展到無限長輸入,而不增加內存和計算需求,吸引了人們的關注。
        幾乎就在同時,Meta 也提出了一種無限長文本技術。論文地址:https://arxiv.org/pdf/2404.08801.pdf
        論文標題:MEGALODON: Efficient LLM Pretraining and Inference with Unlimited Context Length
        代碼:https://github.com/XuezheMax/megalodon
        在 4 月 12 日提交的一篇論文中,來自 Meta、南加州大學、CMU、UCSD 等公司、機構引入了 ME


        原文鏈接:Meta無限長文本大模型來了:參數僅7B,已開源

        聯系作者

        文章來源:機器之心
        作者微信:almosthuman2014
        作者簡介:專業的人工智能媒體和產業服務平臺

        閱讀原文
        ? 版權聲明
        蟬鏡AI數字人

        相關文章

        蟬鏡AI數字人

        暫無評論

        暫無評論...
        主站蜘蛛池模板: 亚洲人成在线中文字幕| 亚洲乱色熟女一区二区三区丝袜| 亚洲人精品午夜射精日韩| 成人久久久观看免费毛片| 免费中文字幕一级毛片| 国产精品亚洲а∨无码播放不卡 | 亚洲精品国产摄像头| 韩国免费一级成人毛片| 亚洲av片不卡无码久久| 日韩一区二区a片免费观看| 亚洲AV永久无码精品网站在线观看 | 国产精品成人观看视频免费| 亚洲男人电影天堂| 亚洲成av人无码亚洲成av人| 成年女人毛片免费视频| 亚洲欧美日韩国产精品一区| 国产福利免费观看| 一级做a毛片免费视频| 亚洲精品色午夜无码专区日韩| 黄网站免费在线观看| 亚洲精品在线播放视频| 免费毛片a在线观看67194| 亚洲精品乱码久久久久久蜜桃图片| 日韩人妻无码免费视频一区二区三区 | 羞羞视频免费网站含羞草| 国产精品亚洲综合专区片高清久久久| 久青草视频在线观看免费| 亚洲男人天堂2017| 黄瓜视频影院在线观看免费| 久久水蜜桃亚洲AV无码精品| 中文字幕亚洲激情| www视频在线观看免费| 自拍偷自拍亚洲精品偷一| 亚洲精品乱码久久久久久自慰| 91成年人免费视频| 黄色毛片免费观看| 亚洲日本中文字幕区| 白白国产永久免费视频| a级在线免费观看| 精品国产成人亚洲午夜福利| 亚洲欧洲精品成人久久曰影片|