<span id="3dn8r"></span>
    1. <span id="3dn8r"><optgroup id="3dn8r"></optgroup></span><li id="3dn8r"><meter id="3dn8r"></meter></li>

        MoE也有Scaling Law,「百萬專家」利用率近100%!DeepMind華人挑戰MoE極限

        AIGC動態1年前 (2024)發布 新智元
        504 0 0

        MoE也有Scaling Law,「百萬專家」利用率近100%!DeepMind華人挑戰MoE極限

        AIGC動態歡迎閱讀

        原標題:MoE也有Scaling Law,「百萬專家」利用率近100%!DeepMind華人挑戰MoE極限
        關鍵字:專家,模型,數量,參數,大小
        文章來源:新智元
        內容字數:0字

        內容摘要:


        新智元報道編輯:編輯部
        【新智元導讀】MoE已然成為AI界的主流架構,不論是開源Grok,還是閉源GPT-4,皆是其擁躉。然而,這些模型的專家,最大數量僅有32個。最近,谷歌DeepMind提出了全新的策略PEER,可將MoE擴展到百萬個專家,還不會增加計算成本。如果你熟悉當前LLM的主流架構,混合專家(MoE)技術想必是老朋友之一。有人甚至會說,MoE是使大模型崛起的關鍵因素之一。
        開源的Mixtral、DBRX、Grok等模型都使用了MoE,而且根據Soumith Chintala等大佬的推測,GPT-4也是一個規模為8×220B的MoE模型。
        類似GPT-4,多數MoE模型都會將專家數量限制在較少數量,一般不會超過16或32。
        然而,DeepMind研究科學家Xu Owen He最近就在一篇發表的論文中,提出了一種全新的方法——PEER(參數高效專家檢索,Parameter Efficient Expert Retrieval),可以將專家數量擴展到百萬數量級。
        論文地址:https://arxiv.org/abs/2407.04153
        這究竟是如何做到的?參數量不會嗎


        原文鏈接:MoE也有Scaling Law,「百萬專家」利用率近100%!DeepMind華人挑戰MoE極限

        聯系作者

        文章來源:新智元
        作者微信:AI_era
        作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。

        閱讀原文
        ? 版權聲明
        蟬鏡AI數字人

        相關文章

        蟬鏡AI數字人

        暫無評論

        暫無評論...
        主站蜘蛛池模板: 亚洲sm另类一区二区三区| 亚洲免费闲人蜜桃| 国产亚洲日韩在线三区| 国产亚洲精品资在线| 中文字幕在线观看亚洲| 亚洲中文字幕久久精品蜜桃| 亚洲AV无码成人精品区日韩 | 四虎www成人影院免费观看| 日本特黄特色aa大片免费| 久久亚洲国产午夜精品理论片| 亚洲春黄在线观看| 日本在线观看免费高清| 国产一卡二卡四卡免费| 亚洲精品岛国片在线观看| 亚洲乱人伦精品图片| 成年女人18级毛片毛片免费观看| 亚洲人精品午夜射精日韩| 国产精品无码亚洲精品2021| 日韩av无码久久精品免费| 又粗又硬免费毛片| 亚洲免费观看在线视频| 免费精品一区二区三区在线观看| 久久伊人久久亚洲综合| 国产精品免费久久久久电影网| 免费做爰猛烈吃奶摸视频在线观看 | 久久免费区一区二区三波多野| 国产精品99久久免费| 亚洲国产精品日韩在线| 午夜神器成在线人成在线人免费| 最新亚洲人成无码网www电影| 亚洲中文字幕在线观看| 67pao强力打造高清免费| 亚洲精品无码国产| 一进一出60分钟免费视频| 妞干网免费视频在线观看| 美女黄色毛片免费看| 日韩特黄特色大片免费视频| 国产久爱免费精品视频| 亚洲中文字幕无码爆乳av中文| 国产成人亚洲精品播放器下载| 在线观看免费毛片|