<span id="3dn8r"></span>
    1. <span id="3dn8r"><optgroup id="3dn8r"></optgroup></span><li id="3dn8r"><meter id="3dn8r"></meter></li>

        MHA2MLA

        AI工具2個月前更新 AI工具集
        641 0 0

        MHA2MLA – 復(fù)旦、上海AI Lab等推出優(yōu)化LLM推理效率的方法

        MHA2MLA是一種由復(fù)旦大學(xué)、華東師范大學(xué)及上海AI Lab等多家機構(gòu)共同開發(fā)的數(shù)據(jù)高效微調(diào)方法。該方法采用了DeepSeek的多頭潛在注意力機制(MLA),旨在提升任何基于Transformer的大型語言模型(LLM)的推理效率,并顯著降低推理成本。MHA2MLA通過兩個核心策略實現(xiàn)其目標(biāo):首先是部分旋轉(zhuǎn)位置編碼(partial-RoPE),去除了對注意力分數(shù)貢獻較小的查詢和鍵的旋轉(zhuǎn)位置編碼(RoPE)維度;其次是低秩近似,通過聯(lián)合奇異值分解(SVD)對鍵和值進行壓縮,從而減少KV緩存的內(nèi)存占用。該方法僅需使用原始數(shù)據(jù)的0.3%至0.6%進行微調(diào),即可在極大降低KV緩存(如高達92.19%)的同時,將性能損失控制在微小范圍內(nèi)(例如LongBench性能僅下降0.5%)。

        MHA2MLA是什么

        MHA2MLA是由復(fù)旦大學(xué)、華東師范大學(xué)和上海AI Lab等機構(gòu)聯(lián)合研發(fā)的一種高效微調(diào)方法,旨在優(yōu)化基于Transformer的LLM的推理過程。通過引入DeepSeek的多頭潛在注意力機制(MLA),MHA2MLA能夠降低推理成本并提升推理效率。該方法依賴于兩個重要策略:部分旋轉(zhuǎn)位置編碼(partial-RoPE)和低秩近似(Low-Rank Approximation),實現(xiàn)了在數(shù)據(jù)量極小的情況下,依然能夠保持模型的高性能。

        MHA2MLA

        MHA2MLA的主要功能

        • 顯著降低KV緩存:基于低秩壓縮技術(shù),最大限度地減少KV緩存的大小(最高可達96.87%),從而降低推理過程中的內(nèi)存占用。
        • 保持模型性能:在極少量數(shù)據(jù)(0.3%至0.6%原始訓(xùn)練數(shù)據(jù))下進行微調(diào),確保性能損失極小(如LongBench性能僅下降0.5%)。
        • 兼容現(xiàn)有技術(shù):可與量化技術(shù)(如4-bit量化)結(jié)合使用,進一步提升推理效率。
        • 數(shù)據(jù)高效性:僅需少量數(shù)據(jù)即可完成從MHA到MLA的架構(gòu)轉(zhuǎn)變,適合在資源受限的環(huán)境中快速實施。

        MHA2MLA的技術(shù)原理

        • 部分旋轉(zhuǎn)位置編碼(Partial-RoPE):在多頭自注意力機制中,旋轉(zhuǎn)位置編碼(RoPE)通過旋轉(zhuǎn)操作將位置信息融入查詢向量(Q)和鍵向量(K),幫助模型捕捉序列中的位置信息。MHA2MLA根據(jù)每個維度對注意力分數(shù)的貢獻,移除貢獻較小的RoPE維度,減少計算量和內(nèi)存占用,這一過程稱為部分RoPE,從而為低秩壓縮騰出空間。
        • 低秩近似(Low-Rank Approximation):MLA利用低秩聯(lián)合壓縮鍵值(KV)來減少內(nèi)存占用。MHA2MLA借鑒這一思想,對MHA中的鍵和值參數(shù)矩陣進行奇異值分解(SVD),將其分解為低秩矩陣的乘積,以更少的參數(shù)近似原始矩陣。為了更好地保留鍵和值之間的交互信息,MHA2MLA采用聯(lián)合SVD(SVDjoint)策略,對鍵和值矩陣進行聯(lián)合分解,而非各自處理。

        MHA2MLA的項目地址

        MHA2MLA的應(yīng)用場景

        • 邊緣設(shè)備部署:通過降低模型的內(nèi)存占用,使其適應(yīng)資源受限的智能終端和物聯(lián)網(wǎng)設(shè)備。
        • 大規(guī)模模型推理:減少KV緩存,提高推理效率,降低硬件需求和能耗。
        • 結(jié)合量化技術(shù):與量化技術(shù)結(jié)合,進一步優(yōu)化推理性能,適用于實時對話和在線翻譯等應(yīng)用。
        • 長文本處理:緩解長文本任務(wù)中的內(nèi)存瓶頸,高效處理長文檔摘要和長篇生成。
        • 快速模型遷移:僅需少量數(shù)據(jù)微調(diào),迅速將MHA模型轉(zhuǎn)變?yōu)镸LA架構(gòu),降低遷移成本。

        常見問題

        • MHA2MLA適合哪些場景? MHA2MLA特別適合資源受限的環(huán)境,如邊緣設(shè)備和物聯(lián)網(wǎng)應(yīng)用,同時也適用于大規(guī)模模型推理和長文本處理。
        • 微調(diào)時需要多少數(shù)據(jù)? 只需使用原始數(shù)據(jù)的0.3%到0.6%進行微調(diào),即可實現(xiàn)有效的性能保持。
        • 與其他技術(shù)兼容嗎? 是的,MHA2MLA可以與量化技術(shù)等其他優(yōu)化方法結(jié)合使用,進一步提升推理效率。
        閱讀原文
        ? 版權(quán)聲明
        Trae官網(wǎng)

        相關(guān)文章

        Trae官網(wǎng)

        暫無評論

        暫無評論...
        主站蜘蛛池模板: 嫩草在线视频www免费观看| 亚洲色无码专区在线观看| 99热这里只有精品免费播放| 国产偷国产偷亚洲高清在线| 亚洲午夜成激人情在线影院| 日韩va亚洲va欧洲va国产| 免费人成网站在线播放| 免费被黄网站在观看| 性短视频在线观看免费不卡流畅| 一区二区三区在线免费看| 久久成人永久免费播放| 午夜在线免费视频 | 国产精品国产亚洲区艳妇糸列短篇| 无码专区—VA亚洲V天堂| 亚洲色精品aⅴ一区区三区| 亚洲av区一区二区三| 国产片免费在线观看| 在线精品免费视频| 久久久久久国产精品免费免费| 1000部免费啪啪十八未年禁止观看 | 香港特级三A毛片免费观看| 亚洲国产成人精品无码区花野真一 | 亚洲国产精品成人午夜在线观看| 亚洲国产成人精品无码一区二区 | 99re在线精品视频免费| 老汉精品免费AV在线播放| 日韩电影免费观看| 一区二区三区无码视频免费福利| 国产高潮流白浆喷水免费A片 | 亚洲中文字幕无码久久综合网 | 男女午夜24式免费视频| 在线观看免费黄网站| 免费无码av片在线观看| 精品视频一区二区三区免费| 国产精品视频白浆免费视频| 99在线热视频只有精品免费| 1000部啪啪未满十八勿入免费| 久久久久久国产a免费观看黄色大片| 免费观看的毛片大全| 免费看www视频| 亚洲精品国产综合久久一线|