<span id="3dn8r"></span>
    1. <span id="3dn8r"><optgroup id="3dn8r"></optgroup></span><li id="3dn8r"><meter id="3dn8r"></meter></li>

        字節萬卡集群技術細節公開:2天搞定GPT-3訓練,算力利用率超英偉達Megatron-LM

        AIGC動態1年前 (2024)發布 量子位
        490 0 0

        字節萬卡集群技術細節公開:2天搞定GPT-3訓練,算力利用率超英偉達Megatron-LM

        AIGC動態歡迎閱讀

        原標題:字節萬卡集群技術細節公開:2天搞定GPT-3訓練,算力利用率超英偉達Megatron-LM
        關鍵字:騰訊,字節跳動,模型,集群,字節
        文章來源:量子位
        內容字數:4070字

        內容摘要:


        魚羊 發自 凹非寺量子位 | 公眾號 QbitAI隨著對Sora技術分析的展開,AI基礎設施的重要性愈發凸顯。
        來自字節和北大的一篇新論文在此時吸引關注:
        文章披露,字節搭建起的萬卡集群,能在1.75天內完成GPT-3規模模型(175B)的訓練。
        具體來說,字節提出了一個名為MegaScale的生產系統,旨在解決在萬卡集群上訓練大模型時面臨的效率和穩定性挑戰。
        在12288塊GPU上訓練1750億參數大語言模型時,MegaScale實現了55.2%的算力利用率(MFU),是英偉達Megatron-LM的1.34倍。
        論文還透露,截止2023年9月,字節已建立起超過1萬張卡的Ampere架構GPU(A100/A800)集群,目前正在建設大規模Hopper架構(H100/H800)集群。
        適用于萬卡集群的生產系統大模型時代,GPU的重要性已無需贅述。
        但大模型的訓練,并不是把卡的數量拉滿就能直接開干的——當GPU集群的規模來到“萬”字級別,如何實現高效、穩定的訓練,本身就是一個頗具挑戰的工程問題。
        第一重挑戰:效率。
        訓練大語言模型并非簡單的并行任務,需要在多個GPU之間分布模型,并且這些


        原文鏈接:字節萬卡集群技術細節公開:2天搞定GPT-3訓練,算力利用率超英偉達Megatron-LM

        聯系作者

        文章來源:量子位
        作者微信:QbitAI
        作者簡介:追蹤人工智能新趨勢,關注科技行業新突破

        閱讀原文
        ? 版權聲明
        蟬鏡AI數字人

        相關文章

        蟬鏡AI數字人

        暫無評論

        暫無評論...
        主站蜘蛛池模板: 亚洲精品私拍国产福利在线| 亚洲va中文字幕无码久久不卡| 成人免费毛片内射美女-百度| 国产精品视频免费观看| 毛片免费vip会员在线看| 国产免费观看视频| 国产精品亚洲а∨无码播放| 亚洲美女视频一区| 亚洲一日韩欧美中文字幕在线| 成人精品国产亚洲欧洲| 在线观看肉片AV网站免费 | 爱情岛论坛亚洲品质自拍视频网站| 99久久免费国产精品特黄| 亚洲xxxx18| 午夜影院免费观看| 永久黄网站色视频免费观看| 亚洲尹人九九大色香蕉网站| 免费一区二区无码视频在线播放 | 免费一级毛片在线播放视频| 亚色九九九全国免费视频| 国产亚洲成归v人片在线观看| 97久久精品亚洲中文字幕无码 | 在线观看无码AV网站永久免费| jlzzjlzz亚洲jzjzjz| 特a级免费高清黄色片| 日韩欧毛片免费视频| 亚洲人成自拍网站在线观看| 91制片厂制作传媒免费版樱花| 亚洲一级特黄大片无码毛片| 亚洲精品无码久久久久APP | 亚洲视频精品在线观看| 免费人成在线视频| 亚洲成在人天堂一区二区| 国产黄在线播放免费观看| 成年在线网站免费观看无广告| 美女黄网站人色视频免费| 91在线视频免费播放| 色婷婷综合缴情综免费观看| 亚洲制服中文字幕第一区| 日本最新免费不卡二区在线| 亚洲av永久无码嘿嘿嘿|