AIGC動態歡迎閱讀
原標題:大模型國產化適配3-基于昇騰910使用ChatGLM-6B進行模型訓練
關鍵字:模型,文件,權重,數據,切分
文章來源:算法邦
內容字數:18843字
內容摘要:
直播預告 | 5月28日10點,「智猩猩AI新青年講座」第236講正式開講,密歇根大學安娜堡分校在讀博士生張揮杰將直播講解《利用多級框架和多解碼器架構提高擴散模型訓練效率》,歡迎掃名~隨著 ChatGPT 的現象級走紅,引領了AI大模型時代的變革,從而導致 AI 算力日益緊缺。與此同時,中美貿易戰以及美國對華進行AI芯片相關的制裁導致 AI 算力的國產化適配勢在必行。之前講述了基于昇騰910使用ChatGLM-6B進行模型推理,本文將講述針對ChatGLM-6B大模型在昇騰910加速卡上面進行模型訓練,為了文章具有更好的閱讀體驗,具體代碼放置在GitHub:
https://github.com/liguodongiot/llm-action/tree/main/train/ascend/mindformers/chatglm。
環境搭建
操作系統版本/架構:EulerOS release 2.0 (SP8)/aarch64
NPU:8卡 910 ProB 32G
Python:3.7
NPU 驅動:23.0.rc1,下載
NPU 固件:6.3.0.1.241,下載
CANN 工具
原文鏈接:大模型國產化適配3-基于昇騰910使用ChatGLM-6B進行模型訓練
聯系作者
文章來源:算法邦
作者微信:allplusai
作者簡介:智猩猩矩陣賬號之一,聚焦生成式AI,重點關注模型與應用。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...