AIGC動態歡迎閱讀
原標題:僅用250美元,Hugging Face技術主管手把手教你微調Llama 3
關鍵字:模型,數據,內存,作者,樣本
文章來源:機器之心
內容字數:17202字
內容摘要:
機器之心報道
編輯:趙陽大語言模型的微調一直是說起來容易做起來難的事兒。近日 Hugging Face 技術主管 Philipp Schmid 發表了一篇博客,詳細講解了如何利用 Hugging Face 上的庫和 fsdp 以及 Q-Lora 對大模型進行微調。我們知道,Meta 推出的 Llama 3、Mistral AI 推出的 Mistral 和 Mixtral 模型以及 AI21 實驗室推出的 Jamba 等開源大語言模型已經成為 OpenAI 的競爭對手。
不過,大多數情況下,使用者需要根據自己的數據對這些開源模型進行微調,才能充分釋放模型的潛力。
雖然在單個 GPU 上使用 Q-Lora 對較小的大語言模型(如 Mistral)進行微調不是難事,但對像 Llama 3 70b 或 Mixtral 這樣的大模型的高效微調直到現在仍是一個難題。
因此,Hugging Face 技術主管 Philipp Schmid 介紹了如何使用 PyTorch FSDP 和 Q-Lora,并在 Hugging Face 的 TRL、Transformers、peft 和 datasets
原文鏈接:僅用250美元,Hugging Face技術主管手把手教你微調Llama 3
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章

暫無評論...