AIGC動態歡迎閱讀
原標題:7.7億參數,超越5400億PaLM!UW谷歌提出「分步蒸餾」,只需80%訓練數據|ACL 2023
文章來源:新智元
內容字數:8433字
內容摘要:新智元報道編輯:LRS【新智元導讀】LLM不實用,小模型蒸餾才是「現實」的大模型應用路線,全面領先微調技術!土豪請無視。。。大型語言模型雖然性能優異,可以用零樣本或少樣本提示解決新任務,但LLM在實際應用部署時卻很不實用,內存利用效率低,并且需要大量計算資源。比如運行一個1750億參數的語言模型服務至少需要350GB的顯存,而目前最先進的語言模型大多已超過5000億參數量,很多研究團隊都沒有足夠的…
原文鏈接:點此閱讀原文:7.7億參數,超越5400億PaLM!UW谷歌提出「分步蒸餾」,只需80%訓練數據|ACL 2023
聯系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...