AIGC動態歡迎閱讀
原標題:NeurIPS 2024 | 大模型的詞表大小,同樣適用于Scaling Law
關鍵字:詞表,大小,模型,參數,報告
文章來源:機器之心
內容字數:0字
內容摘要:
AIxiv專欄是機器之心發布學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報道了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或者聯系報道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com第一作者陶超凡(Chaofan Tao)是香港大學(HKU)的四年級博士生,導師是黃毅教授和羅平教授。他本科畢業于電子科技大學的英才榮譽學院。他的研究論文發表在ACL、EMNLP、ECCV、NeurIPS、ICML、T-NNLS等期刊和會議上。他獲得了 ACL 2022 年的杰出論文獎。陶超凡的研究興趣包括:1) 高效機器學習與模型加速:以低成本對模型進行高效調優和部署。2) 支持多種任務的通用大型模型,涵蓋不同模態。
本文是一篇發表在 NeurIPS 2024 上的論文,單位是香港大學、Sea AI Lab、Contextual AI 和俄亥俄州立大學。論文主要探討了大型語言模型(LLMs)的詞表大小對模型性能的影響。論文:https://arxiv.org
原文鏈接:NeurIPS 2024 | 大模型的詞表大小,同樣適用于Scaling Law
聯系作者
文章來源:機器之心
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...