AIGC動態歡迎閱讀
原標題:ICML 2024|Transformer究竟如何推理?基于樣例還是基于規則
關鍵字:模型,加法,測試,樣本,作者
文章來源:機器之心
內容字數:0字
內容摘要:
AIxiv專欄是機器之心發布學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報道了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或者聯系報道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com文章第一作者為來自北京大學物理學院、即將加入人工智能研究院讀博的胡逸。胡逸的導師為北京大學人工智能研究院助理教授、北京通用人工智能研究院研究員張牧涵,主要研究方向為圖機器學習和大模型的推理和微調。論文地址:https://arxiv.org/abs/2402.17709
項目主頁:https://github.com/GraphPKU/Case_or_Rule
論文標題:Case-Based or Rule-Based: How Do Transformers Do the Math?
Case-based or rule-based?
盡管如 ChatGPT 這樣的大語言模型(Large Language Models, LLMs)已經在各種復雜任務中展現出
原文鏈接:ICML 2024|Transformer究竟如何推理?基于樣例還是基于規則
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...