AIGC動態歡迎閱讀
原標題:拯救Transformer推理能力!DeepMind新研究TransNAR:給模型嵌入「算法推理大腦」
關鍵字:算法,模型,架構,任務,問題
文章來源:新智元
內容字數:0字
內容摘要:
新智元報道編輯:喬楊 好困
【新智元導讀】DeepMind最近發表的一篇論文提出用混合架構的方法解決Transformer模型的推理缺陷。將Transformer的NLU技能與基于GNN的神經算法推理器(NAR)的強大算法推理能力相結合,可以實現更加泛化、穩健、準確的LLM推理。如今的NLP領域,已然是Transformer架構的天下。
從Bert到GPT,再到Llama、Claude,LLM模型使用Transformer已經是再正常不過的事情。
Transformer的「大一統」局面正是由于其簡單、高效的架構,以及在理解自然語言方面無與倫比的泛化能力。
然而,隨著研究的逐漸深入,Transformer的一個致命缺陷也逐漸暴露出來——無法勝任算法推理任務,尤其是不能進行精確、穩健的推理。
這嚴重限制了模型在數學、代碼等領域下游任務的應用,近年來對Transformer的各種調優、修改似乎也收效甚微。
于是DeepMind的研究人員想到了混合架構——將Transformers的語言理解能力與基于圖神經網絡(GNN)的神經算法推理器(NAR)的穩健性結合起來,提升其算法推理能力。
他們最
原文鏈接:拯救Transformer推理能力!DeepMind新研究TransNAR:給模型嵌入「算法推理大腦」
聯系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...