AIGC動態歡迎閱讀
原標題:從架構、工藝到能效表現,全面了解LLM硬件加速,這篇綜述就夠了
關鍵字:加速器,性能,模型,架構,內存
文章來源:機器之心
內容字數:0字
內容摘要:
機器之心報道
編輯:陳陳、杜偉大語言模型(LLM)的發展同時往往伴隨著硬件加速技術的進化,本文對使用 FPGA、ASIC 等芯片的模型性能、能效表現來了一次全面概覽。對人類語言進行大規模建模是一個復雜的過程,研究人員花了幾十年的時間才開發出來。這項技術最早可追溯于 1950 年,當時克勞德?香農將信息理論應用于人類語言。從那時起,翻譯和語音識別等任務取得了長足的進步。
在這個過程中,人工智能 (AI) 和機器學習 (ML) 是技術進步的關鍵。ML 作為 AI 的一個子集,其允許計算機從數據中進行學習。一般來說,ML 模型要么是有監督的,要么是無監督的。
在接下來要介紹的這篇論文中《 Hardware Acceleration of LLMs: A comprehensive survey and comparison 》,來自西阿提卡大學的研究者重點介紹了有監督模型。論文地址:https://arxiv.org/pdf/2409.03384
根據論文介紹,深度學習模型分為生成式和判別式。生成式人工智能是深度學習的一個子集,它使用神經網絡來處理標記和未標記的數據。大型語言模型 (LLM)
原文鏈接:從架構、工藝到能效表現,全面了解LLM硬件加速,這篇綜述就夠了
聯系作者
文章來源:機器之心
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章

暫無評論...