AIGC動態歡迎閱讀
內容摘要:
當前端側推理的起點,未來端側推理的支點。作者|趙健
大模型火了之后,GPU也火了。一時間,GPU的持有量幾乎成為了評估大模型成敗的“度量衡”。
GPU很好,但不是大模型的全部。遠比GPU誕生更早的處理器芯片——CPU,它在大模型中的地位可能被遠遠低估了。
尤其是在端側大模型興起之后,端側推理越來越成為CPU的舞臺。
過去大半年,端側推理已經成為繼“百模大戰”之后下一個行業趨勢,由此衍生的AI PC、AI手機等概念,也成為電腦廠商、手機廠商的兵家必爭之地。
把大模型裝在PC、手機或者其他硬件中,需要足夠的算力來支撐,同時也需要兼顧效率和功耗。而CPU很可能是當前階段端側推理的算力最優解。1.端側大模型火了
今天,如果你想體驗業內最領先的大模型對話助手,無論是OpenAI的ChatGPT,還是國內的Kimi、智譜清言等,都必須要聯網。這些大模型都部署在云端,適合編排涉及高級推理、數據分析和上下文理解的復雜任務的應用程序。
但是,云端模型不僅要消耗巨大的算力成本,還需要用戶上傳數據。出于對成本、數據隱私安全等方面的考量,把大模型部署在端側,已成為大勢所趨。
在大模型落地端側的需求下,我們
聯系作者
文章來源:甲子光年
作者微信:jazzyear
作者簡介:甲子光年是一家科技智庫,包含智庫、社群、企業服務版塊,立足中國科技創新前沿陣地,動態跟蹤頭部科技企業發展和傳統產業技術升級案例,推動人工智能、大數據、物聯網、云計算、新能源、新材料、信息安全、大健康等科技創新在產業中的應用與落地。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...