標簽:矩陣
今日arXiv最熱NLP大模型論文:中科院發(fā)布!針對初學者的大語言模型綜述
夕小瑤科技說 原創(chuàng)作者 | 謝年年、Python大語言模型,作為自然語言處理領域火熱的方向,如今已經真正“破圈”成為了科技界的明星。特別是其中的佼佼者——ChatGPT...
今日arXiv最熱NLP大模型論文:做到頭了!清華和哈工大把大模型量化做到了1比特
夕小瑤科技說 原創(chuàng)作者 | 謝年年在追求更高效的機器學習模型部署時,模型量化技術應運而生,它通過降低權重矩陣的位寬來顯著減少大型語言模型的存儲和計算需...
單GPU就能壓縮模型,性能不變參數少25%!微軟提出模型稀疏化新方法
新智元報道編輯:拉燕 【新智元導讀】大語言模型之大,成本之高,讓模型的稀疏化變得至關重要。眾所周知,對于大語言模型來說,規(guī)模越大,所需的算力越大,自...
我們還需要Transformer中的注意力嗎?
選自interconnects 作者:Nathan Lambert 機器之心編譯 機器之心編輯部狀態(tài)空間模型正在興起,注意力是否已到盡頭?最近幾周,AI 社區(qū)有一個熱門話題:用無注...
今日arXiv最熱NLP大模型論文:微軟提出SliceGPT,刪除25%模型參數,性能幾乎無損
夕小瑤科技說 原創(chuàng)作者 | 松果、Python引言:探索大型語言模型的高效壓縮方法隨著大型語言模型(LLMs)在自然語言處理領域的廣泛應用,它們對計算和內存資源...
量子計算背后的力量:矩陣分解的深層影響
在現(xiàn)代科學的眾多領域中,矩陣分解作為一種數學工具,其重要性不容小覷。特別是在物理學和計算科學中,矩陣分解不僅為理解復雜系統(tǒng)提供了關鍵的理論支撐,也...
大模型也能切片,微軟SliceGPT讓LLAMA-2計算效率大增
機器之心報道 編輯:張倩、佳琪刪除權重矩陣的一些行和列,讓 LLAMA-2 70B 的參數量減少 25%,模型還能保持 99% 的零樣本任務性能,同時計算效率大大提升。這...
Nature Physics評論:復雜系統(tǒng)的內在簡單性
導語復雜系統(tǒng)是高維非線性的動力系統(tǒng),其組成成分之間存在異質相互作用。為了對復雜系統(tǒng)的大規(guī)模行為做出可解釋的預測,通常假定這些動力學可以簡化為幾個方...
超過ConvNeXt,CSWin等!上海交大提出Transformer架構新SOTA:SeTformer!
直播預告 | 1月22日晚7點,「自動駕駛新青年講座」第35講正式開講,LMDrive一作、香港中文大學MMLab在讀博士邵昊將主講《LMDrive:大語言模型加持的閉環(huán)端到...
比A100性價比更高!FlightLLM讓大模型推理不再為性能和成本同時發(fā)愁
機器之心專欄 機器之心編輯部大語言模型在端側的規(guī)模化應用對計算性能、能效比需求的“提拽式”牽引,在算法與芯片之間,撕開了一道充分的推理競爭場。 面對想...
無需額外訓練提升模型30%性能!DeepMind科學家點贊MIT博士生實習成果
豐色 發(fā)自 凹非寺量子位 | 公眾號 QbitAI一個來自MIT博士生的驚人發(fā)現(xiàn): 只需對Transformer的特定層進行一種非常簡單的修剪,即可在縮小模型規(guī)模的同時顯著提...
文心4.0加持、0代碼開發(fā),自帶流量的智能體平臺來了!
新智元報道編輯:編輯部 【新智元導讀】中國版的GPTs來了!百度「靈境矩陣」平臺全新升級為「智能體平臺」,開發(fā)成本大大降低,還能坐擁國內最完整的智能體生...
給Transformer降降秩,移除特定層90%以上組件LLM性能不減
機器之心報道 編輯:陳萍、杜偉MIT、微軟聯(lián)合研究:不需要額外訓練,也能增強大語言模型的任務性能并降低其大小。在大模型時代,Transformer 憑一己之力撐起...
聊一聊AI三大核心問題:AI人才、AI產品、AI商業(yè)
夕小瑤科技說 分享來源 | 百度靈境矩陣 在生成式AI席卷全球的2023年,大模型在創(chuàng)造新變革的同時也給行業(yè)帶來新的疑問。 當Agent、人形機器人等概念層出不窮,...
吞吐量提升近30倍!田淵棟團隊最新論文解決大模型部署難題
新智元報道編輯:alan【新智元導讀】大語言模型在實際部署中,存在內存和輸入長度限制的問題。最近,田淵棟團隊一舉解決這兩大難題,將推理系統(tǒng)的吞吐量提高...