標簽:矩陣
Mamba-2新架構出世一統江湖!普林斯頓CMU華人再出神作,性能狂飆8倍
新智元報道編輯:編輯部 【新智元導讀】在開源社區引起「海嘯」的Mamba架構,再次卷土重來!這次,Mamba-2順利拿下ICML。通過統一SSM和注意力機制,Transform...
ICML2024高分!魔改注意力,讓小模型能打兩倍大的模型
彩云科技團隊 投稿量子位 | 公眾號 QbitAI改進Transformer核心機制注意力,讓小模型能打兩倍大的模型! ICML 2024高分論文,彩云科技團隊構建DCFormer框架,...
今日arXiv最熱大模型論文:LoRA又有新用途,學得少忘得也少,成持續學習關鍵!
夕小瑤科技說 原創作者 | Axe_越自大模型(LLM)誕生以來,苦于其高成本高消耗的訓練模式,學界和業界也在努力探索更為高效的參數微調方法。其中Low-Rank Ada...
250行代碼從頭搭建Llama 3,GitHub一天4.6k星!Karpathy大贊
新智元報道編輯:喬楊 好困 【新智元導讀】Llama 3發布一個月后,一位開發者在GitHub上創建了名為「從頭開始實現Llama 3」的項目,引起了開源社區的廣泛關注...
從零復現Llama3代碼庫爆火,大神Kapathy一鍵三連,GitHub狂攬2k+
西風 發自 凹非寺量子位 | 公眾號 QbitAI讓大神Andrej Karpathy一鍵三連??(點贊+轉發+評論),一個教你從頭開始實現Llama3的代碼庫爆火。 X上轉贊收藏量超6....
LoRA數學編程任務不敵全量微調 | 哥大&Databricks新研究
克雷西 發自 凹非寺量子位 | 公眾號 QbitAI大數據巨頭Databricks與哥倫比亞大學最新研究發現,在數學和編程任務上,LoRA干不過全量微調。 具體來說,在這兩種...
Karpathy稱贊,從零實現LLaMa3項目爆火,半天1.5k star
機器之心報道 編輯:杜偉、陳萍項目中代碼很多很全,值得細讀。一個月前,Meta 發布了開源大模型 llama3 系列,在多個關鍵基準測試中優于業界 SOTA 模型,并...
沉浸式線性代數教材,不懂哪里點哪里,網友:天花板級別
克雷西 發自 凹非寺量子位 | 公眾號 QbitAI線性代數太抽象學不懂?沒關系,三名來自瑞典的學者,為我們帶來了沉浸式的教程。 從向量到矩陣、從概念到運算,幾...
從零開始手搓GPU,照著英偉達CUDA來,只用兩個星期
機器之心報道 編輯:澤南、小舟從學習芯片的基礎知識開始。「我花兩周時間零經驗從頭開始構建 GPU,這可比想象的要難多了。」總有人說老黃的芯片供不應求,大...
極長序列、極快速度:面向新一代高效大語言模型的LASP序列并行
AIxiv專欄是機器之心發布學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報道了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術...
芯片戰爭早已打響!谷歌15個月打造首個TPU,欲和老黃平起平坐
新智元報道編輯:alan 【新智元導讀】在英偉達統治AI時代硬件的當下,谷歌的TPU卻開辟了另一條道路。今天,小編帶你了解第一塊TPU的前世今生,同時揭開TPU架...
拿CPU搞AI推理,誰給你的底氣?
金磊 夢晨 發自 凹非寺量子位 | 公眾號 QbitAI大模型的訓練階段我們選擇GPU,但到了推理階段,我們果斷把CPU加到了菜單上。 量子位在近期與眾多行業人士交流...
清華姚班本科生兩作,十年來最大改進:矩陣乘法接近理論最優
選自QuantaMagazine 機器之心編譯 作者:Steve Nadis 編輯:杜偉、大盤雞通過消除「隱藏的低效」問題,計算機科學家提出了一種比以往更快的大型矩陣相乘新方...
清華、哈工大把大模型壓縮到了1bit,把大模型放在手機里跑的愿望就快要實現了!
機器之心專欄 機器之心編輯部近期,清華大學和哈爾濱工業大學聯合發布了一篇論文:把大模型壓縮到 1.0073 個比特時,仍然能使其保持約 83% 的性能!自從大模...