標簽:矩陣

CPU反超NPU,llama.cpp生成速度翻5倍!LLM端側部署新范式T-MAC開源

新智元報道編輯:LRST 好困 【新智元導讀】T-MAC是一種創新的基于查找表(LUT)的方法,專為在CPU上高效執行低比特大型語言模型(LLMs)推理而設計,無需權重...
閱讀原文

手機跑大模型提速4-5倍!微軟亞研院開源新技術,有CPU就行

微軟亞洲研究院 投稿量子位 | 公眾號 QbitAI有CPU就能跑大模型,性能甚至超過NPU/GPU! 沒錯,為了優化模型端側部署,微軟亞洲研究院提出了一種新技術——T-MAC...
閱讀原文

僅微調0.02%參數,性能接近全量微調!上交大推出高效微調統一新范式

ChouJay 投稿量子位 | 公眾號 QbitAIScaling Laws當道,但隨著大模型應用的發展,基礎模型不斷擴大的參數也成了令開發者們頭疼的問題。 為了減輕訓練負擔,Ad...
閱讀原文

LLama+Mistral+…+Yi=? 免訓練異構大模型集成學習框架DeePEn來了

AIxiv專欄是機器之心發布學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報道了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術...
閱讀原文

這一次,國產光計算芯片走到了商業化的臨界點|甲子光年

光計算芯片行業的水溫,正在發生變化。作者|八度?? 編輯|王博 “集成光路將是半導體領域60年一遇的‘換道超車’。” 去年底,在2023全球硬科技創新大會上發布的...
閱讀原文

Mamba一作再祭神作,H100利用率飆至75%!FlashAttention三代性能翻倍,比標準注意力快16倍

新智元報道編輯:編輯部 【新智元導讀】時隔一年,FlashAttention又推出了第三代更新,專門針對H100 GPU的新特性進行優化,在之前的基礎上又實現了1.5~2倍的...
閱讀原文

英偉達又賺到了!FlashAttention3來了:H100利用率飆升至75%

機器之心報道 編輯:陳陳、小舟740 TFLOPS!迄今最強 FlashAttention 來了。隨著大型語言模型(LLM)加速落地,擴展模型上下文窗口變得越來越重要。然而,Tra...
閱讀原文

H100利用率飆升至75%!英偉達親自下場FlashAttention三代升級,比標準注意力快16倍

明敏 克雷西 發自 凹非寺量子位 | 公眾號 QbitAI大模型訓練推理神作,又更新了! 主流大模型都在用的FlashAttention,剛剛升級第三代。 時隔一年,FlashAtten...
閱讀原文

Google AI:構建未來智能世界的創新引擎

谷歌作為全球領先的科技公司,在 AI 領域擁有深厚的積累和卓越的創新能力,在谷歌眼里,生成式 AI 帶來了哪些機會?Google AI 是如何在谷歌產品中落地的?Goo...
閱讀原文

MATLAB四十:一場數學的“矩陣”|甲子光年

一家公司如何保持40年的創新力?作者|趙健??? 如果提到MathWorks這家公司,可能很多人都沒聽過。但若提起MATLAB,很多科研、工程領域的從業者,一定對它不陌...
閱讀原文

“技術故障”背刺巴菲特,金融大模型到底靠不靠譜?

金磊 夢晨 發自 凹非寺量子位 | 公眾號 QbitAI一個“技術問題”,導致巴菲特的伯克希爾-哈撒韋公司股價暴跌近100%。 想必很多小伙伴已經感受過了這則鋪天蓋地的...
閱讀原文

SSM 能取代 Transformer 搞出更「牛」的大模型嗎?

機器之心PRO · 會員通訊 Week 23---- 本周為您解讀 ③個值得細品的AI & Robotics業內要事 ---- 1. SSM 能取代 Transformer 搞出更「牛」的大模型嗎? SSM ...
閱讀原文

Mamba-2:超越 Transformer 的新架構,訓練效率大幅提升!

機器之心報道 來源:機器學習算法與Python學習自 2017 年被提出以來,Transformer 已經成為 AI 大模型的主流架構,一直穩居語言建模方面 C 位。 但隨著模型規...
閱讀原文

再戰Transformer!原作者帶隊的Mamba 2來了,新架構訓練效率大幅提升

機器之心報道 機器之心編輯部自 2017 年被提出以來,Transformer 已經成為 AI 大模型的主流架構,一直穩居語言建模方面 C 位。 但隨著模型規模的擴展和需要處...
閱讀原文

新架構Mamba更新二代!作者:別爭了,數學上Transformer和SSM是一回事

夢晨 發自 凹非寺量子位 | 公眾號 QbitAITransformer挑戰者、新架構Mamba,剛剛更新了第二代: Mamba-2,狀態空間擴大8倍,訓練速度提高50%! 更重要的是,團...
閱讀原文