標簽:矩陣

WPS接入DeepSeek,秒變辦公神器!

WPS 大家經常用來日常寫作,雖然本身提供了AI功能,但可惜需要會員,本文教你三分鐘接入最火的DeepSeek,讓WPS秒變辦公神器。 DeepSeek API申請地址:http:/...
閱讀原文

AI賺錢副業~AI生成影視解說,半個月漲粉變現3.5W+!

這兩年大家都在感嘆生活不易,然而我想說的是,機會還是有的,但問題不在于有沒有,而在于你是否能夠認準機會,然后抓住它。 接觸過很多咨詢項目的人,發現...

突破無規則稀疏計算邊界,編譯框架CROSS數倍提升模型性能

AIxiv專欄是機器之心發布學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報道了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術...
閱讀原文

50s完成7B模型量化,4bit達到新SOTA,大模型低比特量化有新招了 | NeurIPS 2024 Oral

DuQuant團隊 投稿量子位 | 公眾號 QbitAI消除激活值(outliers),大語言模型低比特量化有新招了—— 自動化所、清華、港城大團隊最近有一篇論文入選了NeurIPS 20...
閱讀原文

字節豆包大模型團隊突破殘差連接局限!預訓練收斂最快加速80%

機器之心發布 機器之心編輯部字節跳動豆包大模型團隊于近日提出超連接(Hyper-Connections),一種簡單有效的殘差連接替代方案。面向殘差連接的主要變體的局...
閱讀原文

清華開源混合精度推理系統MixQ,實現大模型近無損量化并提升推理吞吐

PACMAN實驗室投稿量子位 | 公眾號 QbitAI一鍵部署LLM混合精度推理,端到端吞吐比AWQ最大提升6倍! 清華大學計算機系PACMAN實驗室發布開源混合精度推理系統——M...
閱讀原文

低內存占用也能實現滿血訓練?!北理北大港中文MMLab推出Fira訓練框架

Fira團隊 投稿量子位 | 公眾號 QbitAI內存占用小,訓練表現也要好……大模型訓練成功實現二者兼得。 來自北理、北大和港中文MMLab的研究團隊提出了一種滿足低秩...
閱讀原文

NeurIPS 2024 Oral | 小參數,大作為!揭秘非對稱 LoRA 架構的高效性能

AIxiv專欄是機器之心發布學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報道了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術...
閱讀原文

英偉達nGPT重塑Transformer,AI訓練速度暴增20倍!文本越長,加速越快

新智元報道編輯:桃子 LRS 【新智元導讀】LLM訓練速度還可以再飆升20倍!英偉達團隊祭出全新架構歸一化Transformer(nGPT),上下文越長,訓練速度越快,還能...
閱讀原文

又快又準,即插即用!清華8比特量化Attention,兩倍加速于FlashAttention2,各端到端任務均不掉點!

AIxiv專欄是機器之心發布學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報道了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術...
閱讀原文

一行代碼訓練成本再降30%,AI大模型混合精度訓練再升級|開源

允中 發自 凹非寺量子位 | 公眾號 QbitAIFP8通過其獨特的數值表示方式,能夠在保持一定精度的同時,在大模型訓練中提高訓練速度、節省內存占用,最終降低訓練...
閱讀原文

Sigmoid注意力一樣強,蘋果開始重新審視注意力機制

機器之心報道 機器之心編輯部注意力是 Transformer 架構的關鍵部分,負責將每個序列元素轉換為值的加權和。將查詢與所有鍵進行點積,然后通過 softmax 函數歸...
閱讀原文

昂貴LLM的救星?Nature新研究提出新型憶阻器,比Haswell CPU高效460倍

機器之心報道 編輯:Panda前些天,OpenAI 發布了 ο1 系列模型,它那「超越博士水平的」強大推理性能預示著其必將在人們的生產生活中大有作為。但它的使用成本...
閱讀原文

比LoRA更高效!上交大&哈佛推出新微調框架,瞄準特定任務方向

DV lab 投稿量子位 | 公眾號 QbitAI比LoRA更高效的模型微調方法來了—— 以常識推理為例,在參數量減少8~16倍的情況下,兩種方法能達到相同效果。 新方法名叫Lo...
閱讀原文

PyTorch官宣:告別CUDA,GPU推理迎來Triton加速新時代

新智元報道編輯:喬楊 Frey 【新智元導讀】用英偉達的GPU,但可以不用CUDA?PyTorch官宣,借助OpenAI開發的Triton語言編寫內核來加速LLM推理,可以實現和CUDA...
閱讀原文

用最直觀的動畫,講解LLM如何存儲事實,3Blue1Brown的這個視頻又火了

機器之心報道 編輯:Panda W、陳陳本文根據視頻整理而來,有聽錯或理解不當之處歡迎在評論區指出。向大模型輸入「Michael Jordan plays the sport of _____(...
閱讀原文

多虧Transformer,Mamba更強了!僅用1%計算量達新SOTA

明敏 發自 凹非寺量子位 | 公眾號 QbitAIAttention is all you need. 至少在矩陣這兒是。 Mamba架構最新進展:僅需1%計算量,新模型性能達SOTA。 能做到這一...
閱讀原文
1235