標(biāo)簽:矩陣

WPS接入DeepSeek,秒變辦公神器!

WPS 大家經(jīng)常用來(lái)日常寫作,雖然本身提供了AI功能,但可惜需要會(huì)員,本文教你三分鐘接入最火的DeepSeek,讓W(xué)PS秒變辦公神器。 DeepSeek API申請(qǐng)地址:http:/...
閱讀原文

AI賺錢副業(yè)~AI生成影視解說(shuō),半個(gè)月漲粉變現(xiàn)3.5W+!

這兩年大家都在感嘆生活不易,然而我想說(shuō)的是,機(jī)會(huì)還是有的,但問(wèn)題不在于有沒(méi)有,而在于你是否能夠認(rèn)準(zhǔn)機(jī)會(huì),然后抓住它。 接觸過(guò)很多咨詢項(xiàng)目的人,發(fā)現(xiàn)...

突破無(wú)規(guī)則稀疏計(jì)算邊界,編譯框架CROSS數(shù)倍提升模型性能

AIxiv專欄是機(jī)器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過(guò)去數(shù)年,機(jī)器之心AIxiv專欄接收?qǐng)?bào)道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級(jí)實(shí)驗(yàn)室,有效促進(jìn)了學(xué)術(shù)...
閱讀原文

50s完成7B模型量化,4bit達(dá)到新SOTA,大模型低比特量化有新招了 | NeurIPS 2024 Oral

DuQuant團(tuán)隊(duì) 投稿量子位 | 公眾號(hào) QbitAI消除激活值(outliers),大語(yǔ)言模型低比特量化有新招了—— 自動(dòng)化所、清華、港城大團(tuán)隊(duì)最近有一篇論文入選了NeurIPS 20...
閱讀原文

字節(jié)豆包大模型團(tuán)隊(duì)突破殘差連接局限!預(yù)訓(xùn)練收斂最快加速80%

機(jī)器之心發(fā)布 機(jī)器之心編輯部字節(jié)跳動(dòng)豆包大模型團(tuán)隊(duì)于近日提出超連接(Hyper-Connections),一種簡(jiǎn)單有效的殘差連接替代方案。面向殘差連接的主要變體的局...
閱讀原文

清華開源混合精度推理系統(tǒng)MixQ,實(shí)現(xiàn)大模型近無(wú)損量化并提升推理吞吐

PACMAN實(shí)驗(yàn)室投稿量子位 | 公眾號(hào) QbitAI一鍵部署LLM混合精度推理,端到端吞吐比AWQ最大提升6倍! 清華大學(xué)計(jì)算機(jī)系PACMAN實(shí)驗(yàn)室發(fā)布開源混合精度推理系統(tǒng)——M...
閱讀原文

低內(nèi)存占用也能實(shí)現(xiàn)滿血訓(xùn)練?!北理北大港中文MMLab推出Fira訓(xùn)練框架

Fira團(tuán)隊(duì) 投稿量子位 | 公眾號(hào) QbitAI內(nèi)存占用小,訓(xùn)練表現(xiàn)也要好……大模型訓(xùn)練成功實(shí)現(xiàn)二者兼得。 來(lái)自北理、北大和港中文MMLab的研究團(tuán)隊(duì)提出了一種滿足低秩...
閱讀原文

NeurIPS 2024 Oral | 小參數(shù),大作為!揭秘非對(duì)稱 LoRA 架構(gòu)的高效性能

AIxiv專欄是機(jī)器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過(guò)去數(shù)年,機(jī)器之心AIxiv專欄接收?qǐng)?bào)道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級(jí)實(shí)驗(yàn)室,有效促進(jìn)了學(xué)術(shù)...
閱讀原文

英偉達(dá)nGPT重塑Transformer,AI訓(xùn)練速度暴增20倍!文本越長(zhǎng),加速越快

新智元報(bào)道編輯:桃子 LRS 【新智元導(dǎo)讀】LLM訓(xùn)練速度還可以再飆升20倍!英偉達(dá)團(tuán)隊(duì)祭出全新架構(gòu)歸一化Transformer(nGPT),上下文越長(zhǎng),訓(xùn)練速度越快,還能...
閱讀原文

又快又準(zhǔn),即插即用!清華8比特量化Attention,兩倍加速于FlashAttention2,各端到端任務(wù)均不掉點(diǎn)!

AIxiv專欄是機(jī)器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過(guò)去數(shù)年,機(jī)器之心AIxiv專欄接收?qǐng)?bào)道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級(jí)實(shí)驗(yàn)室,有效促進(jìn)了學(xué)術(shù)...
閱讀原文

一行代碼訓(xùn)練成本再降30%,AI大模型混合精度訓(xùn)練再升級(jí)|開源

允中 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAIFP8通過(guò)其獨(dú)特的數(shù)值表示方式,能夠在保持一定精度的同時(shí),在大模型訓(xùn)練中提高訓(xùn)練速度、節(jié)省內(nèi)存占用,最終降低訓(xùn)練...
閱讀原文

Sigmoid注意力一樣強(qiáng),蘋果開始重新審視注意力機(jī)制

機(jī)器之心報(bào)道 機(jī)器之心編輯部注意力是 Transformer 架構(gòu)的關(guān)鍵部分,負(fù)責(zé)將每個(gè)序列元素轉(zhuǎn)換為值的加權(quán)和。將查詢與所有鍵進(jìn)行點(diǎn)積,然后通過(guò) softmax 函數(shù)歸...
閱讀原文

昂貴LLM的救星?Nature新研究提出新型憶阻器,比Haswell CPU高效460倍

機(jī)器之心報(bào)道 編輯:Panda前些天,OpenAI 發(fā)布了 ο1 系列模型,它那「超越博士水平的」強(qiáng)大推理性能預(yù)示著其必將在人們的生產(chǎn)生活中大有作為。但它的使用成本...
閱讀原文

比LoRA更高效!上交大&哈佛推出新微調(diào)框架,瞄準(zhǔn)特定任務(wù)方向

DV lab 投稿量子位 | 公眾號(hào) QbitAI比LoRA更高效的模型微調(diào)方法來(lái)了—— 以常識(shí)推理為例,在參數(shù)量減少8~16倍的情況下,兩種方法能達(dá)到相同效果。 新方法名叫Lo...
閱讀原文

PyTorch官宣:告別CUDA,GPU推理迎來(lái)Triton加速新時(shí)代

新智元報(bào)道編輯:?jiǎn)虠?Frey 【新智元導(dǎo)讀】用英偉達(dá)的GPU,但可以不用CUDA?PyTorch官宣,借助OpenAI開發(fā)的Triton語(yǔ)言編寫內(nèi)核來(lái)加速LLM推理,可以實(shí)現(xiàn)和CUDA...
閱讀原文

用最直觀的動(dòng)畫,講解LLM如何存儲(chǔ)事實(shí),3Blue1Brown的這個(gè)視頻又火了

機(jī)器之心報(bào)道 編輯:Panda W、陳陳本文根據(jù)視頻整理而來(lái),有聽錯(cuò)或理解不當(dāng)之處歡迎在評(píng)論區(qū)指出。向大模型輸入「Michael Jordan plays the sport of _____(...
閱讀原文

多虧Transformer,Mamba更強(qiáng)了!僅用1%計(jì)算量達(dá)新SOTA

明敏 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAIAttention is all you need. 至少在矩陣這兒是。 Mamba架構(gòu)最新進(jìn)展:僅需1%計(jì)算量,新模型性能達(dá)SOTA。 能做到這一...
閱讀原文
1235