標(biāo)簽:卷積

Hyena成下一代Transformer?StripedHyena-7B開(kāi)源:最高128k輸入,訓(xùn)練速度提升50%

新智元報(bào)道編輯:LRS 【新智元導(dǎo)讀】Hyena處理長(zhǎng)序列輸入比FlashAttention速度高100倍!最新發(fā)布的StripedHyena模型可能成下一代AI架構(gòu)的新標(biāo)準(zhǔn)?最近幾年發(fā)...
閱讀原文

「花果山名場(chǎng)面」有了高清畫(huà)質(zhì)版,NTU提出視頻超分框架Upscale-A-Video

機(jī)器之心報(bào)道 機(jī)器之心編輯部擴(kuò)散模型在圖像生成方面取得了顯著的成功,但由于對(duì)輸出保真度和時(shí)間一致性的高要求,將這些模型應(yīng)用于視頻超分辨率仍然具有挑戰(zhàn)...
閱讀原文

大模型被偷家!騰訊港中文新研究修正認(rèn)知:CNN搞多模態(tài)不弱于Transfromer

騰訊&港中文團(tuán)隊(duì) 投稿量子位 | 公眾號(hào) QbitAI在Transformer占據(jù)多模態(tài)工具半壁江山的時(shí)代,大核CNN又“殺了回來(lái)”,成為了一匹新的黑馬。 騰訊AI實(shí)驗(yàn)室與港...
閱讀原文

計(jì)算需求降為1%! 清華大學(xué)首次提出「二值化光譜重建算法」,代碼全開(kāi)源|NeurIPS 2023

新智元報(bào)道編輯:LRS【新智元導(dǎo)讀】相比全精度CNN,清華大學(xué)提出的二值化光譜重分布網(wǎng)絡(luò)BiSRNet只需0.06%的存儲(chǔ)空間和1%的計(jì)算代價(jià),性能幾乎持平。相比于常...
閱讀原文

顛覆Transformer霸權(quán)!CMU普林斯頓推Mamba新架構(gòu),解決致命bug推理速度暴增5倍

新智元報(bào)道編輯:編輯部【新智元導(dǎo)讀】誕生6周年的Transformer,霸主之位終于要被顛覆了?CMU、普林斯頓研究者發(fā)布的Mamba,解決了Transformer核心注意力層無(wú)...
閱讀原文

手機(jī)上0.2秒出圖、當(dāng)前速度之最,谷歌打造超快擴(kuò)散模型MobileDiffusion

機(jī)器之心專(zhuān)欄機(jī)器之心編輯部在手機(jī)等移動(dòng)端側(cè)運(yùn)行 Stable Diffusion 等文生圖生成式 AI 大模型已經(jīng)成為業(yè)界追逐的熱點(diǎn)之一,其中生成速度是主要的制約因素。...
閱讀原文

首個(gè)全面開(kāi)源的千億模型來(lái)了!源2.0全家桶擊破算力限制,代碼數(shù)學(xué)強(qiáng)到發(fā)指

新智元報(bào)道編輯:編輯部【新智元導(dǎo)讀】昨天,浪潮信息發(fā)布源2.0基礎(chǔ)大模型,并一口氣開(kāi)源了1026億、518億、21億三個(gè)大模型!而在編程、推理、邏輯這些老大難...
閱讀原文

比Transformer更好,無(wú)Attention、MLPs的BERT、GPT反而更強(qiáng)了

機(jī)器之心報(bào)道編輯:杜偉、澤南本文探索了 Monarch Mixer (M2) ,這是一種在序列長(zhǎng)度和模型維度上都是次二次的新架構(gòu),并且在現(xiàn)代加速器上具有很高的硬件效率...
閱讀原文

卷積網(wǎng)絡(luò)又行了?DeepMindTransformer最強(qiáng)傳說(shuō),LeCun怒贊

新智元報(bào)道編輯:編輯部【新智元導(dǎo)讀】DeepMind最新研究發(fā)現(xiàn),只要模型設(shè)計(jì)上沒(méi)有缺陷,決定模型性能的核心可能是訓(xùn)練計(jì)算量和數(shù)據(jù)。在相同計(jì)算量下,卷積神...
閱讀原文

LeCun和xAI聯(lián)創(chuàng)對(duì)嗆,GPT-4重大推理缺陷無(wú)解?網(wǎng)友:人類(lèi)也是「隨機(jī)鸚鵡」

新智元報(bào)道編輯:潤(rùn)【新智元導(dǎo)讀】LeCun和學(xué)界的其他研究人員再次炮轟LLM的推理能力,然后激起了眾多網(wǎng)友討論。作為xAI聯(lián)創(chuàng)Christian Szegedy博士不經(jīng)意透露...
閱讀原文

輕量級(jí)持續(xù)學(xué)習(xí): 0.6%額外參數(shù)把舊模型重編程到新任務(wù)

機(jī)器之心專(zhuān)欄機(jī)器之心編輯部持續(xù)學(xué)習(xí)的目的是模仿人類(lèi)在連續(xù)任務(wù)中持續(xù)積累知識(shí)的能力,其主要挑戰(zhàn)是在持續(xù)學(xué)習(xí)新任務(wù)后如何保持對(duì)以前所學(xué)任務(wù)的表現(xiàn),即避...
閱讀原文

AI 模擬《漫長(zhǎng)的季節(jié)》角色唱歌

大數(shù)據(jù)文摘受權(quán)轉(zhuǎn)載自陳東澤最近,自研了一個(gè) AI 模型叫 TalkSVS,能根據(jù)人們說(shuō)話(huà)的聲音,去模擬其唱歌。舉個(gè)例子,電視劇《漫長(zhǎng)的季節(jié)》,臺(tái)詞白話(huà)。這個(gè)模...
閱讀原文

七次 CV 奪冠背后:顏水成與他的學(xué)生們

一波深度學(xué)習(xí)浪潮、七次世界冠軍、兩次轉(zhuǎn)場(chǎng)與追隨......作者 | 李梅 郭思編輯| 岑峰他們不僅乘上了 AI 的浪潮,更創(chuàng)造了浪潮本身。1冠軍團(tuán)隊(duì)的誕生2007 年,...
閱讀原文
123