標簽:卷積
Hyena成下一代Transformer?StripedHyena-7B開源:最高128k輸入,訓練速度提升50%
新智元報道編輯:LRS 【新智元導讀】Hyena處理長序列輸入比FlashAttention速度高100倍!最新發布的StripedHyena模型可能成下一代AI架構的新標準?最近幾年發...
 「花果山名場面」有了高清畫質版,NTU提出視頻超分框架Upscale-A-Video
機器之心報道 機器之心編輯部擴散模型在圖像生成方面取得了顯著的成功,但由于對輸出保真度和時間一致性的高要求,將這些模型應用于視頻超分辨率仍然具有挑戰...
 大模型被偷家!騰訊港中文新研究修正認知:CNN搞多模態不弱于Transfromer
騰訊&港中文團隊 投稿量子位 | 公眾號 QbitAI在Transformer占據多模態工具半壁江山的時代,大核CNN又“殺了回來”,成為了一匹新的黑馬。 騰訊AI實驗室與港...
 計算需求降為1%! 清華大學首次提出「二值化光譜重建算法」,代碼全開源|NeurIPS 2023
新智元報道編輯:LRS【新智元導讀】相比全精度CNN,清華大學提出的二值化光譜重分布網絡BiSRNet只需0.06%的存儲空間和1%的計算代價,性能幾乎持平。相比于常...
 顛覆Transformer霸權!CMU普林斯頓推Mamba新架構,解決致命bug推理速度暴增5倍
新智元報道編輯:編輯部【新智元導讀】誕生6周年的Transformer,霸主之位終于要被顛覆了?CMU、普林斯頓研究者發布的Mamba,解決了Transformer核心注意力層無...
 手機上0.2秒出圖、當前速度之最,谷歌打造超快擴散模型MobileDiffusion
機器之心專欄機器之心編輯部在手機等移動端側運行 Stable Diffusion 等文生圖生成式 AI 大模型已經成為業界追逐的熱點之一,其中生成速度是主要的制約因素。...
 首個全面開源的千億模型來了!源2.0全家桶擊破算力限制,代碼數學強到發指
新智元報道編輯:編輯部【新智元導讀】昨天,浪潮信息發布源2.0基礎大模型,并一口氣開源了1026億、518億、21億三個大模型!而在編程、推理、邏輯這些老大難...
 比Transformer更好,無Attention、MLPs的BERT、GPT反而更強了
機器之心報道編輯:杜偉、澤南本文探索了 Monarch Mixer (M2) ,這是一種在序列長度和模型維度上都是次二次的新架構,并且在現代加速器上具有很高的硬件效率...
 卷積網絡又行了?DeepMindTransformer最強傳說,LeCun怒贊
新智元報道編輯:編輯部【新智元導讀】DeepMind最新研究發現,只要模型設計上沒有缺陷,決定模型性能的核心可能是訓練計算量和數據。在相同計算量下,卷積神...
 LeCun和xAI聯創對嗆,GPT-4重大推理缺陷無解?網友:人類也是「隨機鸚鵡」
新智元報道編輯:潤【新智元導讀】LeCun和學界的其他研究人員再次炮轟LLM的推理能力,然后激起了眾多網友討論。作為xAI聯創Christian Szegedy博士不經意透露...
 輕量級持續學習: 0.6%額外參數把舊模型重編程到新任務
機器之心專欄機器之心編輯部持續學習的目的是模仿人類在連續任務中持續積累知識的能力,其主要挑戰是在持續學習新任務后如何保持對以前所學任務的表現,即避...
 AI 模擬《漫長的季節》角色唱歌
大數據文摘受權轉載自陳東澤最近,自研了一個 AI 模型叫 TalkSVS,能根據人們說話的聲音,去模擬其唱歌。舉個例子,電視劇《漫長的季節》,臺詞白話。這個模...
 七次 CV 奪冠背后:顏水成與他的學生們
一波深度學習浪潮、七次世界冠軍、兩次轉場與追隨......作者 | 李梅 郭思編輯| 岑峰他們不僅乘上了 AI 的浪潮,更創造了浪潮本身。1冠軍團隊的誕生2007 年,...
  
  
  
  
  粵公網安備 44011502001135號
 粵公網安備 44011502001135號