AIGC動態歡迎閱讀
原標題:原作者帶隊,LSTM卷土重來之Vision-LSTM出世
關鍵字:序列,模型,性能,視覺,補丁
文章來源:機器之心
內容字數:0字
內容摘要:
機器之心報道
編輯:鴨梨、蛋醬與 DeiT 等使用 ViT 和 Vision-Mamba (Vim) 方法的模型相比,ViL 的性能更勝一籌。
AI 領域的研究者應該還記得,在 Transformer 誕生后的三年,谷歌將這一自然語言處理屆的重要研究擴展到了視覺領域,也就是 Vision Transformer。后來,ViT 被廣泛用作計算機視覺中的通用骨干。
這種跨界,對于前不久發布的 xLSTM 來說同樣可以實現。最近,享譽數十年的 LSTM 被擴展到一個可擴展且性能良好的架構 ——xLSTM,通過指數門控和可并行化的矩陣內存結構克服了長期存在的 LSTM 限制。現在,這一成果已經擴展到視覺領域。xLSTM和Vision-LSTM 兩項研究均由 LSTM 原作者帶隊,也就是LSTM 的提出者和奠基者Sepp Hochreiter。
在最近的這篇論文中,Sepp Hochreiter 等人推出了 Vision-LSTM(ViL)。ViL 包含一堆 xLSTM 塊,其中奇數塊從上到下、偶數塊則從下到上處理補丁 token 序列。論文題目:Vision-LSTM: xLSTM as Ge
原文鏈接:原作者帶隊,LSTM卷土重來之Vision-LSTM出世
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...