無需訓(xùn)練即可大幅提升SAM 2!開源的SAM2Long來了,港中文、上海AI Lab出品
AIGC動態(tài)歡迎閱讀
原標(biāo)題:無需訓(xùn)練即可大幅提升SAM 2!開源的SAM2Long來了,港中文、上海AI Lab出品
關(guān)鍵字:遮擋,內(nèi)存,模型,視頻,分數(shù)
文章來源:機器之心
內(nèi)容字數(shù):0字
內(nèi)容摘要:
AIxiv專欄是機器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機器之心AIxiv專欄接收報道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級實驗室,有效促進了學(xué)術(shù)交流與傳播。如果您有優(yōu)秀的工作想要分享,歡迎投稿或者聯(lián)系報道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.comSegment Anything Model 2(SAM 2)在傳統(tǒng)視頻目標(biāo)分割任務(wù)大放異彩,引起了眾多關(guān)注。然而,港中文和上海 AI Lab 的研究團隊發(fā)現(xiàn) SAM 2 的貪婪選擇策略容易陷入「錯誤累積」的問題,即一次錯誤的分割掩碼選擇將影響后續(xù)幀的分割結(jié)果,導(dǎo)致整個視頻分割性能的下降。這個問題在長視頻分割任務(wù)中顯得更加嚴重。
針對這些挑戰(zhàn),該研究團隊近日推出了全新的 SAM2Long。在 Segment Anything Model 2(SAM 2)的基礎(chǔ)上,提出了創(chuàng)新的記憶結(jié)構(gòu)設(shè)計,打造了專為復(fù)雜長視頻的分割模型。論文鏈接:https://mark12ding.github.io/project/SAM2Long/asset/images/paper.p
原文鏈接:無需訓(xùn)練即可大幅提升SAM 2!開源的SAM2Long來了,港中文、上海AI Lab出品
聯(lián)系作者
文章來源:機器之心
作者微信:
作者簡介: