小模型也可以「分割一切」,Meta改進SAM,參數(shù)僅為原版5%
AIGC動態(tài)歡迎閱讀
原標題:小模型也可以「分割一切」,Meta改進SAM,參數(shù)僅為原版5%
文章來源:機器之心
內(nèi)容字數(shù):6437字
內(nèi)容摘要:機器之心報道編輯:陳萍、蛋醬對于 2023 年的計算機視覺領(lǐng)域來說,「」(Segment Anything Model)是備受關(guān)注的一項研究進展。Meta四月份發(fā)布的「分割一切模型(SAM)」效果,它能很好地自動分割圖像中的所有內(nèi)容Segment Anything 的關(guān)鍵特征是基于提示的視覺 Transformer(ViT)模型,該模型是在一個包含來自 1100 萬張圖像的超過 10 億個掩碼的視覺數(shù)據(jù)集 SA-1B 上訓(xùn)練的,可以分割給定圖像上的任何目標。這種能力使得 SAM 成為視覺領(lǐng)域的基礎(chǔ)模型,并在超出視覺之外的領(lǐng)域也能產(chǎn)生應(yīng)用價值。盡管有上述優(yōu)點,但由于 SAM 中的 ViT-H 圖像編碼器有 632M 個參數(shù)(基于提示的解碼器只需要 387M 個參數(shù)),因此實際使用 SAM 執(zhí)行任何分割任務(wù)的計算和內(nèi)存成本都很高,這對實時應(yīng)用來說具有挑戰(zhàn)性。后續(xù),研究者們也提出了一些改進策略:…
原文鏈接:點此閱讀原文:小模型也可以「分割一切」,Meta改進SAM,參數(shù)僅為原版5%
聯(lián)系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關(guān)文章
暫無評論...