AIGC動態歡迎閱讀
原標題:小模型也可以「分割一切」,Meta改進SAM,參數僅為原版5%
文章來源:機器之心
內容字數:6437字
內容摘要:機器之心報道編輯:陳萍、蛋醬對于 2023 年的計算機視覺領域來說,「」(Segment Anything Model)是備受關注的一項研究進展。Meta四月份發布的「分割一切模型(SAM)」效果,它能很好地自動分割圖像中的所有內容Segment Anything 的關鍵特征是基于提示的視覺 Transformer(ViT)模型,該模型是在一個包含來自 1100 萬張圖像的超過 10 億個掩碼的視覺數據集 SA-1B 上訓練的,可以分割給定圖像上的任何目標。這種能力使得 SAM 成為視覺領域的基礎模型,并在超出視覺之外的領域也能產生應用價值。盡管有上述優點,但由于 SAM 中的 ViT-H 圖像編碼器有 632M 個參數(基于提示的解碼器只需要 387M 個參數),因此實際使用 SAM 執行任何分割任務的計算和內存成本都很高,這對實時應用來說具有挑戰性。后續,研究者們也提出了一些改進策略:…
原文鏈接:點此閱讀原文:小模型也可以「分割一切」,Meta改進SAM,參數僅為原版5%
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...