AIGC動態歡迎閱讀
原標題:剛剛,Meta開源「分割一切」2.0模型,視頻也能分割了
關鍵字:視頻,對象,模型,圖像,數據
文章來源:機器之心
內容字數:0字
內容摘要:
機器之心報道
機器之心編輯部還記得 Meta 的「分割一切模型」嗎?這個模型在去年 4 月發布,被很多人認為是顛覆傳統 CV 任務的研究。
時隔一年多,剛剛,Meta 在 SIGGRAPH 上重磅宣布 Segment Anything Model 2 (SAM 2) 來了。在其前身的基礎上,SAM 2 的誕生代表了領域內的一次重大進步 —— 為靜態圖像和動態視頻內容提供實時、可提示的對象分割,將圖像和視頻分割功能統一到一個強大的系統中。SAM 2 可以分割任何視頻或圖像中的任何對象 —— 甚至是它以前沒有見過的對象和視覺域,從而支持各種不同的用例,而無需自定義適配。
在與黃仁勛的對話中,扎克伯格提到了 SAM 2:「能夠在視頻中做到這一點,而且是在零樣本的前提下,告訴它你想要什么,這非???。」Meta 多次強調了最新模型 SAM 2 是首個用于實時、可提示的圖像和視頻對象分割的統一模型,它使視頻分割體驗發生了重大變化,并可在圖像和視頻應用程序中無縫使用。SAM 2 在圖像分割準確率方面超越了之前的功能,并且實現了比現有工作更好的視頻分割性能,同時所需的交互時間為原來的 1/3。
該模型
原文鏈接:剛剛,Meta開源「分割一切」2.0模型,視頻也能分割了
聯系作者
文章來源:機器之心
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...