SAM 2最新應(yīng)用落地!牛津大學(xué)團隊發(fā)布Medical SAM 2,刷新醫(yī)學(xué)圖像分割SOTA榜
AIGC動態(tài)歡迎閱讀
原標題:SAM 2最新應(yīng)用落地!牛津大學(xué)團隊發(fā)布Medical SAM 2,刷新醫(yī)學(xué)圖像分割SOTA榜
關(guān)鍵字:圖像,醫(yī)學(xué),模型,提示,團隊
文章來源:HyperAI超神經(jīng)
內(nèi)容字數(shù):0字
內(nèi)容摘要:
作者:哇塞
編輯:十九,李寶珠
牛津大學(xué)團隊開發(fā)了名為 Medical SAM 2 (MedSAM-2) 的醫(yī)學(xué)圖像分割模型,基于 SAM 2 框架設(shè)計,將醫(yī)學(xué)圖像視作視頻,不僅在 3D 醫(yī)學(xué)圖像分割任務(wù)上表現(xiàn)卓越,同時還解鎖了一種新的單次提示分割的能力。2023 年 4 月,Meta 公司發(fā)布了 Segment Anything Model (SAM),號稱能夠「分割一切」,猶如一顆重磅震蕩了整個計算機視覺領(lǐng)域,甚至被很多人看作是顛覆傳統(tǒng) CV 任務(wù)的研究。
時隔 1 年多,Meta 再度發(fā)布里程碑式更新—— SAM 2 能夠為靜態(tài)圖像和動態(tài)視頻內(nèi)容提供實時、可提示的對象分割,將圖像與視頻分割功能整合到了同一個系統(tǒng)中。可想而知,強大的實力使得業(yè)界開始加速探索 SAM 在不同領(lǐng)域的應(yīng)用,尤其是在醫(yī)學(xué)圖像分割領(lǐng)域,不少實驗室和學(xué)術(shù)研究團隊已經(jīng)將其視為醫(yī)學(xué)圖像分割模型的不二之選。
所謂醫(yī)學(xué)圖像分割,就是將醫(yī)學(xué)圖像中具有特殊含義的部分分割出來,并提取相關(guān)特征,進而為臨床診斷、病理學(xué)研究等提供可靠依據(jù)。
近年來,隨著深度學(xué)習(xí)技術(shù)的不斷進步,基于神經(jīng)網(wǎng)絡(luò)模型的分割已逐漸成為醫(yī)學(xué)圖像分割的主流
原文鏈接:SAM 2最新應(yīng)用落地!牛津大學(xué)團隊發(fā)布Medical SAM 2,刷新醫(yī)學(xué)圖像分割SOTA榜
聯(lián)系作者
文章來源:HyperAI超神經(jīng)
作者微信:
作者簡介: