醫(yī)學(xué)通用分割模型來了!一口氣分割200多個解剖類別,發(fā)布即開源 | 智源出品
AIGC動態(tài)歡迎閱讀
原標題:醫(yī)學(xué)通用分割模型來了!一口氣分割200多個解剖類別,發(fā)布即開源 | 智源出品
關(guān)鍵字:模型,數(shù)據(jù),研究人員,類別,腫瘤
文章來源:量子位
內(nèi)容字數(shù):6129字
內(nèi)容摘要:
智源杜雨新 投稿 凹非寺量子位 | 公眾號 QbitAI醫(yī)學(xué)領(lǐng)域的通用分割模型來啦,發(fā)布即開源!
來自智源,模型名為SegVol,劃重點:
是第一次實現(xiàn)同時支持框(box)、點(point)和文本(text)prompt進行任意尺寸原分辨率的3D體素分割。
要知道,此前深度學(xué)習在醫(yī)學(xué)圖像分割方面已經(jīng)取得了顯著進展,但仍然缺乏一種能夠通用分割各種解剖類別、易于用戶交互的基礎(chǔ)分割模型。
而SegVol正是一種通用的交互式醫(yī)學(xué)體素圖像分割模型,能夠?qū)?00多個解剖類別進行分割。
在實驗測試中,SegVol在多個benchmark中表現(xiàn)出色。特別在三個具有挑戰(zhàn)性的病變數(shù)據(jù)集上,SegVol比nnU-Net的Dice得分高20%左右。
目前,SegVol的代碼和權(quán)重已經(jīng)在GitHub上公開。開源的模型權(quán)重文件包括:
使用96k CTs預(yù)訓(xùn)練2,000 epochs的ViT模型;
在預(yù)訓(xùn)練基礎(chǔ)上,使用6k Masked CTs在A100上訓(xùn)練30??21??8個GPU小時得到的SegVol。
更多細節(jié),我們接著往下看。
一口氣分割200多個解剖類別SegVol模型架構(gòu)分為4個模塊:圖像編碼器、文本
原文鏈接:醫(yī)學(xué)通用分割模型來了!一口氣分割200多個解剖類別,發(fā)布即開源 | 智源出品
聯(lián)系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關(guān)注科技行業(yè)新突破