CVPR 2024 | 字節(jié)提出新一代數(shù)據(jù)集COCONut,比COCO粒度分割更密集
AIGC動態(tài)歡迎閱讀
原標(biāo)題:CVPR 2024 | 字節(jié)提出新一代數(shù)據(jù)集COCONut,比COCO粒度分割更密集
關(guān)鍵字:字節(jié)跳動,數(shù)據(jù),模型,語義,全景
文章來源:機器之心
內(nèi)容字?jǐn)?shù):3726字
內(nèi)容摘要:
AIxiv專欄是機器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機器之心AIxiv專欄接收報道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級實驗室,有效促進了學(xué)術(shù)交流與傳播。如果您有優(yōu)秀的工作想要分享,歡迎投稿或者聯(lián)系報道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com。隨著人工智能的發(fā)展,語言模型和生成模型獲得了大量的成功并且在設(shè)計模型的過程中,模型的參數(shù)量也越來越大。對于細(xì)粒度理解任務(wù),模型參數(shù)量也同樣在增加。然而目前現(xiàn)有的數(shù)據(jù)集存在規(guī)模和精度的矛盾,例如 SA-1B 數(shù)據(jù)集中 99.1% 的 mask 都是機器生成的,但沒有賦予語義的標(biāo)簽,而其他一些公開數(shù)據(jù)集也同樣存在精度問題并且這些數(shù)據(jù)集的規(guī)模一般都比較小。
近期,字節(jié)跳動提出了新一代細(xì)粒度理解的數(shù)據(jù)集,針對當(dāng)代深度學(xué)習(xí)模型的設(shè)計需求,給總量為 383K 的圖片進行了全景分割的人工標(biāo)注,最后達到了 5.18M 張 mask,是至今最大規(guī)模的帶人工標(biāo)簽的全景分割理解數(shù)據(jù)集,命名為 COCONut。該成果已入選 CVPR2024。論文鏈接:https://arxiv.o
原文鏈接:CVPR 2024 | 字節(jié)提出新一代數(shù)據(jù)集COCONut,比COCO粒度分割更密集
聯(lián)系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺