低成本算法,大幅提升視覺(jué)分類魯棒性!悉尼大學(xué)華人團(tuán)隊(duì)發(fā)布全新EdgeNet方法
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:低成本算法,大幅提升視覺(jué)分類魯棒性!悉尼大學(xué)華人團(tuán)隊(duì)發(fā)布全新EdgeNet方法
關(guān)鍵字:報(bào)告,網(wǎng)絡(luò),圖像,特征,骨干
文章來(lái)源:新智元
內(nèi)容字?jǐn)?shù):8683字
內(nèi)容摘要:
新智元報(bào)道編輯:LRS
【新智元導(dǎo)讀】EdgeNet可以處理從干凈的自然圖像或嘈雜的對(duì)抗性圖像中提取的邊緣,產(chǎn)生魯棒的特征,具有輕量級(jí)、即插即用等特點(diǎn),能夠無(wú)縫集成到現(xiàn)有的預(yù)訓(xùn)練深度網(wǎng)絡(luò)中,訓(xùn)練成本低。在深度神經(jīng)網(wǎng)絡(luò)時(shí)代,深度神經(jīng)網(wǎng)絡(luò)(DNNs)在視覺(jué)分類任務(wù)中展現(xiàn)出了卓越的準(zhǔn)確性。然而,它們對(duì)額外噪聲,即對(duì)抗性攻擊,表現(xiàn)出了脆弱性。先前的研究假設(shè)這種脆弱性可能源于高準(zhǔn)確度的深度網(wǎng)絡(luò)過(guò)度依賴于與紋理和背景等無(wú)關(guān)緊要且不魯棒的特征。
最近的AAAI 2024學(xué)術(shù)會(huì)議上,悉尼大學(xué)的研究人員們揭示了「從圖像中提取的邊緣信息」能夠提供與形狀和前景相關(guān)的相關(guān)性強(qiáng)且魯棒的特征。論文鏈接:https://ojs.aaai.org/index.php/AAAI/article/view/28110
這些特征在幫助預(yù)訓(xùn)練深度網(wǎng)絡(luò)改善對(duì)抗魯棒性的同時(shí),還不影響其在清晰圖像上的準(zhǔn)確性。
作者們提出了一種輕量級(jí)且即插即用的EdgeNet,可以無(wú)縫集成到現(xiàn)有的預(yù)訓(xùn)練深度網(wǎng)絡(luò)中,包括Vision Transformers (ViTs),這是最新一代用于視覺(jué)分類的先進(jìn)模型家族。
EdgeNet可以處理從干凈的自然
原文鏈接:低成本算法,大幅提升視覺(jué)分類魯棒性!悉尼大學(xué)華人團(tuán)隊(duì)發(fā)布全新EdgeNet方法
聯(lián)系作者
文章來(lái)源:新智元
作者微信:AI_era
作者簡(jiǎn)介:智能+中國(guó)主平臺(tái),致力于推動(dòng)中國(guó)從互聯(lián)網(wǎng)+邁向智能+新紀(jì)元。重點(diǎn)關(guān)注人工智能、機(jī)器人等前沿領(lǐng)域發(fā)展,關(guān)注人機(jī)融合、人工智能和機(jī)器人對(duì)人類社會(huì)與文明進(jìn)化的影響,領(lǐng)航中國(guó)新智能時(shí)代。