用基礎(chǔ)模型指導(dǎo)特征傳播,首個泛化型圖像匹配器OmniGlue搞定未見過域
AIGC動態(tài)歡迎閱讀
原標(biāo)題:用基礎(chǔ)模型指導(dǎo)特征傳播,首個泛化型圖像匹配器OmniGlue搞定未見過域
關(guān)鍵字:圖像,研究者,關(guān)鍵,特征,模型
文章來源:機器之心
內(nèi)容字數(shù):5329字
內(nèi)容摘要:
機器之心報道
編輯:杜偉第一個以「泛化」能力為核心設(shè)計原則的可學(xué)習(xí)圖像匹配器來了!對于想要獲取兩張圖像之間的細粒度視覺對應(yīng)關(guān)系而言,局部圖像特征匹配技術(shù)是高不錯的 xuanz,對于實現(xiàn)準(zhǔn)確的相機姿態(tài)估計和 3D 重建至關(guān)重要。過去十年見證了從手工制作到基于學(xué)習(xí)的圖像特征的演變。
最近,研究社區(qū)又提出了新穎的可學(xué)習(xí)圖像匹配器,在傳統(tǒng)基準(zhǔn)上實現(xiàn)了性能的不斷改進。盡管已經(jīng)取得了長足的進步,但這些進展忽略了一個重要方面:圖像匹配模型的泛化能力。
如今,大多數(shù)局部特征匹配研究都集中在具有豐富訓(xùn)練數(shù)據(jù)的特定視覺領(lǐng)域(如室外和室內(nèi)場景),這就導(dǎo)致了模型高度專用于訓(xùn)練領(lǐng)域。遺憾的是,這些方法的性能在域外數(shù)據(jù)(如以對象為中心或空中捕獲)上通常急劇下降,在某些情況下甚至可能并不比傳統(tǒng)方法好很多。
因此,傳統(tǒng)的域無關(guān)技術(shù)(如 SIFT)仍被廣泛用于獲取下游應(yīng)用的姿態(tài)。并且由于收集高質(zhì)量注釋的成本很高,在每個圖像域都有豐富的訓(xùn)練數(shù)據(jù)是不現(xiàn)實的,就像其他一些視覺任務(wù)一樣。因此,社區(qū)應(yīng)該專注于開發(fā)架構(gòu)改進,使得可學(xué)習(xí)的匹配方法具有泛化能力。
近日,受上述觀察的啟發(fā),德克薩斯大學(xué)奧斯汀分校和谷歌研究院的研究者聯(lián)合提
原文鏈接:用基礎(chǔ)模型指導(dǎo)特征傳播,首個泛化型圖像匹配器OmniGlue搞定未見過域
聯(lián)系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺