AIGC動態歡迎閱讀
原標題:用基礎模型指導特征傳播,首個泛化型圖像匹配器OmniGlue搞定未見過域
關鍵字:圖像,研究者,關鍵,特征,模型
文章來源:機器之心
內容字數:5329字
內容摘要:
機器之心報道
編輯:杜偉第一個以「泛化」能力為核心設計原則的可學習圖像匹配器來了!對于想要獲取兩張圖像之間的細粒度視覺對應關系而言,局部圖像特征匹配技術是高不錯的 xuanz,對于實現準確的相機姿態估計和 3D 重建至關重要。過去十年見證了從手工制作到基于學習的圖像特征的演變。
最近,研究社區又提出了新穎的可學習圖像匹配器,在傳統基準上實現了性能的不斷改進。盡管已經取得了長足的進步,但這些進展忽略了一個重要方面:圖像匹配模型的泛化能力。
如今,大多數局部特征匹配研究都集中在具有豐富訓練數據的特定視覺領域(如室外和室內場景),這就導致了模型高度專用于訓練領域。遺憾的是,這些方法的性能在域外數據(如以對象為中心或空中捕獲)上通常急劇下降,在某些情況下甚至可能并不比傳統方法好很多。
因此,傳統的域無關技術(如 SIFT)仍被廣泛用于獲取下游應用的姿態。并且由于收集高質量注釋的成本很高,在每個圖像域都有豐富的訓練數據是不現實的,就像其他一些視覺任務一樣。因此,社區應該專注于開發架構改進,使得可學習的匹配方法具有泛化能力。
近日,受上述觀察的啟發,德克薩斯大學奧斯汀分校和谷歌研究院的研究者聯合提
原文鏈接:用基礎模型指導特征傳播,首個泛化型圖像匹配器OmniGlue搞定未見過域
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...