紐約大合博世提出自適應分辨率占用預測框架AdaOcc | 一作紐約大學陳超博士主講預告
AIGC動態(tài)歡迎閱讀
原標題:紐約大學聯(lián)合博世提出自適應分辨率占用預測框架AdaOcc | 一作紐約大學陳超博士主講預告
關鍵字:方法,語義,猩猩,細節(jié),大學
文章來源:智猩猩GenAI
內(nèi)容字數(shù):0字
內(nèi)容摘要:
在復雜的城市場景中實現(xiàn)自動駕駛需要全面且準確地感知環(huán)境。傳統(tǒng)的3D感知方法重于目標檢測,缺乏環(huán)境細節(jié)信息的稀疏表示。3D占用預測方法能夠估計車輛周圍的3D占用,讓自動駕汽車獲得更全面的場景表示。稠密的3D占用預測提供了準確性,但也提高了計算需求;而全稀疏的3D占用預測效率高,但是缺乏細節(jié)信息。
為此,紐約大合博世集團提出一個更靈活且高效的自適應分辨率占用預測框架AdaOcc,能夠在各種駕駛場景中實現(xiàn)精確的 3D 語義占用預測。AdaOcc將以目標為中心的3D重建和整體占用預測集成到一個框架內(nèi),僅在在感興趣區(qū)域(ROIs)進行高分辨率的3D重建,同時在其他區(qū)域保持較低分辨率,以實現(xiàn)計算資源的優(yōu)化分配。這種方法不僅提高了關鍵區(qū)域的細節(jié)捕捉能力,而且通過點云表示高細節(jié)的3D表面,突破了傳統(tǒng)占用網(wǎng)格分辨率的限制,從而在保持整體計算效率的同時,顯著提升了自動駕駛車輛的環(huán)境感知精度。通過在nuScenes數(shù)據(jù)集上進行全面實驗,證明了AdaOcc相比于現(xiàn)有方法有了明顯提升,能夠在各種駕駛場景中提供準確的3D語義占用預測。在近距離場景中,AdaOcc在IOU上超過先前的基線13%,在Hausdor
原文鏈接:紐約大合博世提出自適應分辨率占用預測框架AdaOcc | 一作紐約大學陳超博士主講預告
聯(lián)系作者
文章來源:智猩猩GenAI
作者微信:
作者簡介: