北理工團(tuán)隊(duì)在點(diǎn)云目標(biāo)智能識別領(lǐng)域取得系列突破性進(jìn)展
發(fā)布日期:2025-04-23 供稿:光電學(xué)院 攝影:光電學(xué)院
編輯:盛筠 審核:李家方 閱讀次數(shù):點(diǎn)云目標(biāo)識別是實(shí)現(xiàn)三維環(huán)境智能感知與理解的重要技術(shù)之一,在自動駕駛、無人系統(tǒng)、空間探測等領(lǐng)域具有廣泛的應(yīng)用前景。然而,在實(shí)際場景下,受傳感器噪聲、環(huán)境干擾等因素影響,點(diǎn)云數(shù)據(jù)常存在擾動、缺失與形變等退化現(xiàn)象,顯著降低了傳統(tǒng)識別方法的準(zhǔn)確性與泛化能力。針對真實(shí)復(fù)雜環(huán)境下點(diǎn)云目標(biāo)智能識別中的關(guān)鍵科學(xué)問題和難題,許廷發(fā)、李佳男科研團(tuán)隊(duì)開展了原創(chuàng)方法和關(guān)鍵技術(shù)攻關(guān),取得了突破性研究進(jìn)展,相關(guān)論文陸續(xù)發(fā)表于IEEE TPAMI、NeurIPS (CCF-A)、ICCV (CCF-A)和ICLR等人工智能領(lǐng)域國際頂級期刊和會議,受到學(xué)術(shù)界的廣泛關(guān)注。
科研團(tuán)隊(duì)主要從點(diǎn)云數(shù)據(jù)增強(qiáng)、特征學(xué)習(xí)與時序建模三個層面開展系統(tǒng)性研究,提出了樣本自適應(yīng)在線數(shù)據(jù)擴(kuò)增方法、感知對抗模式捕獲策略,以及時序關(guān)聯(lián)高效建模框架:
1.樣本自適應(yīng)在線數(shù)據(jù)擴(kuò)增方法(IEEE TPAMI 2025):該方法結(jié)合輸入點(diǎn)云的空間結(jié)構(gòu)特征與感知模型狀態(tài),自適應(yīng)對樣本施加多級形變與遮擋,生成貼近真實(shí)失真場景的點(diǎn)云數(shù)據(jù),拓展訓(xùn)練樣本的多樣性,從而顯著提升模型魯棒性(圖1)。
圖1. 樣本自適應(yīng)在線擴(kuò)增方法示意圖。
2.基于對抗學(xué)習(xí)的點(diǎn)云模式捕獲策略(NeurIPS 2024):該策略在訓(xùn)練階段引入對抗性特征擦除機(jī)制,遮蔽模型已學(xué)習(xí)的目標(biāo)模式,迫使從目標(biāo)其他區(qū)域挖掘更具判別性的特征,進(jìn)而強(qiáng)化對點(diǎn)云全局結(jié)構(gòu)的感知能力(圖2)。
圖2. 基于對抗學(xué)習(xí)的點(diǎn)云模式捕獲策略。
3.時序關(guān)聯(lián)高效建模框架(ICLR 2025):該框架通過關(guān)聯(lián)機(jī)制將輸入點(diǎn)云幀與捕捉到的時序動態(tài)信息相融合,提取深度運(yùn)動線索并對整個序列的時序特征進(jìn)行統(tǒng)一建模,有效降低計(jì)算冗余,顯著提升了處理效率(圖3)。
圖3. 不同模型精度與速度的性能對比。
通過以上系列研究,總體構(gòu)建了面向復(fù)雜環(huán)境的點(diǎn)云目標(biāo)魯棒識別一體化技術(shù)架構(gòu),成功突破了點(diǎn)云數(shù)據(jù)高效擴(kuò)增、精細(xì)化特征表達(dá)以及運(yùn)動特征高效挖掘等關(guān)鍵技術(shù)瓶頸。提出的系列方法顯著提升了點(diǎn)云識別模型在失真條件下的魯棒性與泛化性能,并大幅提高了識別效率。
該系列研究成果提升了復(fù)雜環(huán)境下點(diǎn)云感知技術(shù)的可靠性與實(shí)用性,為無人系統(tǒng)自主導(dǎo)航、空間目標(biāo)感知等領(lǐng)域的實(shí)際應(yīng)用奠定了重要的理論支撐與技術(shù)保障。
相關(guān)成果詳細(xì)信息:
[1] Li et al., Towards Robust Point Cloud Recognition with Sample-Adaptive Auto-Augmentation, IEEE TPAMI, 2025, vol. 47, no. 4, pp. 3003-3017.
論文鏈接:https://ieeexplore.ieee.org/document/10839114
[2] Wang et al., Target-Guided Adversarial Point Cloud Transformer Towards Recognition Against Real-world Corruptions, NeurIPS, 2024.
論文鏈接:https://openreview.net/pdf?id=FcUyz33OED
[3] Wang et al., PvNeXt: Rethinking Network Design and Temporal Motion for Point Cloud Video Recognition, ICLR, 2025.
論文鏈接:https://openreview.net/pdf?id=ZsU52Zkzjr
附作者信息:
王杰,北京理工大學(xué)光電學(xué)院博士研究生,主要研究方向?yàn)槿S計(jì)算機(jī)視覺。在IEEE TPAMI、NeurIPS、ICCV、ICLR等頂級期刊或會議上發(fā)表論文6篇。
李佳男,北京理工大學(xué)光電學(xué)院,長聘副教授、博士生導(dǎo)師,主要研究方向?yàn)楣怆姵上衲繕?biāo)多維探測與感知技術(shù)研究。連續(xù)兩年入選全球前2%頂尖科學(xué)家(2023、2024年)。以第一或共同第一作者發(fā)表論文20篇,包括IEEE TPAMI論文5篇;以通訊作者發(fā)表論文60余篇。其中,3篇論文入選ESI高被引,2篇一作論文單篇引用超千次,谷歌學(xué)術(shù)總引用5600余次。主持國家自然科學(xué)基金、工信部高質(zhì)量發(fā)展專項(xiàng)(課題)等項(xiàng)目10項(xiàng)。入選中國科協(xié)、北京市科協(xié)青托。獲得地理信息科技進(jìn)步二等獎(序2),中國圖象圖形學(xué)學(xué)會優(yōu)博,王大珩學(xué)生光學(xué)獎等。指導(dǎo)學(xué)生獲得反無人機(jī)跟蹤挑戰(zhàn)賽國際冠軍等競賽獎項(xiàng)10余項(xiàng)。研究成果應(yīng)用于“中國天眼”、礦產(chǎn)開發(fā)遙感監(jiān)測等領(lǐng)域。
許廷發(fā),博士,教授/博導(dǎo),國家一級重點(diǎn)學(xué)科“光學(xué)工程”學(xué)科責(zé)任教授,光電成像技術(shù)與系統(tǒng)教育部重點(diǎn)實(shí)驗(yàn)室主任,北京理工大學(xué)重慶創(chuàng)新中心副主任。近年來帶領(lǐng)其科研團(tuán)隊(duì)圍繞光電成像探測與識別、計(jì)算成像和人工智能等領(lǐng)域不斷深化研究。主持承擔(dān)國家自然科學(xué)基金委重大科研儀器研制項(xiàng)目等40余項(xiàng)。在國際、國內(nèi)等系列期刊發(fā)表學(xué)術(shù)論文200余篇,其中被SCI/EI收錄120余篇。以第一發(fā)明人申請國家發(fā)明專利87項(xiàng),已授權(quán)和公示45項(xiàng)。獲省部級技進(jìn)步二等獎等獎項(xiàng)3項(xiàng)。指導(dǎo)研究生獲得中國圖象圖形學(xué)學(xué)會優(yōu)秀博士學(xué)位論文,二人次獲得王大珩高校學(xué)生光學(xué)獎,三人次獲得全國光學(xué)與光學(xué)工程博士生學(xué)術(shù)聯(lián)賽全國百強(qiáng),獲得中國高等教育博覽會“校企合作 雙百計(jì)劃”典型案例和重慶英才創(chuàng)新創(chuàng)業(yè)示范團(tuán)隊(duì)等榮譽(yù)稱號。
分享到: