北理工團(tuán)隊(duì)在遙感多模態(tài)大語言模型研究方面取得重要進(jìn)展
發(fā)布日期:2024-06-21 供稿:前沿交叉科學(xué)研究院 攝影:前沿交叉科學(xué)研究院
編輯:楊婧 審核:陳棋 閱讀次數(shù):2024年5月,北京理工大學(xué)前沿交叉學(xué)院數(shù)據(jù)流體課題組近日在遙感多模態(tài)大語言模型研究中取得重要進(jìn)展,,相關(guān)成果以“EarthGPT: A Universal Multi-modal Large Language Model for Multi-sensor Image Comprehension in Remote Sensing Domain”為題發(fā)表在國際頂級(jí)期刊《IEEE Transactions on Geoscience and Remote Sensing (TGRS)》上發(fā)表,。北京理工大學(xué)為唯一通訊單位,北京理工大學(xué)前沿交叉學(xué)院博士張偉和雷達(dá)技術(shù)研究院博士蔡妙鑫為共同第一作者,,毛雪瑞教授為通訊作者,。
目前遙感領(lǐng)域視覺模型大多都遵循“一任務(wù)一架構(gòu)”的范式,使得這些專才模型無法在同一架構(gòu)下統(tǒng)一處理多模態(tài)圖像和多任務(wù)推理,。最近,,通用多模態(tài)大語言模型(Multi-modal Large Language Models,簡稱MLLMs)在自然圖像領(lǐng)域取得了顯著成功,。然而MLLMs在遙感領(lǐng)域的發(fā)展仍處于起步階段,。為填補(bǔ)這一空白,毛雪瑞教授團(tuán)隊(duì)提出了EarthGPT遙感通才模型,將多傳感器圖像理解和多種遙感視覺任務(wù)都無縫集成在同一個(gè)框架中,。EarthGPT可在自然語言指令下,,實(shí)現(xiàn)光學(xué)、合成孔徑雷達(dá)(SAR)圖像和紅外圖像的理解,,完成遙感場(chǎng)景分類,、圖像描述、視覺問答,、目標(biāo)描述,、視覺定位和目標(biāo)檢測(cè)等多種任務(wù)(圖1)。
圖1 EarthGPT可通過自然語言交互的方式,,完成多傳感器遙感圖像解譯和多視覺推理任務(wù)
遙感通才模型EarthGPT包括三項(xiàng)關(guān)鍵技術(shù):(1)視覺增強(qiáng)感知機(jī)制,,通過混合專家編碼器提煉視覺粗粒度語義信息和細(xì)粒度感知信息。(2)跨模態(tài)交互理解方法,,基于大規(guī)模自然圖像數(shù)據(jù)集做預(yù)訓(xùn)練,,賦予大語言模型基本的圖像理解能力和多輪對(duì)話能力。(3)統(tǒng)一指令微調(diào)方法,,在本文構(gòu)建的遙感多模態(tài)指令數(shù)據(jù)集MMRS-1M(含100萬圖像-文本對(duì))上做微調(diào),,實(shí)現(xiàn)遙感場(chǎng)景下的綜合圖像解譯能力(圖2)。
圖2 EarthGPT模型架構(gòu)圖
EarthGPT具備“多才多藝”的遙感視覺解譯能力和多傳感器圖像理解能力,,且表現(xiàn)出了卓越的開放域推理能力,。該研究貢獻(xiàn)了一個(gè)通用的多模態(tài)多任務(wù)推理框架和目前最大的MMRS-1M遙感多模態(tài)指令數(shù)據(jù)集,展示出了極大的工業(yè)界實(shí)際應(yīng)用的潛力,。
此項(xiàng)工作以北京理工大學(xué)為唯一通訊單位,,得到了國家自然科學(xué)基金的支持。
論文鏈接:https://ieeexplore.ieee.org/document/10547418
分享到: