李遷, 甘拯, 支曉棟, 劉玥, 王建超, 金鼎堅(jiān)
(1.中國(guó)地質(zhì)大學(xué)(北京),北京 100083;2.中國(guó)國(guó)土資源航空物探遙感中心,北京 100083;3.長(zhǎng)江空間信息
技術(shù)工程有限公司(武漢),武漢 410010;4.北京航空航天大學(xué)自動(dòng)化科學(xué)與電氣工程學(xué)院,北京 100191)
無人機(jī)近紅外傳感器數(shù)據(jù)匹配方法
李遷1,2, 甘拯3, 支曉棟2, 劉玥4, 王建超2, 金鼎堅(jiān)2
(1.中國(guó)地質(zhì)大學(xué)(北京),北京 100083;2.中國(guó)國(guó)土資源航空物探遙感中心,北京 100083;3.長(zhǎng)江空間信息
技術(shù)工程有限公司(武漢),武漢 410010;4.北京航空航天大學(xué)自動(dòng)化科學(xué)與電氣工程學(xué)院,北京 100191)
隨著無人機(jī)低空遙感技術(shù)的不斷發(fā)展,其已成為一種重要的遙感技術(shù)手段。無人機(jī)傳感器也從普通可見光向多/高光譜傳感器發(fā)展,但鑒于無人機(jī)載荷小對(duì)傳感器的限制,這些新型傳感器數(shù)據(jù)質(zhì)量較差,現(xiàn)有方法難以直接處理。因此,以無人機(jī)近紅外傳感器所獲取數(shù)據(jù)為研究對(duì)象,基于尺度不變特征轉(zhuǎn)換(scale-invariant feature transform,SIFT)匹配方法進(jìn)行參數(shù)優(yōu)化和粗差剔除,以解決無人機(jī)多/高光譜數(shù)據(jù)后期成圖應(yīng)用的關(guān)鍵技術(shù),并對(duì)該方法進(jìn)行實(shí)驗(yàn)驗(yàn)證。實(shí)驗(yàn)結(jié)果表明,通過該方法能夠獲取穩(wěn)健的匹配結(jié)果,對(duì)提高無人機(jī)多/高光譜等新型傳感器的應(yīng)用效果具有重要價(jià)值。
SIFT匹配; 無人機(jī); 近紅外影像
無人機(jī)低空遙感技術(shù)以其方便靈活、使用成本低、響應(yīng)快速和可獲得cm級(jí)數(shù)據(jù)成果等優(yōu)勢(shì)迅速得到各行各業(yè)的認(rèn)可,并成為航空和航天遙感的重要補(bǔ)充手段。但是,無人機(jī)平臺(tái)也存在很多不足,如有效載荷較小,極大地限制了機(jī)載傳感器的發(fā)展。目前無人機(jī)傳感器以可見光數(shù)碼相機(jī)為主,在測(cè)繪等領(lǐng)域取得了較好的應(yīng)用效果。然而對(duì)于地質(zhì)、環(huán)境等領(lǐng)域,數(shù)據(jù)光譜范圍較窄,使其應(yīng)用范圍受限。
隨著無人機(jī)傳感器的快速發(fā)展,已由傳統(tǒng)可見光轉(zhuǎn)向多/高光譜方向,出現(xiàn)了不少重量在3 kg以內(nèi)的小型傳感器。但由于這些傳感器大多并不只為遙感應(yīng)用設(shè)計(jì),數(shù)據(jù)質(zhì)量及其成像模式與傳統(tǒng)遙感數(shù)據(jù)不同,存在相幅較小、噪聲較大等問題,再加上無人機(jī)平臺(tái)本身姿態(tài)差等劣勢(shì)。在后期成圖處理中,傳統(tǒng)處理軟件難以適應(yīng)這類數(shù)據(jù),匹配結(jié)果不能滿足處理需要,較難實(shí)現(xiàn)數(shù)據(jù)成圖及發(fā)揮遙感的“大視野”優(yōu)勢(shì)。
目前,在無人機(jī)影像匹配方面,傳統(tǒng)的角點(diǎn)檢測(cè)算法包括: Harris[1],F(xiàn)AST(features from accelerated segment test)[2],BRIEF(binary robust independent elementary features)[3],MSER(maximally stable external regions)[4],F(xiàn)REAK(fast retina keypoint)[5]和SIFT(scale-invariant feature transform)。但是,Harris算子不能很好地處理不同尺度的影像[1]; FAST和BRIEF特征不是旋轉(zhuǎn)不變的[6]; MSER算法在高對(duì)比度的影像區(qū)域表現(xiàn)更好[7]。其中SIFT算法是最被認(rèn)可的算子,但SIFT算法是以解決可見光影像為主,其參數(shù)設(shè)置都以可見光影像為對(duì)象,直接將SIFT算法應(yīng)用于近紅外影像匹配難以得到準(zhǔn)確的匹配結(jié)果,甚至導(dǎo)致匹配失敗。
基于無人機(jī)近紅外數(shù)據(jù)特點(diǎn),利用SIFT算法,通過優(yōu)化SIFT匹配參數(shù)和隨機(jī)抽樣一致算法(random sample consensus,RANSAC)粗差剔除,獲得可靠的匹配結(jié)果,通過圖形處理器(graphics processing unit,GPU)的應(yīng)用,提高算法效率,本文方法不僅能夠滿足實(shí)際應(yīng)用的需要,還可為無人機(jī)近紅外傳感器的應(yīng)用提供支持,并進(jìn)一步提高無人機(jī)在地質(zhì)、環(huán)境等領(lǐng)域的應(yīng)用能力。
在民用遙感領(lǐng)域,主要使用的是翼展3 m左右、續(xù)航2 h、有效載荷5 kg以內(nèi)的小型無人機(jī)系統(tǒng),該類無人機(jī)系統(tǒng)操作簡(jiǎn)單,系統(tǒng)穩(wěn)定,起降適應(yīng)性好。傳感器是無人機(jī)遙感系統(tǒng)的重要組成部分,其性能決定了無人機(jī)遙感的應(yīng)用范圍及效果。主流無人機(jī)系統(tǒng)傳感器是2×107像素左右的可見光數(shù)碼單反相機(jī)。但隨著科學(xué)技術(shù)的不斷進(jìn)步,近幾年傳感器小型化成為一種發(fā)展趨勢(shì),也為小型無人機(jī)系統(tǒng)擴(kuò)展傳感器類型提供了機(jī)會(huì)。
目前無人機(jī)上可搭載的遙感傳感器包括中小幅面可見光波段相機(jī)、多光譜相機(jī)、高光譜相機(jī)、熱紅外相機(jī)、激光探測(cè)與測(cè)量(light detection and ranging,LiDAR)和合成孔徑雷達(dá)(synthetic aperture Radar,SAR)等覆蓋整個(gè)電磁波譜段的遙感設(shè)備。重量基本在2 kg以下,LiDAR和SAR的重量稍重,也都控制在4 kg以下,如RIEGL VUX-1(3.6 kg),IMSAR NanoSAR B(1.58 kg)。目前可應(yīng)用于無人機(jī)的幾種新型傳感器及其主要性能如表1所示。
表1 無人機(jī)新型傳感器性能
雖然上述多/高光譜傳感器性能與傳統(tǒng)可見光傳感器差別不大,但其數(shù)據(jù)質(zhì)量不同于傳統(tǒng)可見光遙感數(shù)據(jù)。對(duì)于近紅外傳感器來說,由于目標(biāo)及背景的近紅外熱輻射在傳輸過程中會(huì)受到大氣吸收和隨機(jī)散射作用,使得近紅外影像目標(biāo)與背景的對(duì)比度、清晰度和分辨率要低于可見光影像; 近紅外數(shù)據(jù)方差變化小,影像邊緣平滑,紋理信息弱; 而且其小型化與無人機(jī)搭載,造成其數(shù)據(jù)幅面小,影像姿態(tài)差和旋轉(zhuǎn)角度大等問題。上述質(zhì)量問題使得傳統(tǒng)處理方法難以適用該類數(shù)據(jù)。
2.1 SIFT算法概況
SIFT算法通常在Lowe[8]設(shè)置的默認(rèn)參數(shù)下運(yùn)行,由于一般不針對(duì)不同的影像類型進(jìn)行參數(shù)調(diào)整,造成一些特殊的影像數(shù)據(jù)難以獲取足夠多的特征點(diǎn)。為了匹配非可見光頻譜范圍數(shù)據(jù),一些學(xué)者也提出了SIFT的改進(jìn)方法,例如尺度限制準(zhǔn)則[9]和描述子改進(jìn)方法[10],或者通過更改SIFT參數(shù)使得在多波段數(shù)據(jù)集的特征點(diǎn)檢測(cè)和匹配中獲得成功,例如近紅外灰度影像、高光譜短波紅外影像和可見光影像之間的匹配[11-12]。
2.2 SIFT算法步驟
SIFT算法共包含4個(gè)步驟: 極值檢測(cè)、特征點(diǎn)定位、主方向分配和特征點(diǎn)描述子生成。控制第一步驟的3個(gè)主要參數(shù)為組數(shù)(octave),每組第一級(jí)的初始高斯平滑模板大小(由尺度空間因子σ決定)和每組的尺度數(shù)(nScales)。第二步驟中,低對(duì)比度區(qū)域的不穩(wěn)定潛在關(guān)鍵點(diǎn)用對(duì)比度閾值參數(shù)(contrast threshold,CT)去除,位于邊緣的不穩(wěn)定潛在關(guān)鍵點(diǎn)用邊緣閾值參數(shù)(edge threshold,ET)去除??刂谱詈?個(gè)步驟的9個(gè)參數(shù)詳見文獻(xiàn)[13]。匹配描述子時(shí)需要確定距離比率(nnRatio)參數(shù),用于排除錯(cuò)誤匹配,推薦值為0.8。
雖然SIFT匹配算法共有15個(gè)參數(shù)控制,但在考慮其重要性、參數(shù)敏感性和控制優(yōu)化復(fù)雜度基礎(chǔ)上,選擇了其中的5個(gè)參數(shù):σ,nScales,CT,ET和nnRatio進(jìn)行重點(diǎn)分析。
2.3 參數(shù)分析
σ決定了影像的平滑程度,σ值大對(duì)應(yīng)大尺度(低分辨率),反之,σ值小對(duì)應(yīng)小尺度(高分辨率)。大尺度對(duì)應(yīng)影像的概貌特征,小尺度對(duì)應(yīng)影像的細(xì)節(jié)特征。
nScales即組內(nèi)層數(shù)S,為了在每組中檢測(cè)S個(gè)尺度的極值點(diǎn),則高斯差分(difference of Gaussian,DoG)金字塔每組需S+2層影像,而DoG金字塔由高斯金字塔相鄰2層相減得到,則高斯金字塔每組需S+3層影像。
CT用于消除低對(duì)比度的點(diǎn)。但是,離散空間的極值點(diǎn)并不一定是真正的極值點(diǎn),采用子像素插值方法(sub-pixel interpolation)可以利用已知的離散空間點(diǎn)插值得到連續(xù)空間極值點(diǎn)。圖1顯示了二維函數(shù)離散空間插值得到的極值點(diǎn)與連續(xù)空間極值點(diǎn)的差別。
圖1 利用子像素插值得到的極值點(diǎn)
為了提高關(guān)鍵點(diǎn)的穩(wěn)定性,需要對(duì)尺度空間DoG進(jìn)行曲線擬合。CT也用來控制極值點(diǎn)的反復(fù)插值收斂。
由于DoG算子會(huì)產(chǎn)生較強(qiáng)的邊緣響應(yīng),還需要利用ET剔除不穩(wěn)定的邊緣響應(yīng)點(diǎn)。一個(gè)定義不好的高斯差分算子極值在橫跨邊緣方向有較大的主曲率,而在垂直邊緣方向有較小的主曲率。
為了排除因?yàn)橛跋裾趽鹾捅尘盎靵y而產(chǎn)生的無匹配關(guān)系的關(guān)鍵點(diǎn),Lowe提出了比較最近鄰距離與次近鄰距離的方法,距離比率nnRatio小于某個(gè)閾值時(shí)認(rèn)為是正確匹配。對(duì)于錯(cuò)誤匹配,由于特征空間的高維性,相似的距離可能有大量其他的錯(cuò)誤匹配,從而nnRatio比較高。
3.1 實(shí)驗(yàn)數(shù)據(jù)
實(shí)驗(yàn)選用的傳感器為Tetracam無人機(jī)近紅外傳感器,是由美國(guó)Tetracam公司研制設(shè)計(jì),重量?jī)H為200 g。該傳感器獲取的多光譜數(shù)據(jù)頻譜范圍包括紅光、綠光和近紅外波段(圖2)。
圖2 Tetracam相機(jī)波段特征
無人機(jī)近紅外數(shù)據(jù)由中國(guó)國(guó)土資源航空物探遙感中心于2013年8月在四川若爾蓋地區(qū)飛行獲取,部分影像如圖3所示。
(a) 影像1 (b) 影像2
(c) 影像3 (d) 影像4
(e) 影像5 (f) 影像6
圖3 近紅外波段灰度影像
Fig.3 NIR band grayscale image
選擇一組紋理特征好的建筑區(qū)和紋理特征差的草原區(qū)作為實(shí)例數(shù)據(jù),如圖4所示。
(a) 建筑區(qū)1(b) 建筑區(qū)2(c) 草原區(qū)1(d) 草原區(qū)2
圖4 實(shí)例數(shù)據(jù)
Fig.4 Sample data
3.2 實(shí)驗(yàn)結(jié)果
3.2.1 參數(shù)優(yōu)化
由于近紅外影像紋理差,在增加特征點(diǎn)來獲取更多匹配結(jié)果的同時(shí),還應(yīng)盡量減少錯(cuò)誤匹配。針對(duì)實(shí)例數(shù)據(jù),通過反復(fù)測(cè)試和結(jié)果統(tǒng)計(jì),SIFT匹配優(yōu)化參數(shù)和默認(rèn)參數(shù)對(duì)比如表2所示。
表2 優(yōu)化參數(shù)和默認(rèn)參數(shù)對(duì)比
經(jīng)過對(duì)比分析,針對(duì)各參數(shù)得到如下參考依據(jù): ①對(duì)于近紅外影像紋理較弱的特點(diǎn),可以將nnRatio從默認(rèn)的0.8提高到0.9~0.98,以增加匹配點(diǎn)數(shù),然后再利用RANSAC算法剔除錯(cuò)誤匹配結(jié)果,但是,由于該算法基于統(tǒng)計(jì)學(xué),不依據(jù)影像本身的信息,nnRatio過大會(huì)留下個(gè)別錯(cuò)誤匹配結(jié)果,所以該參數(shù)限定在0.9較好; ②對(duì)于可見光影像,增大nScale可以增加匹配點(diǎn)數(shù),從3提高到6時(shí),匹配點(diǎn)數(shù)提高了2.9倍,但同時(shí)也會(huì)延長(zhǎng)處理時(shí)間,對(duì)于近紅外影像,當(dāng)CT取0.008且nScale取1時(shí)得到的匹配點(diǎn)數(shù)反而最多,繼續(xù)降低CT,增大nScale才會(huì)提高匹配點(diǎn)數(shù),但錯(cuò)誤匹配結(jié)果也會(huì)隨之增多,所以建議nScale取值為1; ③將CT從默認(rèn)的0.03降低到0.01,會(huì)顯著增加低對(duì)比度影像的匹配點(diǎn)數(shù),但是取值過小會(huì)大幅增加錯(cuò)誤匹配結(jié)果,多組數(shù)據(jù)測(cè)試發(fā)現(xiàn),該參數(shù)不低于0.006 7時(shí)能有效控制錯(cuò)誤匹配數(shù)量; ④相較其他參數(shù),在本文實(shí)驗(yàn)中ET對(duì)匹配點(diǎn)數(shù)影響很小,可保持默認(rèn)值10; ⑤雖然減小σ將得到更多匹配點(diǎn),但是會(huì)造成匹配點(diǎn)過于集中并顯著延長(zhǎng)處理時(shí)間,經(jīng)過反復(fù)對(duì)比測(cè)試,該參數(shù)仍取默認(rèn)值1.6最佳。但是,僅根據(jù)本文實(shí)驗(yàn)結(jié)果不能確定ET和σ是否會(huì)對(duì)其他傳感器獲取的影像匹配結(jié)果產(chǎn)生影響,因此ET和σ也是下一階段工作的研究重點(diǎn)。
3.2.2 匹配結(jié)果對(duì)比
采用SIFT默認(rèn)參數(shù)對(duì)近紅外影像進(jìn)行匹配的結(jié)果如圖5所示。
(a) 建筑區(qū) (b) 草原區(qū)
圖5 默認(rèn)參數(shù)匹配結(jié)果
Fig.5 Default parameters matching results
通過圖5可知,默認(rèn)參數(shù)的SIFT匹配對(duì)建筑區(qū)等紋理較好的區(qū)域能夠獲取較多匹配結(jié)果,但對(duì)于草原等紋理較差的區(qū)域默認(rèn)參數(shù)難以獲取可用的匹配結(jié)果。
通過本文優(yōu)化的匹配參數(shù)進(jìn)行處理,可得到匹配結(jié)果如圖6所示。
(a) 建筑區(qū) (b) 草原區(qū)
圖6 優(yōu)化參數(shù)匹配結(jié)果
Fig.6 Optimized parameters matching results
通過圖6可知,優(yōu)化后參數(shù)能夠顯著增加匹配點(diǎn)數(shù)量,尤其是對(duì)草原弱紋理區(qū)域亦能獲取較均勻的匹配結(jié)果,但同時(shí)也帶來了較多錯(cuò)誤。
為了有效剔除錯(cuò)誤匹配點(diǎn),本文對(duì)優(yōu)化參數(shù)的匹配結(jié)果采用RANSAC算法進(jìn)行錯(cuò)誤剔除。其結(jié)果如圖7所示。
(a) 建筑區(qū) (b) 草原區(qū)
圖7 RANSAC算法錯(cuò)誤剔除后匹配結(jié)果
Fig.7 RANSAC algorithm eliminate errors matching results
通過圖7可知,利用本文優(yōu)化參數(shù)及RANSAC算法錯(cuò)誤剔除,近紅外影像獲得了可靠的匹配結(jié)果,在此基礎(chǔ)上實(shí)現(xiàn)了相機(jī)姿態(tài)解算。
表3對(duì)比了2種影像在默認(rèn)參數(shù)和優(yōu)化參數(shù)及RANSAC算法作用下的匹配效果。
表3 匹配點(diǎn)數(shù)量對(duì)比
由表3、圖5—7可見,本文提出的算法增加了建筑區(qū)影像的匹配點(diǎn)數(shù),匹配結(jié)果分布均勻并在默認(rèn)參數(shù)未實(shí)現(xiàn)匹配的一些區(qū)域也獲得了可靠的匹配結(jié)果; 而針對(duì)草原區(qū)影像,在默認(rèn)參數(shù)下未實(shí)現(xiàn)匹配,但本文算法卻獲得了足夠數(shù)量的匹配點(diǎn)。研究表明,本文算法可有效改善近紅外影像的SIFT匹配結(jié)果,以滿足后期應(yīng)用需要。
本文基于近紅外影像特點(diǎn),分析并優(yōu)化了SIFT算法的5個(gè)匹配關(guān)鍵參數(shù),并利用RANSAC算法進(jìn)行匹配結(jié)果錯(cuò)誤剔除,從而得到了可靠的匹配效果,保證了本文所用近紅外傳感器數(shù)據(jù)的后期成圖應(yīng)用。各個(gè)參數(shù)選擇依據(jù)的總結(jié),對(duì)其他相似數(shù)據(jù)的匹配具有重要價(jià)值。
但本文僅針對(duì)某一傳感器的參數(shù)進(jìn)行測(cè)試,其優(yōu)化過程不能實(shí)現(xiàn)自動(dòng)化,在下一階段工作中,繼續(xù)研究影像質(zhì)量評(píng)價(jià)及參數(shù)智能優(yōu)化算法,更好地推進(jìn)無人機(jī)多/高光譜數(shù)據(jù)的深入應(yīng)用,為地質(zhì)災(zāi)害調(diào)查及環(huán)境監(jiān)測(cè)等工作提供有力的支持。
[1] Harris C,Stephens M.A combined corner and edge detector[C]//Proceedings of the 1988 Alvey Vision Conference.Manchester,UK:AVC,1988:147-152.
[2] Rosten E,Drummond T.Machine learning for high-speed corner detection[M]//Leonardis A,Bischof H,Pinz A,eds.Computer Vision-ECCV 2006.Berlin Heidelberg:Springer,2006:430-443.
[3] Calonder M,Lepetit V,Strecha C,et al.Brief:Binary robust independent elementary features[M]//Daniilidis K,Maragos P,Paragios N,eds.Computer Vision-ECCV 2010.Berlin Heidelberg:Springer,2010:778-792.
[4] Matas J,Chum O,Urban M,et al.Robust wide-baseline stereo from maximally stable extremal regions[J].Image and Vision Computing,2004,22(10):761-767.
[5] Alahi A,Ortiz R,Vandergheynst P.FREAK:Fast retina keypoint[C]//Proceedings of 2012 IEEE Conference on Computer Vision and Pattern Recognition(CVPR).Providence:IEEE,2012:510-517.
[6] Rublee E,Rabaud V,Konolige K,et al.ORB:An efficient alternative to SIFT or SURF[C]//Proceedings of 2011 IEEE International Conference on Computer Vision(ICCV).Barcelona:IEEE,2011:2564-2571.
[7] Morel J M,Yu G S.ASIFT:A new framework for fully affine invariant image comparison[J].SIAM Journal on Imaging Sciences,2009,2(2):438-469.
[8] Lowe D G.Object recognition from local scale-invariant features[C]//The Proceedings of the Seventh IEEE International Conference on Computer Vision,1999.Kerkyra:IEEE,1999,2:1150-1157.
[9] Zheng Y,Cao Z G,Xiao Y.Multi-spectral remote image registration based on SIFT[J].Electronics Letters,2008,44(2):107-108.
[10]Aguilera C,Barrera F,Lumbreras F,et al.Multispectral image feature points[J].Sensors,2012,12(9):12661-12672.
[11]Meierhold N,Spehr M,Schilling A,et al.Automatic feature matching between digital images and 2D representations of a 3D laser scanner point cloud[C]//Proceedings of the ISPRS Commission V Mid-Term Symposium on Close Range Image Measurement Techniques.Newcastle:ISPRS,2010,38:446-451.
[12]Sima A,Buckley S J,Kurz T H,et al.Semi-automatic integration of panoramic hyperspectral imagery with photorealistic Lidar models[J].Photogrammetrie-Fernerkundung-Geoinformation,2012(4):443-454.
[13]May M,Turner M J.Scale invariant feature transform:A graphical parameter analysis[C].//Proceedings of the BMVC 2010 UK.Aberystwyth,UK:BMVC,2010:1-11.
(責(zé)任編輯: 陳理)
Research on matching algorithm of UAV infrared sensor data
LI Qian1,2, GAN Zheng3, ZHI Xiaodong2, LIU Yue4, WANG Jianchao2, JIN Dingjian2
(1.ChinaUniversityofGeosciences(Beijing),Beijing100083,China; 2.ChinaAeroGeophysicalSurveyandRemoteSensingCenterforLandandResources,Beijing100083,China; 3.ChangjiangSpatialInformationTechnologyEngineeringCo.,Ltd,Wuhan410010,China; 4.SchoolofAutomationScienceandElectricalEngineering,BeihangUniversity,Beijing100191,China)
Low-altitude UAV remote sensing technology has become an important means of remote sensing technology. With the continuous development of the technology, its sensors have also changed from the visible ones to the multi/hyperspectral ones. However, due to the limitations of a small UAV payload on the sensors, the data quality of these new types of sensors is poor and hence it is difficult to deal with existing methods directly. Therefore, the authors studied the data obtained by UAV infrared sensors and then optimized parameters and removed gross errors based on the SIFT matching algorithm. This method has made robust matching results and can solve the key technology of the late mapping application of multi/hyperspectral data. The authors used a set of UAV infrared data to test and verify this method. The experimental results show that this method is capable of obtaining robust matching results and has a great value in improving applications of UAV multi/hyperspectral sensors.
SIFT matching; UAV; infrared image
10.6046/gtzyyg.2017.01.13
李遷,甘拯,支曉棟,等.無人機(jī)近紅外傳感器數(shù)據(jù)匹配方法[J].國(guó)土資源遙感,2017,29(1):86-91.(Li Q,Gan Z,Zhi X D,et al.Research on matching algorithm of UAV infrared sensor data[J].Remote Sensing for Land and Resources,2017,29(1):86-91.)
2016-06-22;
2016-09-27
中國(guó)國(guó)土資源航空物探遙感中心對(duì)地觀測(cè)技術(shù)工程實(shí)驗(yàn)室航遙青年創(chuàng)新基金項(xiàng)目“基于紅外光學(xué)傳感器的低空遙感應(yīng)急監(jiān)測(cè)方法研究”(編號(hào): 2013YFL09)和中國(guó)地質(zhì)調(diào)查局地質(zhì)調(diào)查項(xiàng)目“地質(zhì)災(zāi)害低空遙感應(yīng)急監(jiān)測(cè)方法技術(shù)研究”(編號(hào): 1212011120219)共同資助。
李遷(1983-),男,工程師,在讀博士研究生,主要從事遙感技術(shù)應(yīng)用方面的研究和管理工作。Email: bubb.lee@qq.com。
支曉棟(1983-),男,博士,主要從事無人機(jī)低空遙感、攝影測(cè)量與計(jì)算機(jī)視覺及遙感地質(zhì)應(yīng)用等方面的研究。Email: zhixdong@163.com。
TP 751.1
A
1001-070X(2017)01-0086-06