李 明,劉 歡,朱欣焰
(1.武漢大學(xué)遙感信息工程學(xué)院,湖北武漢430074;2.武漢大學(xué)測(cè)繪遙感信息工程國(guó)家重點(diǎn)實(shí)驗(yàn)室,湖北武漢430074;3.武漢船舶通信研究所,湖北武漢430074)
一種面向?yàn)?zāi)害應(yīng)急的UAV影像快速拼接方法*
李 明1,2,劉 歡3,朱欣焰2
(1.武漢大學(xué)遙感信息工程學(xué)院,湖北武漢430074;2.武漢大學(xué)測(cè)繪遙感信息工程國(guó)家重點(diǎn)實(shí)驗(yàn)室,湖北武漢430074;3.武漢船舶通信研究所,湖北武漢430074)
洪澇、地震等自然災(zāi)害發(fā)生突然,特別是對(duì)城郊設(shè)防水平較低地區(qū),短時(shí)間內(nèi)能造成巨大的損失。及時(shí)、準(zhǔn)確、快速地獲得足夠的災(zāi)情信息是減災(zāi)救災(zāi)的前提;依靠無人機(jī)采集的災(zāi)區(qū)遙感影像越來越成為減災(zāi)部門提取第一手災(zāi)情信息的首選數(shù)據(jù)源。結(jié)合無人機(jī)影像特點(diǎn),優(yōu)化利用影像局部不變特征進(jìn)行特征匹配,通過RANSAC算子剔除匹配粗差,并用變換優(yōu)化法求取最佳變換模型參數(shù),然后采用基于動(dòng)態(tài)規(guī)劃的最佳拼接縫搜索策略和加權(quán)平均相結(jié)合的融合策略,在保證災(zāi)害應(yīng)急精度要求的前提下,很好地消除了拼接縫和“融合鬼影”現(xiàn)象,為城郊區(qū)應(yīng)急情況下的災(zāi)情信息獲取提供了新的技術(shù)手段和支持。
城郊區(qū);災(zāi)害應(yīng)急;UAV;SIFT;RANSAC;融合;影像拼接
從古至今,無數(shù)往日欣欣向榮的城市在自然災(zāi)害中隕落,自然災(zāi)害給人類帶來了無數(shù)的悲劇。城市災(zāi)害幾乎包含著災(zāi)害的全部類型。隨著中國(guó)城鎮(zhèn)化的快速發(fā)展,城市規(guī)模急劇擴(kuò)張。處于城郊結(jié)合部的大量新型城郊區(qū)往往由于設(shè)防水平低、城市公共安全設(shè)施不全,成為災(zāi)害中異常脆弱的承載體。面對(duì)災(zāi)害危機(jī),聚焦城市安全,應(yīng)重視城郊區(qū)的災(zāi)害應(yīng)急工作,讓城市文明在發(fā)展中延續(xù)輝煌。及時(shí)、準(zhǔn)確、快速地掌握城市災(zāi)害規(guī)模、災(zāi)害損失程度等信息是進(jìn)行災(zāi)害應(yīng)急指揮與救援的關(guān)鍵。低空遙感平臺(tái)(特別是無人機(jī))具有受天氣影響較小,作業(yè)方式靈活快捷,不用申請(qǐng)空域;不受重返周期限制,影像時(shí)效性、針對(duì)性強(qiáng);平臺(tái)構(gòu)建、維護(hù)以及作業(yè)成本低;能夠獲取大比例尺高精度影像等優(yōu)勢(shì),是應(yīng)急救災(zāi)的一把利刃。但是,由于航空成像系統(tǒng)的限制,單張無人機(jī)影像往往無法覆蓋整個(gè)受災(zāi)地區(qū),同時(shí)經(jīng)過處理生成正射影像拼接需要耗費(fèi)大量時(shí)間,所以,研究基于無人機(jī)原始影像的快速校正和拼接技術(shù)就顯得很有必要。而無人機(jī)影像數(shù)據(jù)量大,選擇合適的配準(zhǔn)方法使配準(zhǔn)的精度和速度達(dá)到有效統(tǒng)一,是擺在無人機(jī)數(shù)據(jù)自動(dòng)拼接技術(shù)研究中的難點(diǎn)之一。
無人機(jī)數(shù)據(jù)自動(dòng)拼接是將有一定重疊區(qū)域的影像序列自動(dòng)拼接成視野范圍較大的地面全景圖像的過程。國(guó)外影像拼接技術(shù)發(fā)展已經(jīng)比較成熟,形成了一整套的理論。具有代表性的研究有1975年,Kuglin和Hines提出的相位相關(guān)法[1]。Reddy和Chatterji 1996年提出的基于快速傅里葉變換(FFT-based)的方法[2]。微軟研究院 Richard Szeliski1996年提出的一種基于運(yùn)動(dòng)的八參數(shù)投影變換全景影像拼接模型[3]。M.Irani and S.Peleg在文章《Improving Resolution by Image Registration》中詳細(xì)論述了解決“鬼影”現(xiàn)象的超分辨率復(fù)原技術(shù)[4]。M.Brown和DG Lowe在2003年發(fā)表的《Recognising Panoramas》提出采用SIFT算子進(jìn)行特征點(diǎn)初匹配,然后用RANSAC算法去除誤匹配的特征點(diǎn),并采用多分辨率融合算法,使影像的細(xì)節(jié)不被同化,并能保證背景信息的低頻融合[5]。David G.Lowe在2004年發(fā)表的《Distinctive Image Features from Scale-Invariant Keypoints》中提出的 SIFT算法是目前最經(jīng)典也是最成熟的,他改進(jìn)了Lowe自1999年以來發(fā)表的幾篇文章的拼接方法,并采用了他的學(xué)生M.Brown的一些先進(jìn)思想[6]。Matthew Brown和David G.Lowe在2007年發(fā)表的文章中詳細(xì)論述了對(duì)于多幅有噪聲的無序影像序列進(jìn)行自動(dòng)識(shí)別拼接的原理,并介紹了影像拼接對(duì)齊的步驟,擴(kuò)展了以前的工作[7]。國(guó)內(nèi)影像拼接技術(shù)研究起步比較晚,和國(guó)外的研究具有較大的差距,王小睿在1997年利用序貫相似度檢測(cè)(SSDA)和歸一化積相關(guān)兩種相似度量方法,建立模板影像和輸入影像之間的相似性度量值,使用模擬退火算法隨機(jī)尋優(yōu),快速尋找最優(yōu)匹配點(diǎn)[8]。侯舒維、郭寶龍?jiān)?005年針對(duì)現(xiàn)有基于灰度級(jí)相似的影像拼接方法的缺點(diǎn)提出了一種影像自動(dòng)拼接快速算法[9]。方賢勇等針對(duì)現(xiàn)階段影像拼接算法不能很好的處理“鬼影”和曝光差異提出了一種實(shí)現(xiàn)影像拼接的算法[10]。張劍清等在2009年提出了基于蟻群算法的正射影像鑲嵌線自動(dòng)選擇原理,實(shí)現(xiàn)了測(cè)繪生成DOM的自動(dòng)化無縫拼接[11]。
雖然影像拼接技術(shù)已經(jīng)取得了大量成果,但針對(duì)無人機(jī)影像的拼接技術(shù)仍存在以下問題:①無人機(jī)影像有自己的特色(如單幅影像分辨率高、圖像大),使用傳統(tǒng)配準(zhǔn)方法需要耗費(fèi)大量計(jì)算機(jī)內(nèi)存、運(yùn)算速度慢等。②目前流行的SIFT算法需要在各個(gè)尺度上進(jìn)行計(jì)算,匹配精度高,但其計(jì)算時(shí)間相對(duì)較長(zhǎng)。其它匹配算法計(jì)算時(shí)間短,但匹配精度有所下降,匹配速度和精度難以達(dá)到有效統(tǒng)一。③待拼接影像出現(xiàn)較大運(yùn)動(dòng)物體時(shí)拼接效果會(huì)出現(xiàn)“融合鬼影”現(xiàn)象。
本文所選實(shí)驗(yàn)環(huán)境為CPU是Inter(R)Pentium(R)Dual 2.00 GHz、內(nèi)存為0.98 GB的DELL臺(tái)式計(jì)算機(jī),實(shí)驗(yàn)影像尺寸為676×902。本文選取的實(shí)驗(yàn)數(shù)據(jù)是武漢海地測(cè)繪科技有限公司利用無人機(jī)拍攝的坪山城郊區(qū)影像,飛行航高為1 000m,影像行列數(shù)為5 412×7 216,航向重疊70%,旁向重疊40%,拍攝影像區(qū)域多為房屋、道路等建筑物,精確匹配難度很高。
SIFT(尺度不變特征變換)算子是由 British Columbia大學(xué)的David G.Lowe教授在1999年提出,并于2004年進(jìn)行了完善總結(jié),后來Y.Ke對(duì)其算法進(jìn)行了局部改正,將其描述子部分用PCA代替了直方圖。它把一幅影像映射為一個(gè)局部特征向量集,特征向量具有旋轉(zhuǎn)、平移、縮放不變性,同時(shí)對(duì)光照變化、仿射變換和投影變換敏感性低?;诖怂枷?,SIFT算法在尺度空間尋找極值點(diǎn),提取位置、尺度、旋轉(zhuǎn)不變量。因此,SIFT算法具有一定的穩(wěn)定性、獨(dú)特性、多量性和可擴(kuò)展性。SIFT特征提取一般分為檢測(cè)尺度空間極值點(diǎn)、極值點(diǎn)精確定位、特征點(diǎn)主方向確定和關(guān)鍵點(diǎn)描述子生成四步。為了保證SIFT算法特征提取的穩(wěn)定性以及保證足夠數(shù)目的特征點(diǎn)數(shù),一般構(gòu)建尺度空間時(shí)第一階的第一層采用放大2倍的原始影像,且每一階至少保證構(gòu)建5層以上的尺度空間金字塔。構(gòu)建影像金字塔所耗費(fèi)的時(shí)間通常要超過整個(gè)SIFT特征提取時(shí)間的一半以上。
由于實(shí)驗(yàn)無人機(jī)相鄰影像之間拍攝時(shí)間比較短且其飛行姿態(tài)相對(duì)較穩(wěn)定,所以一般情況下相鄰影像之間不會(huì)出現(xiàn)非常大的偏移、旋轉(zhuǎn)、縮放,即影像的尺度變化比較小。所以可以考慮通過構(gòu)建尺度空間時(shí)第一階的第一層影像不放大兩倍并且裁減無人機(jī)航拍影像SIFT特征提取所使用的尺度空間金字塔層數(shù)來加速SIFT特征提取過程。為了保證獲得足夠的準(zhǔn)確特征點(diǎn)數(shù)和加速匹配過程,需要考慮兩個(gè)因素:①縮短匹配時(shí)間的長(zhǎng)短;②特征提取的穩(wěn)定性,不能因?yàn)榭s短了特征提取的時(shí)間而出現(xiàn)大量的誤匹配特征點(diǎn)對(duì)。以下的實(shí)驗(yàn)選取無人機(jī)拍攝的坪山地區(qū)兩幅影像分別對(duì)這兩個(gè)指標(biāo)進(jìn)行了實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如圖1所示。
圖1 SIFT算子時(shí)間與特征點(diǎn)數(shù)目對(duì)比圖
由以上穩(wěn)定性實(shí)驗(yàn)結(jié)果可以看出構(gòu)建尺度空間時(shí)第一階的第一層影像不放大兩倍,且階數(shù)為2,層數(shù)為4時(shí)??梢钥s短SIFT特征提取時(shí)間約70%,特征點(diǎn)對(duì)數(shù)目仍大大超過最小二乘解算成像運(yùn)動(dòng)模型參數(shù)所需特征點(diǎn)對(duì)數(shù)目,并且階數(shù)對(duì)SIFT特征提取的時(shí)間影響不大,SIFT特征提取的穩(wěn)定性也不會(huì)受影響,不會(huì)出現(xiàn)大量誤匹配特征點(diǎn)對(duì),所以本文以下實(shí)驗(yàn)構(gòu)建尺度空間時(shí)第一階的第一層影像不放大兩倍,并且階數(shù)O=2,層數(shù)S=4。
SIFT關(guān)鍵點(diǎn)匹配完成后仍然存在著一定數(shù)量的誤匹配點(diǎn),可以利用RANSAC算子對(duì)其剔除誤匹配點(diǎn)。RANSAC(Random Sample Consensus,隨機(jī)抽樣一致)是一種魯棒性的參數(shù)估計(jì)方法,RANSAC算子的基本思想是:首先根據(jù)具體問題設(shè)計(jì)出某個(gè)目標(biāo)函數(shù),然后通過反復(fù)提取最小點(diǎn)集估計(jì)該函數(shù)中參數(shù)的初始值,利用這些初始值把所有的數(shù)據(jù)分為“內(nèi)點(diǎn)”和“外點(diǎn)”,最后用所有的內(nèi)點(diǎn)重新計(jì)算和估計(jì)函數(shù)的參數(shù)。圖2為利用RANSAC剔除誤匹配點(diǎn)實(shí)驗(yàn)結(jié)果比較示意圖。
圖2 使用RANSAC效果比較圖
一幅好的影像拼接全景圖,要求經(jīng)過變換糾正后的影像重疊區(qū)域灰度誤差最小,實(shí)現(xiàn)無縫拼接。
根據(jù)這個(gè)思想Richard Szeliski在其1996年的論文“Video Mosaics for Virtual Environments”中詳細(xì)闡述了利用Levenberg-Marquardt迭代非線性最小化算法來優(yōu)化旋轉(zhuǎn)矩陣實(shí)現(xiàn)拼接灰度誤差最小,這種方法符合計(jì)算機(jī)視覺中視覺最小偏差的思想。本文采用此方法。
幾何配準(zhǔn)誤差是衡量配準(zhǔn)算法精度的一個(gè)重要指標(biāo),單個(gè)點(diǎn)配準(zhǔn)誤差公式如下:
平均幾何配準(zhǔn)誤差公式如下:
Dist表示兩點(diǎn)之間的距離,該式所計(jì)算的誤差的單位是像素,如果配準(zhǔn)誤差過大,則后續(xù)的影像鑲嵌等步驟將無法進(jìn)行,如圖3為幾何配準(zhǔn)誤差示意圖。
圖3 幾何配準(zhǔn)誤差計(jì)算示意圖
實(shí)驗(yàn)選取配準(zhǔn)模型為8參數(shù)投影變換模型,利用本文的SIFT特征提取優(yōu)化算法與RANSAC算子剔除誤匹配特征點(diǎn)共匹配出30對(duì)特征點(diǎn),通過式(2)計(jì)算出的兩幅影像配準(zhǔn)單點(diǎn)RMS如表1所示。通過式(3)計(jì)算出平均幾何配準(zhǔn)誤差total RMS為1.983 07,實(shí)驗(yàn)配準(zhǔn)誤差精度滿足應(yīng)急情況下的無人機(jī)影像拼接要求。
表1 單點(diǎn)RMS結(jié)果
無人機(jī)多幅影像拼接需要將其變換到統(tǒng)一坐標(biāo)系下才能拼接成一幅全景圖像,拼接坐標(biāo)系的變換方式選取決定了拼接后影像的精度和形狀。本文通過對(duì)比分析幀到幀、幀到拼接影像、拼接影像到幀和拼接影像到拼接影像四種拼接方式,綜合考慮拼接過程的復(fù)雜度、計(jì)算量與累積誤差等因素,采用幀到幀的拼接方式。它通過一定的準(zhǔn)則選取無人機(jī)影像中的一幅為參考影像,其他影像逐個(gè)變換到該影像的參考坐標(biāo)系下,拼接時(shí)坐標(biāo)系是固定不變的。
通過前文提及方法解算出序列影像幀到幀之間的成像運(yùn)動(dòng)模型參數(shù)之后,選定參考影像,將待拼接影像中的其他影像重投影到一個(gè)統(tǒng)一的二維曲面進(jìn)行鑲嵌??紤]到主要的二維曲面中球面流形和立方體流形重投影非常麻煩,在拼接中很少用,而柱面流形與平面流形相比,平面流形更為簡(jiǎn)單常用,影像經(jīng)投影后直線仍然不變,更接近現(xiàn)實(shí)物體形狀,且實(shí)驗(yàn)區(qū)影像視角跨度極小,所以本文采用平面流形進(jìn)行重投影,圖4為坪山地區(qū)6張影像經(jīng)平面投影后的拼接效果圖。
圖4 坪山地區(qū)6張影像平面投影拼接效果圖
影像進(jìn)行配準(zhǔn)后,直接對(duì)影像進(jìn)行簡(jiǎn)單的疊加會(huì)出現(xiàn)明顯的拼接縫,造成很壞的視覺及拼接質(zhì)量低下的問題。影響影像拼接質(zhì)量的因素很多,主要包括影像的匹配誤差、糾正模型誤差、曝光差異和白平衡等,圖5、6分別所示為拼接影像存在匹配誤差和曝光差異導(dǎo)致的拼接影像質(zhì)量問題。
從圖5、6可以看出拼接影像出現(xiàn)了房屋錯(cuò)位和色差過大的問題,拼接影像間形成了明顯的拼接縫。為了解決這些問題,通常會(huì)考慮影像融合策略來消除這些因素的影響,最常用的是直接平均法和加權(quán)融合法。直接平均法在拼接縫處會(huì)出現(xiàn)不連續(xù)的現(xiàn)象,采用加權(quán)融合能夠使重疊區(qū)域的灰度實(shí)現(xiàn)漸變,消除拼接縫視覺,但是如果兩幅影像存在配準(zhǔn)誤差而采用簡(jiǎn)單的加權(quán)融合又會(huì)出現(xiàn)“融合鬼影”現(xiàn)象,不能達(dá)到完美的無縫拼接效果。圖7所示為經(jīng)過加權(quán)融合后拼接的兩幅影像,從它可以看出雖然拼接縫得到了很好處理,但在標(biāo)記紅圈的位置出現(xiàn)了嚴(yán)重的“融合鬼影”現(xiàn)象。
圖5 存在匹配誤差導(dǎo)致的拼接問題
圖6 曝光差異導(dǎo)致的拼接問題
圖7 拼接融合鬼影
Duplaquet在1998年提出了一個(gè)最佳拼接縫搜索準(zhǔn)則。
式中:Ecolor表示兩幅待拼接影像上所有重疊像素點(diǎn)的灰度值之差,Egeometry表示兩幅待拼接影像上所有重疊像素點(diǎn)的結(jié)構(gòu)值之差;Egeometry是通過修改Sobel算子完成的。但是采用Sobel算子計(jì)算梯度時(shí)沒有考慮到像素點(diǎn)周圍結(jié)構(gòu)的相似性,因此不能夠找到最理想的拼接縫??紤]到以該像素點(diǎn)為中心的對(duì)角線方向的4個(gè)邊緣像素的相關(guān)性的差值作為衡量像素點(diǎn)幾何結(jié)構(gòu)相似度的評(píng)價(jià)標(biāo)準(zhǔn),本文使用新的梯度計(jì)算模板。sx和sy即為采用的新梯度模板在x和y方向上的向量。
如果f1、f2為任意兩幅待拼接原始影像,那么Egeometry的計(jì)算公式如下:
Diff的計(jì)算是先分別計(jì)算f1和f2在x,y方向的梯度之差,再將計(jì)算得到的兩個(gè)梯度之差相乘得到最終結(jié)果。為了解決采用簡(jiǎn)單加權(quán)平均并不能完全消除拼接縫和“融合鬼影”的問題,本文提出了基于動(dòng)態(tài)規(guī)劃的最佳拼接縫搜索策略與加權(quán)羽化相結(jié)合來解決上述問題。
圖8中標(biāo)記的紅線即為利用基于動(dòng)態(tài)規(guī)劃的最佳拼接縫搜索策略得到的最佳拼接縫,可以看到搜索的最佳拼接縫完全繞開房屋,且拼接縫兩邊的兩幅影像灰度差異很小,沿著該拼接縫拼接得到的影像基本可以完全達(dá)到無縫拼接要求,并有效的去除了“融合鬼影”。但如果待兩幅拼接影像色調(diào)差異過大,僅僅使用前文提到的該方法也只能達(dá)到使拼接后影像看不出有錯(cuò)位現(xiàn)象,沿著拼接縫還是會(huì)有一個(gè)固定的色調(diào)差異,遇到這種情況可以選取拼接縫兩邊各n個(gè)像素,對(duì)羽化區(qū)域內(nèi)的像素進(jìn)行加權(quán)平均實(shí)現(xiàn)灰度平滑過渡,n值選取不宜過大。
圖8 動(dòng)態(tài)規(guī)劃法最佳拼接縫搜索拼接效果圖
本文的無人機(jī)影像拼接系統(tǒng)模塊設(shè)計(jì)基于改進(jìn)的SIFT算法特征提取和匹配、變換模型參數(shù)優(yōu)化求解、影像融合三個(gè)步驟,主要模塊包括:特征提取與匹配模塊、RANSAC算子剔粗差模塊、模型參數(shù)優(yōu)化求解模塊、拼接縫搜索模塊、羽化處理模塊。其中,特征提取與匹配模塊主要采用基于Sift算子的特征提取,關(guān)鍵點(diǎn)的匹配采用k-d樹的數(shù)據(jù)結(jié)構(gòu)來完成搜索,構(gòu)建尺度空間第一階第一層時(shí)不采用擴(kuò)大兩倍的原始影像,實(shí)驗(yàn)表明這種方法能有效地提高影像匹配速度。剔除粗差模塊利用RANSAC算子有效的剔除了誤匹配點(diǎn)。模型參數(shù)優(yōu)化求解模塊主要采用8參數(shù)變換優(yōu)化法求解方法。拼接縫搜索模塊采用基于動(dòng)態(tài)規(guī)劃的最優(yōu)拼接縫搜索算法。羽化處理模塊主要針對(duì)最佳拼接縫搜索完畢后兩幅影像仍有較大灰度差異的情況下對(duì)拼接縫周圍各n個(gè)像素距離內(nèi)的影像點(diǎn)采用加權(quán)融合的羽化處理策略,使影像灰度過渡平滑。無人機(jī)拼接系統(tǒng)使用C++語言實(shí)現(xiàn)了系統(tǒng)核心模塊算法的開發(fā),并調(diào)用了GDAL16版本動(dòng)態(tài)鏈接庫(kù)以及gsl1.8數(shù)學(xué)庫(kù)。
表2中的實(shí)驗(yàn)指標(biāo)統(tǒng)計(jì)了坪山地區(qū)第一條航帶14張影像的粗匹配特征點(diǎn)數(shù)、RANSAC內(nèi)點(diǎn)數(shù)目、totalRMS、匹配時(shí)間、拼接時(shí)間等5項(xiàng)指標(biāo)。可以看出實(shí)驗(yàn)考核指標(biāo)能夠滿足城郊區(qū)災(zāi)害應(yīng)急情況下,具有較高精度的無人機(jī)影像全景圖無縫快速拼接的要求。
圖9為坪山地區(qū)第一條航帶14張影像的拼接效果圖,圖10為坪山地區(qū)7張影像拼接縫搜索示意圖,圖11為坪山地區(qū)3條航帶30張影像的拼接效果圖。
表2 實(shí)驗(yàn)指標(biāo)統(tǒng)計(jì)表
圖9 坪山地區(qū)第一條航帶14張影像拼接效果圖
圖10 坪山7張影像拼接縫搜索示意圖
圖11 坪山地區(qū)三條航帶30張影像拼接效果圖
由以上實(shí)驗(yàn)可以看出本文提出的無人機(jī)影像拼接技術(shù)方案是行之有效的。無人機(jī)多幅影像拼接利用本文方法能加快影像處理速度,不會(huì)出現(xiàn)由于匹配精度導(dǎo)致的地物明顯錯(cuò)位,并且能夠消除因?yàn)榇嬖谄ヅ湔`差采用簡(jiǎn)單加權(quán)融合導(dǎo)致的“融合鬼影”現(xiàn)象,多幅影像拼接整體色調(diào)基本一致,沒有出現(xiàn)很明顯的拼接縫。
本文面向城郊區(qū)災(zāi)害應(yīng)急中無人機(jī)遙感數(shù)據(jù)的實(shí)際應(yīng)用要求,針對(duì)無人機(jī)單幅影像數(shù)據(jù)量大,拼接耗費(fèi)時(shí)間長(zhǎng)的問題改進(jìn)了SIFT算子拼接過程,通過構(gòu)建影像金字塔第一層不采用擴(kuò)大兩倍采樣的策略,并且通過減少金字塔的階、層達(dá)到加快無人機(jī)影像拼接速度的目的,通過對(duì)坪山地區(qū)的實(shí)驗(yàn),驗(yàn)證了采用這種方法不會(huì)影響拼接的穩(wěn)定性。另外針對(duì)城郊區(qū)房屋交錯(cuò)的特點(diǎn),采用基于動(dòng)態(tài)規(guī)劃的最佳拼接縫搜索與加權(quán)平均相結(jié)合的融合策略,很好地解決了傳統(tǒng)拼接方法所遇到的拼接縫問題和“融合鬼影”問題。
[1]Kuglin C,Hines D.The phase correlation image alignmentmethod[C]//Proc IEEE Conference on Cybernetics and Society.New York,United States,1975:163-165.
[2]Srinivasa B Reddy,Chatterji B N.An FFT-based technique for translation ,rotation,and scale-invariant image registration[J].IEEE Transactions on Image Processing.1996,8(5):1266 -1271.
[3]Richard Szeliski.Videomosaics for virtual environments[J].IEEE Computer Graphics and Applications,1996,16(2):22-30.
[4]IraniM,Peleg S.Improving resolution by lmage registration[J].Graph Models Image Process.1991,53(3):231-239.
[5]Brown M,Lowe D G.Recognising panoramas[C]//Proceedings of the 9th IEEE International Conference on Computer Vision.IEEE,2003:1218-1225.
[6]David G Lowe.Distinctive image features from scale-invariant keypoints[J].Computer Science Department,2004,60(2):91-110 .
[7]Matthew Brown,David G Lowe.Automatic panoramic image stitching using invariant features[J].International Journal of Computer Vision.2007,74(1):59-73.
[8]王小睿,吳信才.遙感多圖像的自動(dòng)配準(zhǔn)方法[J].中國(guó)圖象圖形學(xué)報(bào),1997,2(10):735-739.
[9]侯舒維,郭寶龍.一種圖像自動(dòng)拼接的快速算法[J].計(jì)算機(jī)工程,2005,31(15):70-72.
[10]方賢勇,潘志庚,徐丹.圖像拼接的改進(jìn)算法[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2003,15(11):1362-1366.
[11]張劍清,孫明偉,張祖勛.基于蟻群算法的正射影像鑲嵌線自動(dòng)選擇[J].武漢大學(xué)學(xué)報(bào):信息科學(xué)版,2009,34(6):675-678.
Approach to Fast M osaic UAV Images for Disaster Emergency
LiMing1,2,Liu Huan3and Zhu Xinyan2
(1.School of Remote Sensing and Information Engineering,Wuhan University,Wuhan 430074,China;2.State Key Laboratory of Information Engineering in Surveying,Mapping and Remote Sensing,Wuhan University,Wuhan 430074,China;3.Wuhan Institute of Marine Communication,Wuhan 430079,China)
It is known that some natural disasters(like earthquake,flood)can cause a great damage in short time.Getting enough disaster information timely,accurately and fast is the premise of disastermitigation.Rely on UAV fast stitching technique of remote sensing data,for disaster prevention and mitigation departments,has become amore and more important first choice information source of first-hand disaster information extraction.The paper considers UAV to SIFT image characteristics feature matching process optimization,and by using transform optimization method for calculating the optimum transformation model parameters,based on combination of the best dynamic programming seam-line search strategy and weighted average's fusion strategy.It is good to eliminate the joining together fusion ghost phenomenon.The paper provides reliable technical support for the benefit of the disaster information source.
conurbation;disaster emergency;UAV;SIFT;RANSAC;image fusion;imagemosaics
TP75;P315.9
A
1000-811X(2012)03-0139-06
2011-11-18
2012-01-18
國(guó)家“八六三”“智慧城市”課題(2011AA010500);測(cè)繪遙感信息工程國(guó)家重點(diǎn)實(shí)驗(yàn)室專項(xiàng)科研經(jīng)費(fèi);武漢大學(xué)中央高?;究蒲袠I(yè)務(wù)費(fèi)專項(xiàng)資金
李明(1985-),男,湖北荊州人,博士研究生,主要從事遙感信息處理、災(zāi)害遙感應(yīng)用與空間信息可視化研究.E-mail:lisouming@whu.edu.cn