溫 奇,李苓苓,劉慶杰,樊文鋒,林月冠,孫俊格
1.中華人民共和國民政部 國家減災(zāi)中心,北京 100124;2.中華人民共和國民政部 減災(zāi)和應(yīng)急工程重點(diǎn)實(shí)驗(yàn)室,北京 100124;3.北京航空航天大學(xué) 計(jì)算機(jī)學(xué)院,北京 100191;4.國家測繪地理信息局 衛(wèi)星測繪應(yīng)用中心,北京 101300;5.華東計(jì)算技術(shù)研究所,上海 200233
高空間分辨率遙感影像可以更加精確地分析地物覆蓋類型、提取感興趣目標(biāo)。然而,空間分辨率的提高在帶來便利的同時(shí)也帶來了挑戰(zhàn)。高分辨率遙感圖像中場景復(fù)雜、目標(biāo)類型多樣,即便是同一類型的目標(biāo),也會呈現(xiàn)出多種形態(tài),給目標(biāo)的檢測識別帶來極大的困難。近年來,注意力選擇機(jī)制被廣泛的應(yīng)用到模式識別領(lǐng)域中,并且在自然圖像的目標(biāo)識別方面已經(jīng)收到了很好的效果,在遙感圖像處理與解譯中也受到廣泛關(guān)注[1]。
自從文獻(xiàn)[2]提出第一個(gè)可計(jì)算的視覺顯著性區(qū)域檢測方法以來,顯著性檢測方法得到了快速的發(fā)展[3-6],在很多圖像處理領(lǐng)域得到了成功的應(yīng)用,并很快被引入到遙感圖像處理與解譯中。文獻(xiàn)[7]將顯著性計(jì)算應(yīng)用到船只檢測與識別中。文獻(xiàn)[1]將基于HSI顏色空間的視覺注意力模型應(yīng)用到海上船只檢測中,該模型可以較為有效地消除海浪雜波的干擾,提取到的顯著性區(qū)域能夠比較緊湊地包含目標(biāo)。同樣為減少海線上雜波的干擾,文獻(xiàn)[8]利用局部和全局顯著性融合的方法來計(jì)算顯著性目標(biāo)。文獻(xiàn)[9]首先利用頻域差值的方法[5]獲得圖像的全局顯著圖,然后再利用Gabor濾波器組得到圖像的能量子圖,最后融合以得到目標(biāo)。文獻(xiàn)[10]在高分辨率全色圖像中應(yīng)用基于視覺注意顯著性計(jì)算模型,用以提取顯著性目標(biāo)。這些方法對干凈背景的場景,如海面上的顯著目標(biāo)有較好的結(jié)果,但對復(fù)雜場景的不能得到理想的顯著性圖像,難以精確提取有用目標(biāo)。為了克服這一缺點(diǎn),文獻(xiàn)[11-12]將顯著性特征與概要特征相結(jié)合并利用支持向量機(jī)來檢測圖像中的目標(biāo)。文獻(xiàn)[13]通過引入局部能量通道來改進(jìn)傳統(tǒng)的顯著性檢測方法,得到了更好的顯著性目標(biāo)輪廓;同時(shí)該方法引入了最大熵準(zhǔn)則自適應(yīng)地分割圖像,并以熵作為標(biāo)準(zhǔn)來選取最優(yōu)目標(biāo)檢測結(jié)果。受文獻(xiàn)[13]啟發(fā),本文提出了一種結(jié)合顯著性分析與圖分割的面向?qū)ο竽繕?biāo)自動提取方法。該方法采用自底向上的視覺顯著性模型分析圖像的顯著性,結(jié)合圖分割的結(jié)果,自適應(yīng)地選取其中顯著性較高的分割塊,可自動地獲取圖像中顯著目標(biāo)。
遙感影像中包含房屋、道路、橋梁、艦船等人造目標(biāo)的區(qū)域是人視覺注意停留最多的區(qū)域,也是顯著性較強(qiáng)的區(qū)域。在災(zāi)害評估、城市監(jiān)測、城區(qū)制圖等應(yīng)用中,這些區(qū)域也是需要檢測、提取的感興趣區(qū)域。然而,在復(fù)雜的地面場景中,由于“同物異譜”、“異物同譜”的影響,目標(biāo)與背景的特征差異并不明顯,而且遙感影像不存在景深,前景目標(biāo)與背景區(qū)域相比并不“突出”。因此單純的基于差異計(jì)算的顯著性檢測方法難以檢測出精確的感興趣區(qū)域。為了有效利用感興趣區(qū)域的特點(diǎn)提取顯著目標(biāo),本文提出了一種融合“基于圖的視覺顯著性(graph based visual saliency,GBVS)”[3]和“基于邊線密度的視覺顯著性(line density based visual saliency,LDVS)”[15]的顯著性模型。綜合利用遙感圖像中各種特征以及目標(biāo)具有豐富的邊緣這一先驗(yàn)知識,可以有效地提取高分辨率遙感圖像中的顯著性目標(biāo)。同時(shí),采用面向?qū)ο蟮姆治龇椒?,利用Graph Cut圖像分割算法獲得影像中的“同質(zhì)”對象塊,利用Otsu自動閾值方法[14]自適應(yīng)地提取具有較為精確輪廓的目標(biāo)。本文的目標(biāo)提取算法流程如圖1所示。
2.1.1 GBVS顯著性模型
GBVS方法是在Itti模型基礎(chǔ)上引入了圖論方法計(jì)算圖像顯著性的一種方法。與Itti模型不同,GBVS方法將圖像的每一個(gè)像素(當(dāng)需要提高計(jì)算效率時(shí),可以用圖塊代替像素)看做圖的一個(gè)節(jié)點(diǎn)。節(jié)點(diǎn)之間的邊代表任意兩個(gè)節(jié)點(diǎn)之間的差異性。這個(gè)差異性度量可以取決于顏色、紋理等特征。GBVS模型具有計(jì)算效率較高和比直接求差的方法能更好表示不同特征層區(qū)別的特點(diǎn)。
本文中,輸入為多光譜圖像和全色圖像。多光譜圖像包括紅(R),綠(G),藍(lán)(B)和紅外波段(NIR)4個(gè)波段。在4個(gè)波段特征圖像上建立高斯金字塔R(σ)、G(σ)、B(σ)、NIR(σ)計(jì)算特征差異圖。圖像的方向特征在全色圖像上用Gabor濾波提取實(shí)現(xiàn)。
給定一個(gè)特征圖Mf,(下標(biāo)f表示某一特征)定義點(diǎn)p1(i1,j1)與p2(i2,j2)的差異為
由此,可以建立一個(gè)全聯(lián)通圖G,每一個(gè)像素點(diǎn)為圖的一個(gè)節(jié)點(diǎn),點(diǎn)p1(i1,j1)與p2(i2,j2)的邊的權(quán)值被賦予
式中,F(xiàn)(·)為一高斯核函數(shù)。通過G圖建立馬爾科夫鏈,這個(gè)馬爾科夫鏈的均衡分布為每一個(gè)點(diǎn)的差異值的大小,以此可獲取到差異圖像A。
最后,獲取得到的差異圖像A上建立另一個(gè)全聯(lián)通有向圖G′,點(diǎn)p1(i1,j1)與p2(i2,j2)的邊的權(quán)值為
再次建立馬爾科夫鏈,起均衡分布為每一個(gè)點(diǎn)的顯著性得分。經(jīng)過分值的歸一化處理,可以得到GBVS方法的顯著性圖像SGBVS。
2.1.2 基于邊線密度的顯著性模型
在高分辨率遙感圖像中,建筑物或者人工物體的結(jié)構(gòu)或者輪廓特征很明顯,特別是在這些物體聚集的區(qū)域,邊緣信息非常豐富。在目標(biāo)區(qū)域檢測過程中邊緣是很有用的目標(biāo)特征。邊緣信息分布密集的區(qū)域往往也是在后續(xù)圖像分析中需要關(guān)注的區(qū)域?;谶@種觀察,本文引入基于邊緣密度的顯著性計(jì)算模型[15]。LDVS方法簡單且輸入?yún)?shù)少,可對圖像中顯著性區(qū)域進(jìn)行有效提取。具體的算法流程如算法1所示。
圖1 基于顯著性和圖像分割的目標(biāo)提取流程圖Fig.1 The flow chart of the proposed target extraction method based on saliency detection and image segmentation
將此模型應(yīng)用于高分辨率遙感圖像,過程如下:輸入圖像I,使用邊緣檢測方法可得到邊緣信息圖像E。本文選取Sobel邊緣檢測算子。在圖像的任何一點(diǎn)使用此算子,將會產(chǎn)生對應(yīng)的梯度矢量或是其法矢量。因此在邊緣信息圖E中每一個(gè)像素值的亮度值代表了其邊緣強(qiáng)度值。然后,通過距離變換(distance transform,DT),可獲取圖像中的邊緣密度信息。
基于邊緣線密度的顯著性檢測方法如下:
DT圖像是通過對邊緣圖像進(jìn)行閾值分解得到的。其定義如下:
式中,a,b∈{-1,0,1};Bt為通過使用t進(jìn)行閾值分割得到的圖像;wa,b是一個(gè)3×3的權(quán)重模板卷積。通過DT變換,將一個(gè)點(diǎn)的邊緣強(qiáng)度值可分解到每個(gè)鄰居像素點(diǎn)。若某一個(gè)像素點(diǎn)離高強(qiáng)度的邊緣近,顯著性值會越高。
針對高分辨率遙感圖像,由于一些紋理會被檢測為邊緣信息(如森林中林木分布),這些邊緣雖然強(qiáng)度不高,不過密度很高,會影響檢測精度。因此,在預(yù)處理階段,對圖像進(jìn)行邊緣增強(qiáng),然后對檢測得到的邊緣圖像閾值分割,保留高強(qiáng)度的邊緣,過濾掉強(qiáng)度低的邊緣。
最后將所有的DT圖像線性疊加,疊加結(jié)果圖S中,離高邊緣密度或高邊緣強(qiáng)度區(qū)域越近的點(diǎn),顯著性得分會越高。最后通過下式可將其歸一化。
歸一化疊加后的圖像可得到基于邊緣密度信息的顯著性圖像Sedge。
2.1.3 融合GBVS和LDVS的顯著性模型
在遙感圖像的自動解譯過程中,由于目標(biāo)的多樣性與地物分布的復(fù)雜性,需要綜合考慮各種情況,將不同的特征有機(jī)的結(jié)合,才有可能取得較好的效果。通過檢測結(jié)果的分析,基于邊緣密度信息的顯著性計(jì)算方法可以很好地保留物體的邊界(邊界為較強(qiáng)的邊緣),基于圖論的顯著性計(jì)算方法能夠均勻化表示物體內(nèi)部的顯著性分布[3]。因此,為了提高顯著性區(qū)域的提取精度,本文將兩種方法獲取得到的顯著性圖融合。分析兩種顯著性圖像中顯著性大小的分布,本文使用2D的高斯型混合函數(shù)對其融合。函數(shù)定義如下
式中,Sedge和SGBVS都被線性歸一化,歸一化方法參見式(5)所示。參數(shù)σ決定了融合函數(shù)的形狀。若某一點(diǎn)的顯著性得分分別在Sedge和SGBVS一致時(shí),融合后其顯著性分?jǐn)?shù)會很高,也表示其在圖像中很顯著。
面向?qū)ο笥跋穹治隹梢员磉_(dá)和應(yīng)用語義信息特征[17],把影像分割成有意義的影像區(qū)域(對象)不僅能夠表達(dá)影像區(qū)域的光譜特征,還能表達(dá)豐富的空間和上下文特征等語義信息,從而使區(qū)分光譜相似的地類成為可能[18]。本文在顯著性檢測的基礎(chǔ)上,利用面向?qū)ο蟮姆治龇椒▉硖崛「叻直媛蔬b感圖像中感興趣的目標(biāo)。
2.2.1 基于GraphCut的對象塊分割
Graph Cut是近年來興起的一種基于圖論的分割方法[19],具有魯棒性強(qiáng)、全局最優(yōu)等特點(diǎn),用這種方法分割得到的結(jié)果可以更好地分割出不同質(zhì)區(qū)域的輪廓并且同質(zhì)區(qū)域內(nèi)部更為緊湊。
圖像分割可以轉(zhuǎn)換為求能量函數(shù)最優(yōu)化問題。一個(gè)分割S可以表示為一個(gè)二元向量A=[a1a2…aN],其中ai∈{0,1}表示第i個(gè)像素是“目標(biāo)”還是“背景”。則分割A(yù)的能量為
式中,R(A)為數(shù)據(jù)項(xiàng)或區(qū)域項(xiàng),表示分配一個(gè)像素p到“目標(biāo)”或“背景”的個(gè)體懲罰;B(A)為光滑項(xiàng)或邊界項(xiàng),用來表示兩個(gè)像素p和q之間不連續(xù)的懲罰。
文獻(xiàn)[19]證明,如果圖像用圖模型來表示,那么式(7)可以用最大流/最小割算法[20]求得最優(yōu)解。具體算法可參考文獻(xiàn)[20]。
本文在顯著性區(qū)域檢測的基礎(chǔ)之上,利用Graph Cuts圖像分割方法得到不相連的片狀區(qū)塊提取較為準(zhǔn)確的目標(biāo)輪廓。對于多光譜圖像,將其每一個(gè)通道作為輸入,并將結(jié)果進(jìn)行加法融合,可得到多光譜圖像的基于圖論的分割結(jié)果。這種方法獲取到的分割結(jié)果既不太粗糙也不過分細(xì)膩,而且此算法的時(shí)間復(fù)雜度O(nlogn),n為圖像邊的數(shù)量。在實(shí)際應(yīng)用中,此方法比較快速得到較為有效的分割結(jié)果。通過定義輸出圖像的分割系數(shù)以及最小分割塊的大小,可以獲取到較為理想的分割結(jié)果。
2.2.2 基于平均顯著度的目標(biāo)提取
利用2.1節(jié)所述方法得到的顯著性圖像中,每一個(gè)像素點(diǎn)的亮度為其顯著性得分的大小,得分越高,說明其越顯著。圖像分割方法將各個(gè)像素點(diǎn)分割為一些內(nèi)部特征比較類似的圖像塊。顯著性目標(biāo)為顯著性得分很高的分割塊的集合。因此,需要剔除像素點(diǎn)很少卻顯著性很高分割塊和面積很大卻顯著性低的分割塊。首先,通過控制分割的最小塊(例如,包含至少100個(gè)像素點(diǎn))可剔除像素點(diǎn)很少卻高顯著性的區(qū)域。其次,通過閾值選取平均顯著性的大小可剔除面積很大卻顯著性低的分割塊。圖像塊Si(i=1,2,…,m)的平均顯著性AvgSaliency(Si)定義如下
式中,m為分割結(jié)果中包含的分割塊的數(shù)量;Saliency(i,j)為點(diǎn)(i,j)的顯著性得分。本文通過Otsu方法[14]來自動選取合適的閾值。通過閾值選取平均顯著性高的分割塊,可將圖像分為兩類:目標(biāo)類與背景類。顯著度大于閾值的為目標(biāo)類,反之則為背景類。本文所述面向?qū)ο竽繕?biāo)提取方法不再需要計(jì)算每個(gè)對象中復(fù)雜的特征,降低了計(jì)算復(fù)雜度,提高了提取效率。
本文設(shè)計(jì)了兩組試驗(yàn)來評估所提方法的性能。兩組試驗(yàn)都選取了Quickbird高分辨圖像作為試驗(yàn)數(shù)據(jù)。試驗(yàn)1用于驗(yàn)證基于GBVS和LDVS融合的顯著性方法計(jì)算高分辨率遙感影像中顯著性區(qū)域的有效性,所使用的數(shù)據(jù)如圖2所示,拍攝地點(diǎn)為中國鄭州某地,時(shí)間為2002年4月6日,大小為300像素×300像素,左邊為原始圖像RGB真彩色顯示,右邊為手工標(biāo)注基準(zhǔn)圖像。圖像中顯著性目標(biāo)為一個(gè)工廠,其內(nèi)部的白色柱狀建筑在圖像中十分突出,為“顯著性”區(qū)域。由于現(xiàn)在還沒有公開的用于顯著性檢測的遙感圖像數(shù)據(jù)庫,采用了文獻(xiàn)[6]所使用的評價(jià)方法,通過人工標(biāo)注一個(gè)多邊形區(qū)域,其中包含了圖像中最為顯著的目標(biāo),作為基準(zhǔn)圖像。
圖2 試驗(yàn)1數(shù)據(jù)和基準(zhǔn)數(shù)據(jù)Fig.2 Data set used in experiment 1and ground truth
試驗(yàn)2所使用的數(shù)據(jù)如圖3所示。圖4數(shù)據(jù)拍攝于2011年4月19日,地點(diǎn)為北京市,區(qū)域大小分別為1280像素×768像素和1442像素×789像素。兩塊區(qū)域都包含了大量的人工建筑物,且較為分散,尤其是第2幅圖像,建筑區(qū)域極為分散,檢測的難度也更大。在圖3中,用Photoshop軟件手工標(biāo)定了基準(zhǔn)圖像,驗(yàn)證算法的準(zhǔn)確率。在試驗(yàn)過程中筆者在預(yù)處理階段將所有影像數(shù)據(jù)各個(gè)波段的強(qiáng)度值規(guī)則化到[0,255]。
圖3 試驗(yàn)2數(shù)據(jù)和基準(zhǔn)圖像(顯示為RGB真彩色圖像)Fig.3 Data sets used in experiment 2and ground truth(these images are displayed in true color)
圖4 顯著性計(jì)算結(jié)果對比Fig.4 Comparisons of saliency detection results
試驗(yàn)1:分別用GBVS、LDVS和融合后方法計(jì)算試驗(yàn)數(shù)據(jù)的顯著性圖像,試驗(yàn)結(jié)果如圖5所示。試驗(yàn)結(jié)果顯示,3種顯著性計(jì)算方法得到的顯著性圖像在目標(biāo)區(qū)域顯著性分?jǐn)?shù)很高,但是融合后的顯著性圖像比另外兩種效果要更好。因?yàn)槿诤虾蟮娘@著性圖像既能保持目標(biāo)區(qū)域內(nèi)部顯著性分?jǐn)?shù)分布均勻,而且也能保留更好的區(qū)域邊界。
圖5 選取前75%顯著區(qū)域的提取結(jié)果Fig 5 Extraction results by selecting top 75%saliency
通過選取閾值可以分割出目標(biāo)區(qū)域。計(jì)算不同的閾值T對應(yīng)的precision和recall,最終的精度/回收曲線如圖5(d)所示。精度/回收曲線顯示出在高精度的時(shí)候,GBVS和融合后的方法能夠有比較小的回收率,也就是說,這兩種方法可以有效地將目標(biāo)區(qū)域計(jì)算為顯著性較高的區(qū)域。當(dāng)回收率不斷增高時(shí),尤其是超過0.75時(shí)候,融合后的顯著性區(qū)域計(jì)算方法可得到最高的精度,這是由于GBVS方法中,顯著性大的區(qū)域比較集中在圖像中的圓環(huán)的中心區(qū)域,而在目標(biāo)區(qū)域的邊緣顯著性較低。因此,當(dāng)使用較大的閾值對顯著性圖像分割時(shí),融合后的圖像可以提取包含目標(biāo)最為全面的區(qū)域。
試驗(yàn)2:目標(biāo)檢測的目的是從復(fù)雜的遙感場景中提取出一些“突出”的目標(biāo)物體。這些目標(biāo)往往區(qū)域標(biāo)記較大,因此,在圖像分割階段,控制其最小分割塊的面積為10像素×10像素,以減少檢測階段的誤檢率。采用本文的基于GBVS和LDVS融合的顯著性模型來計(jì)算圖像的顯著性圖。首先建立8級的高斯金字塔,在多尺度下,提取多光譜遙感圖像中的特征,包括顏色特征、灰度紋理特征、方向特征。試驗(yàn)中發(fā)現(xiàn)引入近紅外特征,對顯著性模型改進(jìn)甚微。為了不增加計(jì)算量,選擇數(shù)據(jù)的紅綠藍(lán)3個(gè)波段作為試驗(yàn)數(shù)據(jù)。然后,計(jì)算全色圖像的基于線密度的顯著性圖。最終輸出的顯著性圖中顯著性分?jǐn)?shù)歸一化到[0,1]。GBVS和LDVS融合的顯著性圖像如圖6所示。
圖6 目標(biāo)分割結(jié)果對比Fig.6 Comparisons of target segmentation results
在目標(biāo)檢測階段,分割階段生成的分割塊可計(jì)算得到其平均顯著性。通過對分割塊閾值分割,檢測結(jié)果如圖6和圖7所示。在圖7中可以看到用LDVS提取到的結(jié)果范圍更廣一些,而GBVS檢測到的結(jié)果面積更小,而且有些地方存在空洞,而本方法則綜合了這兩者,即能保持目標(biāo)的形狀而又不存在空洞。這個(gè)結(jié)果也與試驗(yàn)1的相吻合。從表1中可以看出,基于視覺顯著模型的顯著性目標(biāo)檢測方法的檢測結(jié)果可以獲取93%以上的檢測精度,其誤檢率在8%~12%,說明檢測結(jié)果可用于后期的圖像智能處理,包括物體特征提取、物體識別等。
圖7 目標(biāo)提取結(jié)果Fig.7 Targets extraction results
從圖7中可以看到,兩幅圖中較為顯著的地方均為建筑物或者區(qū)域。從第1幅圖像上可以看到使用本方法可以提取到比較完整的建筑物。從圖上可以看到,在左邊及上邊的建筑區(qū)域仍然有一些“空洞”存在,這是因?yàn)檫@兩部分的房屋間隔較遠(yuǎn),中間的地貌以土地為主,與非建筑區(qū)域較為接近,顯著性較低,更接近于背景而與目標(biāo)相差較大,因此在提取過程中將此部分劃為背景。從圖上可以看到,圖中的兩條路非常明顯,顯著性較高與前景非常接近,因此誤檢率稍高。相比于第1幅圖像,第2幅圖像上的建筑物尺度更小,分布也更密集,因此以提取建筑區(qū)域來代替單個(gè)建筑物。從掩碼圖像上可以看到,本方法在較大的圖像上也能夠比較精確地提取出建筑區(qū)域。
表1 目標(biāo)提取評價(jià)結(jié)果Tab.1 Quality assessments of target extraction
本文算法在 Matlab R2011b平臺(Dual-Core CPU i3,4GB RAM,win7 32bit)下實(shí)現(xiàn),部分算法進(jìn)行了優(yōu)化。程序運(yùn)行時(shí)間21±0.5s。程序中所有算法均順序執(zhí)行,其中GBVS算法運(yùn)行時(shí)間約為17s,LDVS算法運(yùn)行時(shí)間約0.5s,Graph Cut分割算法運(yùn)行時(shí)間在3s以下,提取目標(biāo)的時(shí)間小于0.05s。
本文將視覺顯著性模型與圖像分割相結(jié)合,提出自適應(yīng)的顯著目標(biāo)分割方法,實(shí)現(xiàn)了高分辨率遙感圖像中目標(biāo)精確的分割提取。在視覺顯著性模型中,通過GBVS與LDVS融合,綜合利用多光譜圖像與全色圖像中的顏色、方向、紋理以及邊緣等特征,使顯著目標(biāo)提取的更加完整。同時(shí),通過利用圖論分割方法,獲取特征相似的圖像塊,然后以圖像塊為單位分析其顯著性大小,利用Otsu方法自動獲取閾值并提取顯著性目標(biāo)。選取Quickbird多光譜數(shù)據(jù)作為試驗(yàn)數(shù)據(jù)集,試驗(yàn)結(jié)果表明此方法能夠在較高檢測精度的同時(shí)有效降低的冗余檢測率,是可用于遙感圖像全自動的顯著性目標(biāo)提取和高分辨率遙感圖像自動分析的一種有效手段。
[1] YE Congying,LI Cuihua.HSI Based Visual Attention Model and Its Application in Ship Detection[J].Journal of Xiamen University :Natural Science,2005,44(4):484-488.(葉聰穎,李翠華.基于HSI的視覺注意力模型及其在船只檢測中的應(yīng)用[J].廈門大學(xué)學(xué)報(bào):自然科學(xué)版,2005,44(4):484-488.)
[2] ITTI L,KOCH C,NIEBUR E.A Model of Saliency-based Visual Attention for Rapid Scene Analysis [J].IEEE Transaction PAMI,1998,20(11):1254-1259.
[3] HAREL J,KOCH C,PERONA P.Graph-based Visual Saliency[C]∥ Proceedings of NIPS.[S.l.]:NIPS,2006:545-552.
[4] GAO D,MAHADEVAN V,VASCONCELOS N.The Discriminant Center-surround Hypothesis for Bottom-up Saliency[C]∥ Proceedings of NIPS.[S.l.]:NIPS,2007:1-8.
[5] HOU X,ZHANG L.Saliency Detection:A Spectral Residual Approach[C]∥ Proceedings of CVPR.[S.l.]:CVPR,2007:1-8.
[6] ACHANTA R,HEMAMI S,ESTRADA F,et al.Frequency-tuned Salient Region Detection[C]∥ Proceedings of CVPR.[S.l.]:CVPR,2009:1597-1604.
[7] ANTELO J.Ship Detection and Recognition in High-resolution Satellite Images[C]∥ Proceedings of IGARSS.Cape Town:IEEE,2009:2894-2897.
[8] REN Lei,SHI Chaojian,RAN Xin.Small Target Detection in Ocean Environment Using Local and Global Saliency [J].Journal of Shanghai Maritime University,2012,33(2):1-5.(任蕾,施朝健,冉鑫.結(jié)合局部和全局顯著性的海上小目標(biāo)檢測[J].上海海事大學(xué)學(xué)報(bào),2012,33(2):1-5.)
[9] AO Huanhuan,YU Nenghai,LI Weihai,et al.Ship Detection Algorithm Based on Vision Attention Allocation Mechanism[C]∥Proceedings of International Conference Remote Sensing.[S.l.]:IEEE,2010:583-587.
[10] XU Gang.Extracting Salient Object from Remote Sensing Image Based on Guidance of Visual Attention[C]∥Proceedings of SPIE-The International Society for Optical Engineering.[S.l.]:SPIE,2007:6790-6794.
[11] LI Zhicheng,QIN Shiyin,LTTI L Extraction of Saliency-Gist Features and Target Detection for Remote Sensing[J].Journal of Beijing University of Aeronautics and Astronautics,2010,36(6):659-662.(李志成,秦世引,Itti Laurent.遙感圖像的顯著-概要特征提取與目標(biāo)檢測[J].北京航空航天大學(xué)學(xué)報(bào),2010,36(6):659-662.)
[12] LI Zhicheng,ITTI L.Saliency and Gist Features for Target Detection in Satellite Images[J].IEEE Transaction Image Process,2011,20(7):2017-2029.
[13] ZHAO Hongwei,CHEN Xiao,LIU Pingping,et al.Adaptive Segmentation for Visual Salient Objects [J].Optics and Precision Engineering,2013,21(2):531-538.(趙宏偉,陳霄,劉萍萍,等.視覺顯著性目標(biāo)的自適應(yīng)分割[J].光學(xué)精密工程,2013,21(2):531-538.)
[14] NOBUYUKI OTSU.A Threshold Selection Method from Gray-level Histograms [J].IEEE Transactions on Systems,Man and Cybernetics,1979,9(1):62-66.
[15] ROSIN P L.A Simple Method for Detecting Salient Regions[J].Pattern Recognition,2009,42(11):2363-2371.
[16] TAN Qulin.Urban Building Extraction from VHR Multispectral Images Using Object-based Classification [J].Acta Geodaetica et Cartographica Sinica,2010,39(6):618-623.(譚衢霖.高分辨率多光譜影像城區(qū)建筑物提取研究[J].測繪學(xué)報(bào),2010,39(6):618-623.)
[17] TAO Chao,TAN Yihua,CAI Huajie,et al.Objectoriented Method of Hierarchical Urban Building Extraction from High-resolution Remote-Sensing Imagery [J].Acta Geodaetica et Cartographica Sinica,2010,39(1):39-45.(陶超,譚毅華,蔡華杰,等.面向?qū)ο蟮母叻直媛蔬b感影像城區(qū)建筑物分組提取方法[J].測繪學(xué)報(bào),2010,39(1):39-45.)
[18] SONG Z.A Region-based Approach to Building Detection in Densely Build-up High Resolution Satellite Image[C]∥ Proceedings of ICIP.Atlanta:IEEE,2006:3225-3228.
[19] BOYKOV Y,JOLLY M P.Interactive Graph Cuts for Optimal Boundary and Region Segmentation of Objects in ND Images[C]∥ Proceedings of CVPR.[S.l.]:CVPR,2001:105-112.
[20] YURI BOYKOV,VLADIMIR KOLMOGOROV.An Experimental Comparison of Min-Cut/Max-Flow Algorithms for Energy Minimization in Vision[J].IEEE Transaction of PAMI,2004,26(9):1124。