国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于視覺單詞選擇的高分辨率遙感圖像飛機目標檢測

2014-07-25 04:29:08李士進仇建斌
數(shù)據(jù)采集與處理 2014年1期
關(guān)鍵詞:碼本直方圖單詞

李士進 仇建斌 於 慧

(河海大學計算機與信息學院,南京,210098)

引 言

隨著遙感技術(shù)的迅速發(fā)展,遙感圖像的空間分辨率越來越高,對遙感圖像中感興趣的目標進行定位和辨識已經(jīng)成為一個重要的研究方向[1-5]。作為一種重要的戰(zhàn)略目標,基于高分辨率遙感圖像的飛機目標檢測,無論在軍事還是民用方面都有重要的意義。

目前,基于遙感圖像的飛機目標檢測技術(shù),大多采用由下而上的數(shù)據(jù)驅(qū)動型策略,通常采用先分割或邊緣提?。?-3],然后采用模板匹配[6]的方法,但是由于遙感圖像質(zhì)量和飛機陰影的影響,通常分割后飛機目標會斷開成幾個區(qū)域,很難完整提取出飛機目標邊緣輪廓,所以通常做法是再進行區(qū)域合并或者邊緣的連接。這種方法不僅實現(xiàn)起來很復雜而且抗干擾能力很弱,同時由于飛機的類型很多,很難用一個統(tǒng)一的模板來檢測所有的飛機目標,因此往往檢測結(jié)果不令人滿意。文獻[7]提出了一種采用自上而下知識驅(qū)動型策略的飛機檢測方法,但是該方法對圖像灰度值分布有很強的依賴性,對于有偽裝的飛機目標或者飛機與背景區(qū)分程度較弱的圖像,存在很多漏檢的情況。

近年來,基于視覺詞袋的圖像表示已被廣泛地應(yīng)用到計算機視覺和多媒體領(lǐng)域[8],本文將視覺詞袋模型引入到高分辨遙感圖像中用于飛機目標檢測,對飛機圖像訓練集構(gòu)建描述飛機特性的視覺碼本,并將此作為檢測依據(jù),通過特征選擇有效壓縮了視覺碼本的規(guī)模,選出了對飛機檢測最為重要的特征,從而減少后續(xù)檢測的計算量,提高了算法的檢測性能。

1 視覺詞袋模型

視覺詞袋是目前比較流行的基于局部屬性的圖像表示方法,源于文檔分析領(lǐng)域中的詞袋表示(bag-of-words)。López-Sastre等將監(jiān)督學習的聚類方法引入到視覺詞匯表的構(gòu)建過程,增加了視覺單詞的語義表達力和區(qū)別力[9];Elsayad等針對視覺單詞空間排列信息的缺失,采用高斯混合模型來描述視覺單詞的空間分布[10],王宇新等提出了一種用于圖像場景分類的空間視覺詞袋模型[11]?;羧A等對圖像進行多尺度變換并構(gòu)建多尺度視覺詞匯表,將圖像表示為不同尺度特征[12]。

視覺詞袋模型的基本思想是將圖像通過關(guān)鍵點檢測或按固定尺寸分割成同等大小的圖像片段并通過某種算法表示為局部視覺特征。通過對局部視覺特征集的聚類構(gòu)建描述目標特性的視覺碼本,由每個聚類中心代表的視覺單詞組成,并用一個可供分類的特征向量直方圖表示[13]。

在高分辨率遙感飛機圖像目標識別中,首先提取所有飛機圖像的SIFT局部特征,用K-means[14]聚類算法對這些特征進行聚類形成視覺單詞,然后將所有視覺單詞組成一個可以描述高分辨率遙感飛機圖像形態(tài)特征的視覺碼本。任一高分辨率遙感飛機圖像均可表達為該幅圖像提取的SIFT局部特征關(guān)于該視覺碼本中各視覺單詞出現(xiàn)頻次的直方圖。

基于視覺詞袋表示方法的遙感圖像中飛機檢測的過程如圖1所示。

圖1 遙感飛機圖像視覺詞袋方法的表示過程Fig.1 The procedure of bag-of-visual-words extraction from remote sensing images

2 基于視覺單詞選擇的高分辨率遙感飛機圖像目標檢測

2.1 視覺單詞選擇算法

在飛機目標的檢測過程中,視覺碼本太小,一些不相似的描述符可能會與相同的視覺單詞相對應(yīng),從而缺少鑒別能力;視覺碼本太大時,某些相似的描述符可能會被匹配到不同的視覺單詞上去,造成冗余,且需要更多的存儲和計算資源。因此有必要對視覺碼本進行特征選擇以去除視覺碼本中相關(guān)性不高、冗余度大的視覺單詞。

Dash和Liu提出一種特征選擇框架[15],文獻[16]提出將互信息、比值比和線性支持向量機結(jié)合應(yīng)用來選取最具信息量的視覺單詞。文獻[17]使用Boosting特征選擇方法從多分辨率視覺碼本中選取最具鑒別力的視覺單詞。文獻[18]提出了一種基于相關(guān)性及冗余度分析的新的特征選擇結(jié)構(gòu),具體如圖2所示。從視覺單詞間的相關(guān)性及冗余度角度考慮,本文采用文獻[18]提出的特征選擇框架進行視覺單詞選擇。衡量兩個視覺單詞之間的相關(guān)性時,選用基于熵概念的對稱不確定性作為相關(guān)性度量。隨機變量X的信息熵如下式所示

其中P(xi)為X每個取值的概率密度函數(shù),在Y給定時X的條件信息熵定義為

其中P(xi|yj)為兩者的條件概率。

在Y給定的條件下X的信息增益為

最終的非線性相關(guān)性度量為對稱不確定性,計算公式為

圖2 基于相關(guān)性及冗余度分析的特征選擇結(jié)構(gòu)Fig.2 The framework of feature selection based on relevance and redundancy analysis

2.2 算法描述

2.2.1 訓練階段

首先提取所有飛機訓練圖像的SIFT局部特征并進行匯總,用K-means方法進行聚類生成K個視覺單詞,構(gòu)成高分辨率遙感飛機圖像初始視覺碼本。然后對初始視覺碼本進行視覺單詞選擇,得到最終精簡的高分辨率遙感飛機圖像視覺碼本。

視覺單詞選擇具體算法步驟如下:

(5)重復(4)中的操作直到Wlist′為空,此時所有的視覺單詞都已被處理,冗余度分析完畢。Wlist即是最終精簡且具有鑒別力的高分辨率遙感飛機圖像視覺碼本。

得到新的飛機目標視覺碼本后,必須對訓練集中的所有圖像根據(jù)新的視覺碼本統(tǒng)計出各自的直方圖信息,完成訓練過程。針對每幅圖像,根據(jù)它的SIFT局部特征形成視覺單詞直方圖的過程如下所示:

(1)對每幅圖像的每個SIFT特征,計算它與視覺碼本中各個視覺單詞之間的歐氏距離。

(2)找出與對應(yīng)視覺單詞距離最近的SIFT局部特征,將隸屬于該視覺單詞的SIFT特征個數(shù)加1。

(3)重復步驟(1)~(2),直到該圖像的所有SIFT特征都處理完畢,此時得到該幅圖像關(guān)于新視覺碼本中所有視覺單詞的分布直方圖。

2.2.2 測試階段

對測試集中的每幅測試圖像提取它的SIFT局部特征,按照構(gòu)造訓練直方圖相同的方法構(gòu)造測試直方圖,計算與訓練集中所有訓練直方圖之間的相似程度,具體的測試過程為:

(1)對測試圖像,計算該圖像測試直方圖與訓練集中每一訓練圖像的直方圖的相似度——直方圖相交值。

(2)如果直方圖相交值大于預(yù)先設(shè)定的閾值,則認為該測試圖像為飛機目標,測試過程結(jié)束;否則轉(zhuǎn)(3)。

(3)與訓練集中其他未比較的訓練直方圖繼續(xù)步驟(1)~(2),如果遍歷整個訓練集都沒有找到滿足步驟(2)中條件的訓練圖像,則認為該測試圖像不是飛機圖像,測試過程結(jié)束。

3 實驗結(jié)果及分析

為了綜合評判視覺碼本的優(yōu)劣,本文采用F1-Measure作為最終的度量指標,該指標是根據(jù)檢測查全率R和查準率P定義的一個綜合評價指標,具體的計算公式為

本文在60幅快鳥高分辨率遙感飛機大圖像中選取測試圖像,這60幅大圖像中共包含238架飛機目標,共切分了325幅小測試圖像,其中219幅含飛機目標,106幅不含飛機目標。圖3給出了其中的一些代表性樣本。從圖3中可以看出本文訓練集不僅包含了不同類型、不同大小的飛機目標,還包含一些偽裝的飛機目標,能夠體現(xiàn)訓練樣本的多樣性。

提取這些飛機訓練圖像的SIFT局部特征匯總后共有6 100個,每個SIFT特征有128維。接著對這6 100個局部特征用K-means方法進行聚類生成視覺單詞,構(gòu)成高分辨率遙感飛機圖像視覺碼本。

圖3 遙感飛機圖像訓練集包含的各式飛機類型Fig.3 Typical airplane examples in the training set

本文在聚類階段嘗試了3個聚類數(shù)K,分別形成了包含200,500和1 000個視覺單詞的初始飛機圖像視覺碼本。分別對這3個視覺碼本進行視覺單詞選擇算法,結(jié)果如表1所示。雖然后兩種情況視覺單詞數(shù)較多,但冗余度較高,檢測結(jié)果反而較差(檢測率最高只有75%左右),因此下文只報告200個視覺單詞的檢測結(jié)果。

表1 不同聚類數(shù)進行單詞選擇結(jié)果Table 1 The feature selection results with different cluster numbers

圖4和圖5給出了幾個檢測的例子。對圖4~5的原始圖像(a)分別提取SIFT特征,第(d)列框內(nèi)的圖像為最終得到的檢測結(jié)果,可以發(fā)現(xiàn),大部分的飛機目標被正確檢測,同時一些SIFT特征點個數(shù)滿足要求的背景區(qū)域也被選中,如圖5。另外還存在一些漏檢情況,其原因主要是由于圖像SIFT特征點密集,會有很多區(qū)域重疊在一起而且這些區(qū)域的中心點都相距很近,經(jīng)過區(qū)域合并后這些相鄰區(qū)域的中心點都會被歸為一類,最終只算作一個目標區(qū)域,造成多個靠近的飛機漏檢。

用選擇視覺單詞后精簡的飛機視覺碼本對325幅測試圖像進行測試,與不進行單詞選擇時,直接采用原始所有200個視覺單詞對訓練集構(gòu)建訓練直方圖進行飛機識別時的情況對比,得到的測試結(jié)果如表2所示??梢钥闯觯瑢⒁曈X詞袋引入到高分辨率遙感圖像中用于飛機目標檢測識別是可行的。

表2 不同方法對相同測試集測試的情況Table 2 Comparison of detection results with/without feature selection

對于同樣的測試集,若不進行單詞選擇,當測試直方圖與訓練直方圖的相交值同樣大于等于0.75時,不能正確識別出任何一幅測試圖像,當相似度閾值取0.2時識別結(jié)果最好,但此時3個評判指標都不及本文選取的包含12個視覺單詞的視覺碼本對應(yīng)的評判指標,且此時測試圖像與訓練圖像的相似度很低(只有0.2),說明原有200個單詞中不相關(guān)、弱相關(guān)以及冗余單詞的存在嚴重影響了飛機目標的識別,在視覺單詞數(shù)較多時不能準確地描述對飛機目標識別最為重要的特征,說明了特征選擇的重要性以及必要性。

本文還分別用初始聚類成500和1 000類時選擇出的視覺碼本對測試圖像進行測試,兩者的查全率雖然都比較高,但是查準率卻遠遠低于初始聚成200類時選擇出的飛機碼本(只有65%左右),說明此時它們幾乎將第二類不含飛機目標的測試圖像都錯識別為飛機,說明此時的視覺碼本包含的視覺單詞鑒別能力較弱,不能準確區(qū)分飛機目標和非飛機目標,因而這兩組視覺碼本對飛機圖像來說不具有較強鑒別能力。

文獻[7]中的基于圓周頻率濾波法的飛機檢測方法是近年來提出的一種比較有效的方法,在本文數(shù)據(jù)集上的查準率為93.23%,查全率為75.21%,F(xiàn)1指標為83.26%,低于本文提出的基于視覺單詞選擇的檢測方法的結(jié)果(86.24%)?;趫A周頻率濾波法的飛機檢測,在飛機與背景反差比較大的遙感圖像中,檢測結(jié)果比較理想。但是在復雜背景下,特別是飛機有偽裝時,該方法漏檢情況嚴重,造成其查全率較低。而本文提出的飛機檢測方法大大提高了查全率,降低了飛機漏檢率。飛機檢測一般應(yīng)用于軍事領(lǐng)域,能否及時檢測出全部飛機目標對作戰(zhàn)指揮員把握敵我雙方動態(tài),快速作出反應(yīng),打贏未來高科技條件下信息戰(zhàn)爭顯得尤為重要。因此,以稍低的查準率代價換取較高查全率是值得的。本文方法比文獻[7]中圓周頻率濾波法更加高效,也更具應(yīng)用價值。

圖4 包含多個飛機目標的高分辨率遙感圖像檢測過程Fig.4 Illustration of the aircraft detection procedure

圖5 誤檢測情況Fig.5 Illustration of the aircraft detection procedure with false alarms

4 結(jié)束語

本文從視覺詞袋單詞選擇的角度提出了一種高分辨率遙感飛機圖像目標檢測的方法。首先對訓練集中的圖像提取SIFT局部特征進而通過K-means聚類方法聚類形成視覺單詞,所有視覺單詞組成描述高分辨率遙感飛機圖像的視覺碼本。接著針對初始視覺碼本視覺單詞數(shù)較多、且存在冗余和噪聲的特點,結(jié)合相關(guān)性及冗余度分析精簡了視覺單詞碼本的規(guī)模,選出了最能描述飛機目標特點的較少的視覺單詞,提高了視覺碼本的鑒別能力,減少了后續(xù)飛機檢測識別的計算量,提高了檢測效率,并且通過實驗驗證了提出方法的檢測率比較理想。本文從特征選擇角度研究了視覺詞袋模型在飛機檢測中的應(yīng)用,其前提是視覺單詞已經(jīng)生成。近年來,稀疏編碼特別是字典學習在圖像識別中得到了較廣泛的關(guān)注[19]。如何利用稀疏學習獲得飛機圖像更加有效的特征表示是今后值得研究的方向之一。

[1]徐大琦,倪國強,許廷發(fā).中高分辨力遙感圖像中飛機目標自動識別算法研究[J].光學技術(shù),2006,32(6):855-862.

Xu Daqi,Ni Guoqiang,Xu Tingfa.Study on the algorithm for automatic plane classification from remote sensing images with mid-high resolution[J].Optical Technique,2006,32(6):855-862.

[2]王樹國,黃勇杰,張生.可見光圖像中飛機目標的特征選擇及提?。跩].哈爾濱工業(yè)大學學報,2010,42(7):1056-1059.

Wang Shuguo,Huang Yongjie,Zhang Sheng.Selection and extraction of features of aircraft in optical image[J].Journal of Harbin Institute of Technology,2010,42(7):1056-1059.

[3]楊桄,張柏,王宗明,等.基于陰影搜索法的飛機目標遙感圖像分割研究[J].地理與地理信息科學,2006,22(1):48-50.

Yang Guang,Zhang Bai,Wang Zongming,et al.Study on segmentation of airplane object in remote sensing based on shadow-searching method[J].Geography and Geo-Information Science,2006,22(1):48-50.

[4]潘誠.極化SAR圖像中的機場和飛機目標檢測[D].上海:復旦大學,2012.

Pan Cheng.Detection of airport and airplane using PolSAR images[D].Shanghai:Fudan University,2012.

[5]張亞飛,朱敏慧.基于混沌理論和形態(tài)學變換的海面分布目標檢測[J].數(shù)據(jù)采集與處理.2008,23(2):123-128.

Zhang Yafei,Zhu Minhui.Detection of sea-surface distributed targets based on chaos theory and morphological transform[J].Journal of Data Acquisition and Processing,2008,23(2):123-128.

[6]馬時平,畢篤彥,陳嵐嵐.基于圖像匹配技術(shù)的飛機識別[J].計算機工程,2004,30(5):159-160.

Ma Shiping,Bi Duyan,Chen Lanlan.Airplane recognition based on image matching technology[J].Computer Engineering,2004,30(5):159-160.

[7]蔡紅蘋,耿振偉,粟毅.遙感圖像飛機檢測新方法——圓周頻率濾波法[J].信號處理,2007,23(4):539-543.

Cai Hongping,Geng Zhenwei,Su Yi.A new method to detect air planes in remote sensing image—Circlefrequency filter[J].Signal Processing,2007,23(4):539-543.

[8]周文罡.基于局部特征的視覺上下文分析及其應(yīng)用[D].合肥:中國科學技術(shù)大學,2011.

Zhou Wengong.Visual context analysis based on local features and its applications[D].Hefei:University of Science and Technology of China,2011.

[9]López-Sastre R J,Tuytelaars T,Acevedo-Rodríguez F J,et al.Towards a more discriminative and semantic visual vocabulary[J].Computer Vision and Image Understanding,2011,115(3):415-425.

[10]Elsayad I,Martinet J,Urruty T,et al.A new spatial weighting scheme for bag-of-visual-words[C]//2010International Workshop on Content-Based Mul-timedia Indexing(CBMI).[S.l.]:IEEE,2010:1-6.

[11]王宇新,郭禾,何昌欽,等.用于圖像場景分類的空間視覺詞袋模型[J].計算機科學,2011,38(8):265-268.

Wang Yu Xin,Guo He,He Cangqin,et al.Bag of spatial visual words model for scene classification[J].Computer Science,2011,38(8):265-268.

[12]霍華,趙剛.基于改進視覺詞袋模型的圖像標注方法[J].計算機工程,2012,38(22):276-278,282.

Huo Hua,Zhao Guang.Image annotation method based on improved BOVW model[J].Computer Engineering,2012,38(22):276-278,282.

[13]Lowe D G.Distinctive image features from scale-invariant key points[J].International Journal of Computer Vision,2004,60(2):91-110.

[14]MacQueen J.Some methods for classification and analysis of multivariate observations[C]//Proceedings of the Fifth Berkeley Symposium on Mathematical Statistics and Probability.[S.l]:University of Calif.Press,1967,(1):281-297.

[15]Dash M,Liu H.Feature selection for classification[J].Intelligent Data Analysis,1997,1(3):131-156.

[16]Jurie F,Triggs B.Creating efficient codebooks for visual recognition[C]//Tenth IEEE International Conference on Computer Vision,ICCV 2005.[S.l.]:IEEE,2005,1:604-610.

[17]Wang L.Toward a discriminative codebook:codeword selection across multi-resolution[C]//IEEE Conference on Computer Vision and Pattern Recognition,CVPR′07.[S.l.]:IEEE,2007:1-8.

[18]Yu L,Liu H.Efficient feature selection via analysis of relevance and redundancy[J].Journal of Machine Learning Research,2004,5:1205-1224.

[19]Yang Jianchao,Yu Kai,Gong Yihong,et al.Linear spatial pyramid matching using sparse coding for image classification.[C]//2009IEEE Conference on Computer Vision and Pattern Recognition,CVPR2009.[S.l.]:IEEE Press,2009:1794-1801.

猜你喜歡
碼本直方圖單詞
統(tǒng)計頻率分布直方圖的備考全攻略
Galois 環(huán)上漸近最優(yōu)碼本的構(gòu)造
免調(diào)度NOMA系統(tǒng)中擴頻碼優(yōu)化設(shè)計
符合差分隱私的流數(shù)據(jù)統(tǒng)計直方圖發(fā)布
基于有限域上仿射空間構(gòu)造新碼本
單詞連一連
用直方圖控制畫面影調(diào)
幾類近似達到Welch界碼本的構(gòu)造
看圖填單詞
看完這些單詞的翻譯,整個人都不好了
三穗县| 高台县| 汶川县| 宁国市| 禹州市| 德格县| 永德县| 枣阳市| 漳平市| 土默特右旗| 开化县| 城步| 新田县| 灌云县| 屏东县| 钟祥市| 修文县| 鄂托克前旗| 隆昌县| 沧源| 广德县| 田阳县| 错那县| 武川县| 大洼县| 赤城县| 渭源县| 林口县| 阜新市| 宕昌县| 黄平县| 民权县| 桐城市| 宁武县| 镇安县| 镇原县| 昭觉县| 景谷| 新河县| 葫芦岛市| 苍梧县|