国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于TBGC的航拍視頻車輛檢測算法

2019-09-10 07:22郭迎春鄭婧然于洋
河北工業(yè)大學學報 2019年4期
關鍵詞:像素點航拍算法

郭迎春 鄭婧然 于洋

摘要 針對移動航拍視頻中車輛檢測準確度低的問題,提出一種基于三鄰域點二值梯度輪廓(Three-neighbor-point Binary Gradient Contour,TBGC)特征的航拍車輛檢測算法。對相鄰幀圖像進行SURF(speeded-up robust features)特征點提取匹配,利用角度判別剔除錯誤匹配點完成圖像配準,采用幀間差分獲得運動目標的候選區(qū)域。由于傳統(tǒng)二值梯度輪廓(Binary Gradient Contours,BGC)特征忽略中心像素特性,提出基于3×3鄰域相鄰像素點量化操作的TBGC特征。提取候選區(qū)域的TBGC特征,并利用支持向量機(Support Vector Machine, SVM)完成最終的航拍視頻車輛檢測。實驗中利用提出的TBGC特征在8個數(shù)據(jù)集上分別與BGC1、LBP、HOG特征進行對比實驗,實驗結果表明TBGC算法的檢測率明顯優(yōu)于傳統(tǒng)經典算法,平均檢測率為93.09%,并且具有較好的魯棒性。

關 鍵 詞 航拍視頻;車輛檢測;支持向量機;TBGC特征

中圖分類號 TP391.41? ? ?文獻標志碼 A

Abstract To improve the vehicle detection precision in aerial video, a vehicle detection method for aerial video is proposed based on three-neighbor-point binary gradient contour (TBGC) features. First, the extraction of speed-up robust features (SURF) was extracted and matched for adjacent frame images, and error-matching points were eliminated by angle discrimination to realize image registration. Then, the candidate regions of the moving target were obtained according to the frame difference. Since the traditional binary gradient contour (BGC) features ignore the pixel characteristics at the center, the TBGC features based on the comparison of adjacent pixel points in a 3 × 3 neighborhood were proposed. In this way, the TBGC features in candidate regions were extracted, and support vector machine (SVM) was used to complete the vehicle detection in aerial video at last. In the experiment, the proposed TBGC features were compared with features of BGC1, LBP, and HOG on eight datasets respectively. Experimental results show that the detection rate of TBGC algorithm is obviously better than the traditional classical algorithms, with an average detection rate of 93.09% and stronger robustness.

Key words aerial video; vehicle detection; support vector machine; TBGC features

0 引言

現(xiàn)今無人機航拍技術已經應用到交通運輸、工業(yè)、農業(yè)、軍事等各個領域中,進行交通管控、環(huán)境保護、災后救援、軍事偵查等,并在相關領域中發(fā)揮著重要的作用。與傳統(tǒng)的地面監(jiān)控視頻相比,無人機航拍視頻具有監(jiān)控范圍大、使用方便靈活,能夠更好地檢測快速移動目標等優(yōu)勢,因此,針對航拍視頻的目標檢測研究已經逐漸成為計算機視覺領域的一個研究熱點[1]。 然而對于車輛檢測問題,由于航拍視頻覆蓋場景面積較大、關鍵目標較小、背景復雜,且目標車輛易受光照變化、遮擋、相機抖動以及姿態(tài)變化等因素影響[2],因此航拍視頻中的車輛檢測仍然是一個具有挑戰(zhàn)性的課題。

近年來國內外的相關研究已經取得了一定的成果,大體上可以分為基于特征的方法和基于深度學習的方法。在基于特征的方法中,方向梯度直方圖(Histogram of Oriented Gradient,HOG)是最為有效的特征之一。Xu等[3]通過道路方向旋轉圖像,將HOG與支持向量機(Support Vector Machine,SVM)結合可以實現(xiàn)快速且高精度的目標檢測,并采用自適應交換策略提高檢測效率,但是無法檢測到轉彎處的車輛。Madhogaria等 [4]利用HOG+SVM檢測目標,并結合馬爾科夫隨機場刪除虛假目標,與其他方法相比,顯著降低了誤報率,但是因訓練圖像的尺寸固定,需要手動設置參數(shù),靈活性較差。文獻[5]增加了紋理和顏色信息,并結合改進HOG特征作為特征描述符,檢測的準確率進一步提高,但是用時長,計算量大。由于HOG特征不具有旋轉不變性,Liu等[6]在原有經典HOG特征的基礎上,提出具有旋轉不變性的Fourier-HOG特征。Kamenetsky等[7]將該特征用于航拍圖像,取得顯著的效果。但是Fourier-HOG胞元只能描述局部區(qū)域信息,當對一個較大區(qū)域進行描述時,需要計算該區(qū)域的區(qū)域描述符,特征維數(shù)較大,算法效率較差。文獻[8]采用光照不變特征減少Fourier-HOG特征的提取區(qū)域,從而減少運行時間,但是算法的時間復雜度依然很高。與HOG特征相比,由于尺度不變特征變換(Scale-Invariant Feature Transform, SIFT)特征能夠檢測到部分被陰影或樹木遮擋的車輛,因此該特征也是航拍車輛檢測常用的特征之一。Moranduzzo等[9]考慮到特征的尺度不變性和旋轉不變性,利用SIFT關鍵點進行像素點檢測,通過SVM對SIFT關鍵點分類得到車輛的關鍵點集,該方法主要降低了虛警率,但是關鍵點的分類精度不夠。同時,文獻[10]通過基于地理信息系統(tǒng)的篩選評估方法,進一步降低了虛警率,但是仍有部分車輛的漏檢。此外,HOG空間金字塔(Spatial Pyramid of HoG,PHOG )特征[11]、Haar-like特征[12]、快速旋轉不變特征[13]、旋轉不變矩陣(Rotation-Invariant Matrix,RIM)[14]以及結合方向梯度角[15]和徑向梯度方向特征的序數(shù)金字塔編碼方法[16]也被應用到航拍車輛檢測中。

深度學習目前也廣泛用于航拍車輛檢測領域,但是檢測效果無法達到基于特征的方法[17]。Chen等[18]針對深層卷積神經網絡(DNN)只能提取同一尺寸特征的缺陷,提出混合的深層卷積神經網絡,通過將最后一個卷積層和DNN的最大池化層的映射劃分為多個可變接收域來提取可變尺寸特征。該方法在衛(wèi)星圖像上獲得了顯著的效果。文獻[17]利用卷積神經網絡提取特征并結合SVM分類進行目標檢測。該方法在準確性和計算時間上都優(yōu)于現(xiàn)有的方法。但只是找到了車輛的位置區(qū)域,并沒有精確地檢測到每輛車,并且誤檢率較高。Deng等[19]提出了一個精確車輛推薦網絡,可以檢測出航拍圖像中的車輛,并利用車輛屬性學習網絡獲得車輛的位置信息。該方法相比于其他的方法魯棒性更好,準確性更高,但是不適用于車輛高度集中的區(qū)域,具有局限性。

無論是基于特征的方法還是基于深度學習的方法,算法本質都是用特征來表征目標。文獻[20]對局部二值模式(Local Binary Patterns,LBP)和二值梯度輪廓(Binary Gradient Contours,BGC)特征做了3組對比實驗,實驗表明BGC特征具有更好的目標表述能力以及旋轉平移不變性??紤]到航拍視頻中目標車輛由于攝像機的拍攝角度以及姿態(tài)變化,具有比較復雜的形態(tài),本文以BGC特征為基礎,對BGC的第1種模式BGC1進行改進,提出基于三鄰域點二值梯度輪廓(Three-neighbor-point Binary Gradient Contour,TBGC)特征的航拍車輛檢測算法,首先針對航拍視頻序列進行圖像配準,利用幀間差分得到車輛候選區(qū)域,最終使用TBGC特征結合SVM完成精確的車輛檢測。

1 總體架構

本文采用的無人機采集的航拍視頻序列,由于視頻中存在相對運動,所以首先進行基于SURF(Speeded- Up Robust Features)特征點[21]的圖像配準,使得相鄰幀在同一圖像坐標系下;然后利用幀間差分法獲得運動目標候選區(qū)域;最后對運動目標候選區(qū)域進行TBGC特征提取,利用SVM對特征分類提取的先驗模型進行目標分類,進而得到精確的檢測結果。圖1是整體車輛檢測的流程圖。

2 航拍目標車輛檢測

2.1 圖像配準

對于視頻序列[Ijj=1,...,n]的相鄰兩幀圖像[Ij]和[Ij+1],分別提取SURF特征點,得到兩幀圖像的特征點集A和B,對特征點集A和B進行匹配,最后再利用隨機采樣一致算法(Random Sample Consensus, RANSAC)[22]剔除錯誤的匹配點對。匹配結果如圖2所示。

圖2是經過RANSAC算法之后的匹配效果圖,仍然存在錯誤的匹配點對。考慮到航拍序列的特點,相鄰幀圖像之間存在的是平移和旋轉的微小運動,所以一對匹配點可以計算出一個角度,所有特征點對之間的角度差異會很小,因此本文采用基于角度判定的策略剔除錯誤匹配點。匹配點間的角度計算公式為

計算所有匹配點對間的角度集合[C=θ1,θ2,...,θm],升序排序得到集合[D=θ′1,θ′2,...,θ′m],取集合D的前1/4角度值計算平均角度值[θ],其中,前1/4角度值是經過實驗具有最好處理效果的取值,最后根據(jù)式(2)計算[Ti]。

[Ti]為每個角度對應的特征點對正確與否的判斷函數(shù),其中[i]表示每一對特征點。如果[Ti]為1,說明是匹配正確的特征點對,反之,則為匹配錯誤的特征點對,并剔除。圖3為特征點剔除后匹配結果。

剔除錯誤的匹配點對后,采用雙三次插值進行仿射變換,得到配準圖。在圖像配準之后,本文采用幀間差分的方法獲得候選目標運動區(qū)域,圖4為幀間差分檢測結果,從中可以看出仍存在很多非車輛區(qū)域,即誤檢區(qū)域。為了進一步完成目標車輛區(qū)域精確檢測,采用基于特征訓練的分類方法。第一步首先對訓練集的正負樣本提取TBGC特征,然后通過SVM對樣本進行訓練獲得TBGC特征的分類模型。第二步是對幀差后獲得的目標候選區(qū)域進行識別,對目標候選區(qū)域提取TBGC特征,依據(jù)第一步得到的分類模型得到精確的檢測結果。

2.2 BGC特征

二值梯度輪廓(Binary Gradient Contours,BGC)由Fernández等提出。基于預先定義的路徑,使用來自3×3鄰域的順時針方向選擇的成對像素值比較,得到3×3鄰域中心像素點的二進制描述符,表示該像素點的BGC值。BGC的編碼路徑不同,則其計算方式也不同。Fernández等提出了3種不同的路徑,單回路二值梯度輪廓(BGC1),雙回路二值梯度輪廓(BGC2),三回路二值梯度輪廓(BGC3),圖5是3種路徑的表述方式。

2.3 TBGC特征

根據(jù)Antonio Fernández等[20]的實驗效果可知,BGC1比BGC2和BGC3的紋理描述能力更強,但是由于BGC1的編碼方式過于簡單,易受到噪聲的影響,所以本文對BGC1進行了改進,使其能夠更好地描述目標的紋理特征。

BGC1特征是根據(jù)3×3鄰域窗口內順時針方向的鄰域像素點之間關系編碼得到的,由于只考慮到了鄰域像素點之間關系而忽略了中心像素點的影響,而中心像素點又是一個很重要的點,往往比周圍的點包含更多的信息,所以本文提出加入中心像素點以及3×3鄰域窗口內逆時針方向的鄰域像素點之間關系的TBGC特征,使得提取的紋理信息更加豐富,增加了對噪聲的魯棒性,有更好的鑒別能力。圖6是TBGC算法示意圖。

圖6中,首先以第一個3×3窗口的像素點[I7]為例,[I7]分別與[I0],[Ic],[I6]相鄰的3個像素點進行像素值的大小比較。其像素路徑編號[0,7,6,5,4,3,2,1,0],計算二值梯度輪廓的像素對為[0,7,c,7,6,7,7,6,c,6,5,6,...,1,0,c,0,7,0],其中c代表的是中心像素點,稱為TBGC。具體的計算公式(5)~(7)如下:

[g1=sI7-I0,sI6-I7,sI5-I6,sI4-I5,sI3-I4,sI2-I3,sI1-I2,sI0-I1] , (5)

[g2=sI7-I6,sI6-I5,sI5-I4,sI4-I3,sI3-I2,sI2-I1,sI1-I0,sI0-I7] , (6)

[g3=sI7-Ic,sI6-Ic,sI5-Ic,sI4-Ic,sI3-Ic,sI2-Ic,sI1-Ic,sI0-Ic] , (7)

式中:[g1]表示在順時針方向,中心點3×3鄰域窗口下,每個鄰域像素點與相鄰像素點順時針方向獲得的二進制編碼;同理,[g2]表示每個鄰域像素點與相鄰像素點逆時針獲得的二進制編碼;[g3]則表示每個鄰域像素點與中心像素點比較獲得的二進制編碼。[s(x)]為公式(4)表示的符號函數(shù)。

最終,TBGC特征的二進制編碼[g]的計算公式為

[g=g1 & & g2 & & g3] 。 (8)

公式(8)還可表示為

[g=[g1 & & g2 & & g3]=[s7,s6,…,s1, s0]]? ? ? ? [g=[g1g2g3]=[s7,s6,???,s0]] 。 (9)

通過以上公式,依次計算所有…像素點的TBGC值,進而得到TBGC特征直方圖。像素點[Ix,y]TBGC值如式(10)所示:

[TBGCIx,y=j=70sj×2j], (10)

式中[sjj=0,1,...7]為公式(9)中[g]的每一個二進制值。

在此基礎上,利用目標車輛的正負樣本結合TBGC特征訓練分類模型,并利用建立好的模型對幀間差分得到的候選運動區(qū)域進行二次篩選,得到最終的車輛檢測結果,實際的檢測結果在實驗中說明。

3 實驗結果及分析

本文的實驗數(shù)據(jù)集分別是公共數(shù)據(jù)集VIVID的數(shù)據(jù)集Egtest01-Egtest05、公共數(shù)據(jù)集KIT AIS中的MunichCrossroad01以及自建的兩個視頻序列DJI_0006和Video2。其中,Egtest01-Egtest02背景簡單,且無人機運動緩慢;Egtest03背景與運動目標的顏色和紋理相近;Egtest04的分辨率較低;Egtest05背景復雜,光照變化明顯;MunichCrossroad01背景復雜,視頻中出現(xiàn)樹木和光照變化;Video2的背景復雜,但攝像機運動緩慢,背景變化較小;DJI_0006的特點是背景復雜且無人機運動較快,背景運動明顯。圖7是不同數(shù)據(jù)集示意圖。

利用不同的數(shù)據(jù)集,本文從圖像配準、車輛識別以及視頻車輛檢測三個方面進行詳細的實驗并分析。首先將本文方法與經典的RANSAC算法進行對比,說明圖像配準算法的有效性。實驗中利用本文提出的TBGC特征分別與傳統(tǒng)BGC1特征和經典特征進行比較,進一步說明提出算法的優(yōu)勢。最后,將本文提出的TBGC特征應用到航拍視頻序列中,與最新的算法進行對比,說明本文算法的有效性。

3.1 圖像配準

圖像配準實驗分別在背景變化劇烈的MunichCrossroad01和DJI_0006數(shù)據(jù)集上進行測試,表1是2個數(shù)據(jù)庫圖像配準的實驗結果。表中,N代表兩幀圖像的特征點數(shù)目,[TP]代表匹配正確的特征點對數(shù),[FP]代表匹配錯誤的特征點對數(shù),P代表匹配正確率[P=TP/TP+FP]。由表1的數(shù)據(jù)可以看出,本文提出的判定角度剔除外點策略在兩個數(shù)據(jù)集上測試的特征點的匹配正確率分別為0.985 0和0.990 9,明顯高于基于RANSAC的0.880 4和0.964 8。圖8是分別在MunichCrossroad01、DJI_0006兩個數(shù)據(jù)集上的匹配結果。

從兩組圖中可以看出,基于RANSAC的特征點匹配效果圖中,明顯存在角度值偏差較大的錯誤特征點對,而基于本文方法的匹配效果圖則可以看出,由于加入角度判定處理,處理結果中并不存在如RANSAC算法中的角度偏差大的匹配點對,因此相對效果更好。圖9是分別在MunichCrossroad01、DJI_0006兩個數(shù)據(jù)集上的基于RANSAC算法和基于本文方法的背景補償圖,以及幀間差分獲得的車輛候選區(qū)域。

在MunichCrossroad01、DJI_0006兩個數(shù)據(jù)集上的配準圖9a)、b)可以看出,在圖9a)中右下角以及圖9b)左側邊界中間車道的車輛區(qū)域,本文的算法比傳統(tǒng)的RANSAC算法的補償效果好;并從兩個數(shù)據(jù)集的幀差圖9c)、d)可以明顯地看出,本文算法實現(xiàn)的幀差效果顯著地減少了誤檢率。其中,在MunichCrossroad01數(shù)據(jù)集中其他未標注的車輛均是靜止的車輛。

3.2 車輛識別

本文的訓練數(shù)據(jù)從不同航拍數(shù)據(jù)集上隨機得到的,包含有不同背景和不同方向車輛的圖像為正樣本,不包含車輛的圖像為負樣本,部分樣本如圖10所示。提取樣本的TBGC特征,然后利用SVM訓練分類,最后利用測試集驗證特征的有效性。由于數(shù)據(jù)集是航拍視頻序列,所以本文的測試集是分別從以上8個視頻序列上截取獲得的。

為了驗證本文提出TBGC特征的有效性,與BGC1、LBP、HOG特征進行對比實驗,實驗結果如表2所示。

在實驗中,訓練集樣本數(shù)為5 156個,測試集Egtest01- Egtest05樣本數(shù)均為500,Munich Crossroad01樣本數(shù)為348,Video2和DJI_0006的樣本數(shù)分別為74、146。正負樣本比例為1∶1。

表2可以明顯看出,本文提出的TBGC相對于原特征BGC1,在不同的測試集下準確率有了顯著提高,除了Egtest03外均達到的90%以上。在Egtest03數(shù)據(jù)集上,由于目標車輛與背景的像素差較小,且與訓練的正樣本的車型差別較大,所以相對效果較差,識別率較低;在Egtest01數(shù)據(jù)集上由于背景單一,所以準確率達到了99.6%,在復雜背景或具有不同姿態(tài)和光照的車輛的其他數(shù)據(jù)集上,本文提出的特征也平均達到了94%以上,提高了近10%到20%。TBGC特征較原BGC1特征充分考慮到鄰域像素點周圍的像素點以及中心像素點對鄰域像素點的量化的影響,使得TBGC特征可以提取更豐富的紋理信息,魯棒性更強,效果更好。同時,TBGC與LBP相比,LBP只是考慮中心像素點與鄰域像素點的關系進行量化,同上,不如TBGC考慮的充分。與HOG相比,由于航拍序列環(huán)境復雜多變,而HOG描述子對噪點相當敏感,且航拍車輛的姿態(tài)多變,所以通過HOG特征得到的形狀信息不定,而TBGC側重于紋理信息,因此,效果更好。

為了更好地看出實驗的有效性,本文畫出相應了PR曲線和ROC曲線,如圖11所示。

圖11a)為不同特征的PR曲線圖,從圖中可以看出本文提出的TBGC特征在相同的召回率的情況下,檢測精度P比BGC1、LBP和HOG的精度高,明顯代表本文特征的紅色線位于代表其他特征的線的上方,表明本文提出的特征要比其他的特征效果好。圖11b)是不同特征的ROC曲線,從圖中可以看出,代表本文特征的紅線相比于代表其他特征的線要更靠近于縱軸,更位于圖的上方,所以,可以明顯地看出紅線下方的面積值會更大,即AUC值更大。因此,相對于BGC1、LBP和HOG特征,本文提出的特征TBGC的效果更好。

圖12為車輛誤識別即未檢出的情況示意。如圖12a)、b)分別是圖像模糊且具有陰影導致車輛與背景間的像素差特別小,進而車輛的紋理特征不明顯;車輛在圖像中所占的比例太小。以上兩種情況均導致了車輛的誤識別。

3.3 視頻車輛檢測

在航拍序列上進行圖像配準后,首先利用幀間差分法獲得目標候選區(qū)域,然后提取該區(qū)域的TBGC特征,將其輸入到訓練好的模型當中,最后根據(jù)分類器的分類標簽判斷出目標候選區(qū)域是車輛還是非車輛。本文將在VIVID數(shù)據(jù)集的Egtest01-Egtest05、MunichCrossroad01、Video2和DJI_0006視頻序列上進行實驗。

圖13是8個數(shù)據(jù)集上的實驗效果圖,可以看出基于TBGC特征的車輛識別,明顯減少了幀差帶來的誤檢,其中,在MunichCrossroad01數(shù)據(jù)集中其他未標注的車輛均是靜止的車輛。

為了量化分析檢測的準確性,定義召回率R、精度P和綜合評價指標F值。

式中:TP表示檢測到的正確的目標數(shù);FN表示漏檢的目標數(shù);FP值表示誤檢的目標數(shù)。表3是不同視頻序列的P、R、F值。

從表3中看出,不同視頻序列都表現(xiàn)出良好的實驗效果。VIVID數(shù)據(jù)集上目標運動相對緩慢,且圖像分辨率低,所以P值、R值和F值相對居中;其中,Egtest04數(shù)據(jù)集由于分辨率低,幀差出現(xiàn)漏檢,所以在整體的實驗效果上相對較差;Video2數(shù)據(jù)集的背景復雜,但是因為其背景運動特別小,誤差小且能夠更好地得到運動目標區(qū)域,所以效果會比VIVID數(shù)據(jù)集的效果好一點;MunichCrossroad01和DJI_0006屬于背景復雜,背景運動明顯的視頻序列,F(xiàn)值分別達到了0.943 2和0.927 4。

從本文的實驗效果中可以得知,在目標與背景顏色特別接近時,由于紋理差別太小,本文提出的TBGC特征無法識別出目標;在目標進出視頻時,車輛過于不完整時,會出現(xiàn)漏檢;同時幀間差分方法當目標候選區(qū)域是背景區(qū)域且與訓練時的車輛紋理特別接近時,會出現(xiàn)誤檢的情況。

4 總結

本文針對航拍車輛檢測準確率低的情況,提出基于TBGC特征的幀間差分航拍車輛檢測算法。TBGC特征充分考慮3×3鄰域窗口內順時針和逆時針方向的鄰域像素點以及中心像素點對中心像素點量化的影響,使得提取的紋理信息更加豐富,增加了對于噪聲的魯棒性,具有更好的鑒別能力,通過實驗證明了本文提出方法的有效性。但是在實際的測試中,對于紋理不明顯的車輛,TBGC特征會失效,同時幀間差分法對于與背景顏色相近的顏色車輛會漏檢,針對這兩個問題,本文將進行進一步研究。

參考文獻:

[1]? ? KUMAR R. Aerial video survelliance and exploitation[M]//Video-Based Surveillance Systems. Springer, Boston, MA, 2002: 29-38.

[2]? ? 劉亞偉,李小民. 無人機航拍視頻中目標檢測和跟蹤方法綜述[J]. 飛航導彈,2016(9):53-56,70.

[3]? ? XU Y Z,YU G Z,WANG Y P,et al. A hybrid vehicle detection method based on viola-jones and HOG + SVM from UAV images[J]. Sensors,2016,16(8):1325.

[4]? ? MADHOGARIA S,BAGGENSTOSS P,SCHIKORA M,et al. Car detection by fusion of HOG and causal MRF[J]. IEEE Transactions on Aerospace and Electronic Systems,2015,51(1):575-590.

[5]? ? CHEN Z Y,WANG C,LUO H,et al. Vehicle detection in high-resolution aerial images based on fast sparse representation classification and multiorder feature[J]. IEEE Transactions on Intelligent Transportation Systems,2016,17(8):2296-2309.

[6]? ? LIU K,SKIBBE H,SCHMIDT T,et al. Rotation-invariant HOG descriptors using fourier analysis in polar and spherical coordinates[J]. International Journal of Computer Vision,2014,106(3):342-364.

[7]? ? MORANDUZZO T,MELGANI F. Detecting cars in UAV images with a catalog-based approach[J]. IEEE Transactions on Geoscience and Remote Sensing,2014,52(10):6356-6367.

[8]? ? 毛征,劉松松,張輝,等. 不同光照和姿態(tài)下的航拍車輛檢測方法[J]. 北京工業(yè)大學學報,2016,42(7):982-988.

[9]? ? MORANDUZZO T,MELGANI F. A SIFT-SVM method for detecting cars in UAV images[C]//2012 IEEE Iternational Geoscience and Remote Sensing Symposium,22-27 July 2012,Munich,Germany,2012:6868-6871.

[10]? MORANDUZZO T,MELGANI F. Automatic car counting method for unmanned aerial vehicle images[J]. IEEE Transactions on Geoscience and Remote Sensing,2014,52(3):1635-1647.

[11]? POOSTCHI M,PALANIAPPAN K,SEETHARAMAN G. Spatial pyramid context-aware moving vehicle detection and tracking in urban aerial imagery[C]//2017 14th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS),29 Aug. -1 Sept. 2017,Lecce,Italy,2017:1-6.

[12]? XU Y Z,YU G Z,WU X K,et al. An enhanced viola-jones vehicle detection method from unmanned aerial vehicles imagery[J]. IEEE Transactions on Intelligent Transportation Systems,2017,18(7):1845-1856.

[13]? MALAGI V P, BABU D R R. Rotation-invariant fast feature based image registration for motion compensation in aerial image sequences[C]//Proceedings of International Conference on Cognition and Recognition. Springer, Singapore, 2018: 211-221.

[14]? WANG G L,WANG X C,F(xiàn)AN B,et al. Feature extraction by rotation-invariant matrix representation for object detection in aerial image[J]. IEEE Geoscience andRemote Sensing Letters,2017,14(6):851-855.

[15]? LIN Y D,HE H J,YIN Z K,et al. Rotation-invariant object detection in remote sensing images based on radial-gradient angle[J]. IEEE Geoscience and Remote Sensing Letters,2015,12(4):746-750.

[16]? WANG G L,F(xiàn)AN B,ZHOU Z L,et al. Ordinal pyramid coding for rotation invariant feature extraction[J]. Neurocomputing,2017,242:150-160.

[17]? AMMOUR N,ALHICHRI H,BAZI Y,et al. Deep learning approach for car detection in UAV imagery[J]. Remote Sensing,2017,9(4):312.

[18]? CHEN X Y,XIANG S M,LIU C L,et al. Vehicle detection in satellite images by hybrid deep convolutional neural networks[J]. IEEE Geoscience and Remote Sensing Letters,2014,11(10):1797-1801.

[19]? DENG Z P,SUN H,ZHOU S L,et al. Toward fast and accurate vehicle detection in aerial images using coupled region-based convolutional neural networks[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2017,10(8):3652-3664.

[20]? FERNáNDEZ A,áLVAREZ M X,Bianconi F. Image classification with binary gradient contours[J]. Optics and Lasers in Engineering,2011,49(9/10):1177-1184.

[21]? BAY H,ESS A TUYTELAARS T,et al Speeded-up robust features (SURF)[J]. Computer Vision and Image Understanding,2008,110(3):346-359.

[22]? CHUM O, MATAS J, KITTLER J. Locally optimized RANSAC[C]//Joint Pattern Recognition Symposium. Springer, Berlin, Heidelberg, 2003: 236-243.

[責任編輯 田 豐]

猜你喜歡
像素點航拍算法
航拍巴彥呼碩
魅力航拍
Travellng thg World Full—time for Rree
一種X射線圖像白點噪聲去除算法
基于灰度直方圖的單一圖像噪聲類型識別研究
AirCraft航拍輔助軟件
基于canvas的前端數(shù)據(jù)加密
圖像采集過程中基于膚色理論的采集框自動定位
學習算法的“三種境界”
算法框圖的補全