国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

一種利用遷移學習訓練卷積神經(jīng)網(wǎng)絡(luò)的聲吶圖像識別方法

2020-03-06 09:47朱兆彤付學志胡友峰
水下無人系統(tǒng)學報 2020年1期
關(guān)鍵詞:聲吶圖像識別卷積

朱兆彤, 付學志, 胡友峰

一種利用遷移學習訓練卷積神經(jīng)網(wǎng)絡(luò)的聲吶圖像識別方法

朱兆彤1, 付學志2, 胡友峰1

(1. 中國船舶重工集團公司 第705研究所, 陜西 西安, 710077, 2. 中國人民解放軍92228部隊, 北京, 102249)

針對利用傳統(tǒng)訓練方法進行聲吶圖像識別時缺乏數(shù)據(jù)的問題, 文中提出一種利用遷移學習訓練卷積神經(jīng)網(wǎng)絡(luò)(CNN)實現(xiàn)聲吶圖像識別的方法?;谶w移學習的原理, 通過對已有的預訓練網(wǎng)絡(luò)進行微調(diào)與重新訓練, 以減小對訓練數(shù)據(jù)量的需求。隨后利用縮比模型水池試驗驗證了該方法的有效性。試驗結(jié)果表明, 基于AlexNet預訓練網(wǎng)絡(luò), 相比傳統(tǒng)的學習方法, 遷移學習方法可以利用較少的訓練數(shù)據(jù), 在較短的時間內(nèi)通過訓練達到95.81%的識別率。試驗還對比了基于6種預訓練網(wǎng)絡(luò)進行遷移學習后的網(wǎng)絡(luò)性能, 結(jié)果表明基于VGG16的遷移網(wǎng)絡(luò)識別率最高, 可達到99.48%。最后, 試驗結(jié)果驗證了CNN具有一定的噪聲容忍能力, 在較強噪聲背景下, 能保證較高的識別率。

聲吶成像; 目標自動識別; 卷積神經(jīng)網(wǎng)絡(luò); 遷移學習

0 引言

聲吶成像技術(shù)包括實孔徑側(cè)掃成像、實孔徑多波束成像、合成孔徑成像和逆合成孔徑成像等技術(shù), 目前已經(jīng)可以在幾百米距離上獲取水中或水底目標的高分辨率二維圖像。隨著聲吶成像技術(shù)的逐步成熟, 如何快速高效地處理獲取的大量聲吶成像數(shù)據(jù)就成為目前亟待解決的問題。為了解決這一問題, 水下目標自動識別(underwater automatic target recognition, UATR)成為了水下目標識別領(lǐng)域研究的熱點方向。

傳統(tǒng)的聲吶圖像自動識別方法可分為2類: 一類是基于實測數(shù)據(jù)的識別方法, 另一類是基于物理模型仿真獲得數(shù)據(jù)的識別方法。2類方法通過實驗或仿真手段獲取聲吶圖像中目標的先驗知識, 提取響應特征, 然后設(shè)計分類器進行分類。對于傳統(tǒng)的識別方法, 為了達到較高的識別成功率, 通常需要精心選擇提取的特征組合形式和各項特征的權(quán)重, 并調(diào)整分類器的參數(shù)[1], 因此限制了這些方法的泛化能力, 即當應用場景變化時, 這些方法的性能通常有較大幅度的下降。

隨著人工智能技術(shù)在大數(shù)據(jù)時代的發(fā)展, 深度學習在圖像分類、目標檢測和自然語言處理等模式識別領(lǐng)域得到廣泛應用。目前常見的深度學習方法包括深度置信網(wǎng)絡(luò)(deep belief network, DBN)、卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural net- work, CNN)及循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural net- work, RNN)等, 其中CNN是在計算機視覺領(lǐng)域應用最廣泛的一種算法, 與聲吶圖像識別類似, 傳統(tǒng)的光學圖像識別方法通常也可分為特征提取和特征識別兩步。在傳統(tǒng)方法中, 特征提取方法通常都是基于研究目標的物理或統(tǒng)計特性手動設(shè)計的。然而在最新的計算機視覺研究中, 這些傳統(tǒng)的識別模式已被CNN等全新算法所替代。CNN可以自動學習圖像中豐富的分層特征[2-3], 近年來在光學圖像識別領(lǐng)域取得了巨大的成功。Kri- zhevsky等[2]采用深度CNN算法在ImageNet大規(guī)模視覺識別挑戰(zhàn)(Imagenet large scale visual re- cognition challenge, ILSVRC)競賽中取得了top5錯誤率15.3%的成績, 遠遠超過了以前最好的成績。Szegedy等[4]提出了包含22個卷積層的Goo- gleNet, 成功地將ILSVRC top5錯誤率降低至6.67%。在ILSVRC競賽中, 基于CNN的各種改進算法性能一直在提升, 目前錯誤率最低的算法由Hu等[5]提出, 已將top5錯誤率降低至2.25%。

隨著CNN在光學圖像識別領(lǐng)域的廣泛應用, 這類方法也被嘗試引入聲吶圖像處理領(lǐng)域。例如Mckay等[6]利用CNN實現(xiàn)了在聲吶圖像中對水雷目標的檢測。但由于CNN的訓練需要大量標注的圖像數(shù)據(jù), 而在聲吶圖像識別領(lǐng)域并沒有一個這樣的數(shù)據(jù)庫, 因此CNN在聲吶圖像識別領(lǐng)域通常面臨缺乏訓練數(shù)據(jù)的問題。

針對這一問題, 文中在CNN的訓練過程中引入遷移學習的方法, 可將神經(jīng)網(wǎng)絡(luò)從源領(lǐng)域?qū)W習到的知識遷移至目標領(lǐng)域。遷移學習方法已經(jīng)在圖像識別相關(guān)領(lǐng)域(例如雷達圖像識別[7]及醫(yī)學影像識別[8]等領(lǐng)域)獲得了應用, 并成功地解決了訓練數(shù)據(jù)缺乏的問題。通常, 源領(lǐng)域的知識是從一個較大的通用數(shù)據(jù)集學習到的, 而目標領(lǐng)域的知識則基于一個相對較小并聚焦于具體識別任務的數(shù)據(jù)集。通過引入利用大量光學圖片訓練得到的預訓練網(wǎng)絡(luò)作為基礎(chǔ), 遷移后的網(wǎng)絡(luò)繼承了原網(wǎng)絡(luò)的結(jié)構(gòu)和大部分參數(shù), 只需要對原網(wǎng)絡(luò)的最后幾層進行調(diào)整, 遷移后的網(wǎng)絡(luò)就能獲得對特定領(lǐng)域數(shù)據(jù)的識別能力。這樣的方法也被稱為微調(diào)(fine-tuning), 微調(diào)不但可減小網(wǎng)絡(luò)訓練階段的計算復雜度, 也可減少訓練網(wǎng)絡(luò)所需的數(shù)據(jù)量。

針對CNN在聲吶圖像識別領(lǐng)域獲得應用的潛力, 文中首先簡述了CNN的基本算法與利用遷移學習訓練特定神經(jīng)網(wǎng)絡(luò)的方法; 隨后通過試驗對5類縮比模型目標進行聲吶成像, 利用試驗獲取的聲吶成像數(shù)據(jù), 對比了基于CNN和傳統(tǒng)非深度神經(jīng)網(wǎng)絡(luò)之間, 傳統(tǒng)訓練方法和基于遷移學習的訓練方法之間, 基于6種預訓練網(wǎng)絡(luò)進行遷移學習后得到的網(wǎng)絡(luò)之間的性能差異, 以及不同峰值信噪比條件下CNN的性能變化; 最后給出初步結(jié)論。

1 深度CNN與遷移學習

1.1 深度CNN

深度CNN是一類具有特殊結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò), “深度”則表明其層數(shù)較多, 通常超過15層, 整個網(wǎng)絡(luò)的開始幾層由卷積層(convolution layer)與池化層(pooling layer)交替構(gòu)成, 之后若干層是全連接層。其基本原理是: 先由卷積層學習不同的特征, 再由池化層將空域形狀匯聚到高維特征空間, 多層交替的卷積加池化可以學習到層次化的特征表征。最后由全連接層在高維特征空間中學習得到1個分類器。

如圖1所示, 深度CNN中卷積層和池化層的所有節(jié)點都排列成一系列2維數(shù)組, 稱為“特征圖”。在卷積層中, 每個隱層節(jié)點的輸入僅包含前1層中1個局部鄰域內(nèi)的節(jié)點。前1層處于局部鄰域內(nèi)的節(jié)點乘以1個權(quán)值矩陣, 再通過1個非線性激活函數(shù)“正則化線性單元”ReLU[9], 運算結(jié)果作為卷積層的節(jié)點輸出值。每個隱層節(jié)點都可以被看作是1個特征檢測器, 因為當其輸入中出現(xiàn)它所代表的某種特征時, 該節(jié)點便有1個較大的響應值。同一個特征圖上的全部節(jié)點被限制為共享相同的連接權(quán)值, 所以每個特征圖在圖像的不同位置檢測同一種特征。由于局部連接和權(quán)值共享, 深度CNN中需要從數(shù)據(jù)中學習的獨立參數(shù)個數(shù)大為減少。在接下來的池化層中, 每個池化層特征圖對應于1個卷積層特征圖。池化層的每個節(jié)點以相鄰的前1個卷積層中1個局部鄰域內(nèi)的節(jié)點為輸入, 然后進行下采樣。通常進行下采樣的方法是只保留1個局部鄰域內(nèi)所有節(jié)點的最大值, 而忽略其余的節(jié)點值。1個深度CNN包含許多對卷積層與池化層的組合。通過交替的卷積層和池化層獲得圖像從全局到細節(jié)的各種特征后, 深度CNN通過全連接層實現(xiàn)最后的分類結(jié)果輸出。

深度CNN在業(yè)界所取得的巨大成功得益于: 1) 算法的改進; 2) 海量數(shù)據(jù)的獲得; 3) 圖形處理單元等高性能計算資源的普及, 而其中算法的改進是深度CNN出現(xiàn)飛躍式發(fā)展的關(guān)鍵因素。

1.2 基于遷移學習的聲吶圖像識別方法

1個CNN通常包含超過百萬級別的參數(shù), 而在聲吶圖像識別領(lǐng)域, 由于試驗難度較大, 通常可供訓練的圖片總量只有幾百到幾千幅。利用這樣少量的訓練樣本去訓練巨大數(shù)量的參數(shù)容易造成網(wǎng)絡(luò)的過擬合。如圖2所示, 首先將CNN看作通用的圖像特征提取器, 在某個數(shù)據(jù)集(如Ima- geNet)上進行預訓練, 然后在目標數(shù)據(jù)集(如聲吶圖像試驗數(shù)據(jù))上進行復用。采用大量數(shù)據(jù)訓練完成的CNN具備強大的、可泛化的圖像特征提取能力, 可用于聲吶圖像的特征提取。

圖1 深度卷積神經(jīng)網(wǎng)絡(luò)典型結(jié)構(gòu)

圖2 遷移學習過程

利用遷移學習進行聲吶圖像識別的步驟包括: 1) 選擇1個預訓練網(wǎng)絡(luò), 通常該預訓練網(wǎng)絡(luò)是利用大量有標簽的數(shù)據(jù)集訓練得到的; 2) 將預訓練網(wǎng)絡(luò)中部分層的參數(shù)遷移至目標網(wǎng)絡(luò)中; 3) 移除原網(wǎng)絡(luò)中最后1個全連接層, 在遷移后的網(wǎng)絡(luò)最后部分添加全連接層, 構(gòu)成新的網(wǎng)絡(luò); 4) 利用目標域中有標簽的數(shù)據(jù)訓練新的網(wǎng)絡(luò), 完成整個網(wǎng)絡(luò)的遷移。

2 聲吶成像試驗設(shè)計與成像結(jié)果

2.1 聲吶成像試驗設(shè)計

為驗證文中提出的識別方法, 設(shè)計了水池試驗進行驗證。試驗針對5類仿真潛艇模型利用水聲轉(zhuǎn)臺成像方法分別進行成像??紤]到實際水下目標尺度較大, 故文中基于縮比模型的原理進行試驗設(shè)計[10], 即將實際的水下目標最大長度縮小100倍至1 m左右。為了保持波長與目標尺寸之間的相對關(guān)系, 將換能器工作頻率由成像聲吶常用的20 kHz提升100倍至2 MHz, 帶寬也相應提升至75 kHz, 此時, 試驗聲吶成像系統(tǒng)的分辨率可達到1 cm×1 cm(距離×方位, 下同), 相當于在實際系統(tǒng)中達到1 m×1 m的分辨率。為保證換能器波束完全覆蓋模型, 成像距離依據(jù)模型實際尺度設(shè)置為9 m(模型尺度小于1 m)或12 m(模型尺度大于1 m), 此時, 設(shè)定轉(zhuǎn)速為0.001 rad/s, 相當于潛艇以0.9 m/s(成像距離9 m)或1.2 m/s(成像距離12 m)的勻速低速巡航, 速度方向垂直于聲吶視線向量, 脈沖重復頻率為5 Hz。

搭建如圖3所示的試驗平臺, 圖中:,和分別為水池長度、寬度和深度;為換能器到轉(zhuǎn)臺的距離;為轉(zhuǎn)軸到模型邊緣的最大距離;為轉(zhuǎn)臺旋轉(zhuǎn)角速度。模型通過金屬桿連接至步進馬達, 通過控制目標模型保持恒定轉(zhuǎn)速。每種目標成像時轉(zhuǎn)臺均相對收發(fā)合置換能器由迎頭方向轉(zhuǎn)至追尾方向, 每種目標均保證連續(xù)轉(zhuǎn)過180°。試驗參數(shù)見表1, 試驗詳細描述參見文獻[11]。

2.2 轉(zhuǎn)臺成像結(jié)果

圖3 試驗平臺設(shè)計

表1 試驗參數(shù)

圖4 5類試驗模型典型成像結(jié)果

3 基于深度CNN的識別方法性能驗證

3.1 深度CNN與非深度分類器性能對比

為了對比深度CNN與非深度網(wǎng)絡(luò)之間性能差異, 文中引入支持向量機(support vector ma- chine, SVM)結(jié)合方向梯度直方圖(histogram of oriented gradient, HOG)特征[12]的非深度分類方法。HOG是一種在計算機視覺和圖像處理中用來進行物體檢測的特征描述子, 它通過計算和統(tǒng)計圖像局部區(qū)域的梯度方向直方圖來構(gòu)成特征。HOG特征結(jié)合SVM分類器已經(jīng)被廣泛應用于圖像識別中。仿真試驗分別對比了采用10%~100%的試驗有效數(shù)據(jù)作為訓練數(shù)據(jù)時2種分類器的性能, 試驗結(jié)果如圖5所示。

圖5 不同訓練樣本條件下基于SVM+HOG與基于深度CNN的識別方法性能對比

相比于深度CNN, 基于SVM+HOG的方法可以在訓練樣本較少時有較好的識別性能, 然而當學習樣本增加時, 基于SVM+HOG的方法由于可調(diào)參數(shù)較少, 當使用了50%左右的有效試驗數(shù)據(jù)后, 分類器的性能就難以繼續(xù)改善, 而深度神經(jīng)網(wǎng)絡(luò)的方法由于可調(diào)參數(shù)多, 因此采用的訓練數(shù)據(jù)越多, 其性能越好。

3.2 遷移學習方法與非遷移學習方法性能對比

為了對比傳統(tǒng)從初始狀態(tài)開始訓練網(wǎng)絡(luò)的方法與基于遷移學習的訓練識別方法之間訓練速度與最終識別準確率的差異, 文中基于AlexNet預訓練網(wǎng)絡(luò)設(shè)計了對比試驗。首先, 參照AlexNet網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計了1個CNN, 其中僅將AlexNet最后1個全連接層的輸出數(shù)目由1 000調(diào)整為5, 并用隨機值初始化網(wǎng)絡(luò)中所有參數(shù)的值; 隨后用聲吶圖像數(shù)據(jù)訓練該網(wǎng)絡(luò); 同時, 基于第2節(jié)中提出的遷移學習方法, 固定AlexNet預訓練網(wǎng)絡(luò)的權(quán)值, 僅對最后一個全連接層進行替換, 之后用聲吶圖像數(shù)據(jù)進行訓練。試驗結(jié)果如圖6所示。

圖6 傳統(tǒng)方法與遷移學習方法訓練過程對比

由圖6可知, 由于聲吶圖像試驗數(shù)據(jù)較少, 如果僅通過試驗數(shù)據(jù)從頭訓練CNN, 將導致網(wǎng)絡(luò)難以收斂, 經(jīng)過4500個樣本的訓練后, 識別準確率僅能達到72.25%; 而如果采用遷移學習的方法, 在AlexNet的基礎(chǔ)上進行遷移學習, 則可以達到95.81%的識別準確率, 同時分析遷移后神經(jīng)網(wǎng)絡(luò)收斂的過程, 可以發(fā)現(xiàn)在訓練完2 000個樣本后, 遷移后的網(wǎng)絡(luò)識別準確率可以達到95%以上, 網(wǎng)絡(luò)訓練的時間可以大幅減少。

接受者操作特性(receiver operating character- ristic, ROC)曲線是一種反映分類器性能的指標, 可以反映分類器在對某一類目標進行區(qū)分時, 在給定的虛警率水平下能達到的正確識別率水平。通常, ROC曲線越靠近(0, 1)點, 說明分類器性能越好, 同時ROC曲線下面積(area under curve, AUC)則定量地說明了分類器對于每一類目標的識別性能。傳統(tǒng)方法與基于遷移學習方法ROC曲線對比如圖7所示。

圖7 傳統(tǒng)方法與遷移學習方法接受者操作特性對比曲線

3.3 不同預訓練網(wǎng)絡(luò)性能對比

為了對比不同預訓練網(wǎng)絡(luò)的識別性能, 選取AlexNet、GoogleNet、VGG16、VGG19、Resnet50和Resnet101等預訓練網(wǎng)絡(luò)進行對比?;谝陨项A訓練網(wǎng)絡(luò)進行遷移學習的結(jié)果如表2所示。

表2 不同預訓練網(wǎng)絡(luò)識別性能對比

由表2可知, 所有選用的預訓練網(wǎng)絡(luò), 其識別準確率都達到了90%以上。其中, 利用VGG16完成訓練的識別準確率最高, 達到99.48%, 完成訓練時間為1334 s; AlexNet完成訓練的時間最短, 為235 s, 同時也達到了95.81%的較高識別率。

3.4 不同信噪比條件下CNN性能對比

為了說明CNN對于噪聲的容忍能力, 將訓練圖像和驗證圖像均疊加一定的加性高斯白噪聲(additive white Gaussian noise, AWGN), 計算加噪后圖像的峰值信噪比(peak signal-to-noise ratio, PSNR)并進行對比, 預訓練網(wǎng)絡(luò)采用AlexNet, 不同信噪比條件下分類器ROC曲線如圖8所示, 識別率相對PSNR變化趨勢如圖9所示。

試驗說明CNN具備較強的噪聲容忍能力, 通常認為PSNR低于20 dB時, 圖像質(zhì)量已經(jīng)很差, 然而在這樣的條件下, 基于CNN的識別方法仍能保持90%以上的識別率, 說明基于CNN的識別方法具有較強的穩(wěn)健性, 即使應用于實際系統(tǒng)中, 圖像受到一定程度的干擾, CNN仍然具備較強的分類能力。

4 結(jié)束語

文中利用CNN和遷移學習技術(shù), 提出了一種可用于聲吶圖像識別的新方法, 同時利用縮比模型轉(zhuǎn)臺成像的試驗方法獲得的聲吶成像數(shù)據(jù), 驗證了所提方法的有效性。試驗表明, 當可以獲取一定量的試驗數(shù)據(jù)時, CNN的分類性能將超過傳統(tǒng)的SVM類方法。而利用遷移學習的方法, 相比傳統(tǒng)將網(wǎng)絡(luò)中所有權(quán)值進行隨機初始化后開始訓練的方法, 在訓練數(shù)據(jù)量較小的情況下, 可以獲得更高的識別率和更快的收斂速度, 在同樣訓練樣本量的條件下, 最終識別的準確率提升了23.56%。然后對比了不同預訓練網(wǎng)絡(luò)進行遷移學習的訓練時間與識別準確率的差別, 結(jié)果表明,利用VGG16作為預訓練網(wǎng)絡(luò)可獲得99.48%的識別準確率, 完成訓練時間為1334 s, 而AlexNet完成訓練的時間最短為235 s, 識別率達到了95.81%。最后對比了在不同PSNR下, 基于CNN的分類方法性能變化情況, 結(jié)果表明, CNN具備較強的噪聲容忍能力, 在PSNR低于20 dB的情況下, 識別率仍能保持90%以上。以上試驗說明,基于遷移學習訓練CNN的方法可以有效地對聲吶圖像進行分類識別, 并具備準確率高、訓練數(shù)據(jù)需求較小、噪聲容忍能力強的特點。

圖9 識別率隨PSNR變化曲線

[1] 朱兆彤, 彭石寶, 許稼, 等. 水下目標亮點拓撲特征提取及自動識別方法[J]. 聲學學報, 2018, 43(2): 154-162.Zhu Zhao-tong, Peng Shi-bao, Xu Jia, et al. Multiple Highlights Topology Vector Feature Extraction and Au- tomatic Recognition Method for Underwater Target[J]. Acta Acustica, 2018, 43(2): 154-162.

[2] Krizhevsky A, Sutskever I, Hinton G E. ImageNet Classification with Deep Convolutional Neural Networks[J]Commu- nications of the ACM, 2017, 60(6): 84-90.

[3] He K, Zhang X, Ren S, et al. Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification[C]//2015 IEEE International Conference on Computer Vision(ICCV). Santiago, Chile: IEEE, 2015: 1026-1034.

[4] Szegedy C, Liu W, Jia Y, et al. Going Deeper with Convolutions[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition(CVPR). Boston, Massachusetts, USA: IEEE, 2015: 1-9.

[5] Hu J, Shen L, Sun G. Squeeze-and-Excitation Networks[EB/OL]. (2017-09-05)[2018-09-18]. http://adsabs. harvard.edu/abs/2017arXiv170901507H.

[6] McKay J, Gerg I, Monga V, et al. What's Mine is Yours: Pretrained CNNs for Limited Training Sonar ATR[C]// Oceans 2017-Anchorage. Alaska, USA: Oceans, 2017: 1-7.

[7] Gao F, Huang T, Wang J, et al. Dual-Branch Deep Con-volution Neural Network for Polarimetric SAR Image Classification[J]. Applied Sciences, 2017, 7(5): 447-465.

[8] Huang Z, Pan Z, Lei B. Transfer Learning with Deep Convolutional Neural Network for SAR Target Classification with Limited Labeled Data[J]. Remote Sensing, 2017(9): 907-927.

[9] Glorot X, Bordes A, Bengio Y. Deep Sparse Rectifier Neural Networks[C]//International Conference on Artificial Intelligence and Statistics. Ft. Lauderdale, UK, 2011: 315-323.

[10] 盧建斌, 張云雷, 席澤敏, 等. 基于統(tǒng)計特征的水下目標一維距離像識別方法研究[J]. 聲學技術(shù), 2015, 34(2): 121-126.Jianbin Lu, Yunlei Zhang, Zemin Xi et al., Research on underwater target recognition with statistical features of high resolution range profiles [J]. Technical Acoustics, 2015, 34(2): 121-126.

[11] 閆慧辰, 彭石寶, 許稼, 等. 水下旋轉(zhuǎn)目標縮比聲納成像方法及系統(tǒng): CN104297756A[P]. 2014-10-09.

A Sonar Image Recognition Method Based on Convolutional Neural Network Trained through Transfer Learning

ZHU Zhao-tong, FU Xue-zhi,HU You-feng

(1. The 705 Research Institute, China Shipbuilding Industry Corporation, Xi’an 710077, China, 2. 92228thUnit, the People’s Liberation Army of China, Beijing, 102249)

A sonar image recognition method using convolutional neural network trained by transfer learning is proposed aiming at the data shortage problem in making use of conventional training method for sonar image recognition. Based on the principle of transfer learning, the existing pre-trained network is fine-tuned and retrained to reduce the demand for training data. Pool experiment of the scale model verifies the effectiveness of this method. Experimental results show that, on the basis of AlexNet pre-trained network, the transfer learning method uses less training data compared with the conventional learning method, and achieves a recognition rate of 95.81% in a short time. The experiment also compares the performance of the network after the transfer learning based on six kinds of pre-trained networks, and the result shows that the recognition rate of the transfer network based on VGG16 is the highest, which can reach 99.48%. It is verified that the deeply convolutional neural network has certain noise tolerance ability, and can ensure a high recognition rate in the background of strong noise.

sonar imaging; automatic target recognition; convolutional neural network; transfer learning

相關(guān)文章導航

1. 趙國貴, 梁紅, 陸禹, 等. 基于多參量聯(lián)合特征的水下小目標分類識別[J]. 水下無人系統(tǒng)學報, 2019, 27(6).

2. 杜雪, 廖泓舟, 張勛. 基于深度卷積特征的水下目標智能識別方法[J]. 水下無人系統(tǒng)學報, 2019, 27(3).

3. 李磊, 杜度, 陳科. 基于改進生物啟發(fā)模型的UUV在線避障方法[J]. 水下無人系統(tǒng)學報, 2019, 27(3).

4. 杜度. 基于RBF神經(jīng)網(wǎng)絡(luò)參數(shù)自整定的AUV深度控制[J]. 水下無人系統(tǒng)學報, 2019, 27(3).

5. 王明亮, 李德隆, 林揚, 等. 基于能量優(yōu)化的AUV舵角解耦方法[J]. 水下無人系統(tǒng)學報, 2019, 27(3).

6. 楊管金子, 李建辰, 黃海, 國琳娜. 基于主慣導參數(shù)特性的傳遞對準調(diào)平方法[J]. 水下無人系統(tǒng)學報, 2018, 26(6).

7. 段杰, 李輝, 陳自立, 等. 基于RBF與OS-ELM神經(jīng)網(wǎng)絡(luò)的AUV傳感器在線故障診斷[J]. 水下無人系 統(tǒng)學報,2018, 26(2).

8. 何心怡, 高賀, 盧軍, 等. 逆合成孔徑成像在魚雷真假目標識別中的應用及展望[J]. 水下無人系統(tǒng)學報, 2017,25(4).

9. 溫志文, 楊春武, 蔡衛(wèi)軍, 等. 復雜環(huán)境下UUV完全遍歷路徑規(guī)劃方法[J]. 魚雷技術(shù), 2017, 25(1).

10. 吳亞軍, 毛昭勇. 小波神經(jīng)網(wǎng)絡(luò)多傳感器信息融合在AUV深度測量中的應用[J]. 魚雷技術(shù), 2016, 24(4).

11. 何心怡, 高賀, 陳菁, 等. 魚雷真假目標識別技術(shù)現(xiàn)狀與展望[J]. 魚雷技術(shù), 2016, 24(1).

12. 張遠彪, 朱三文. 有缺陷的多接收陣合成孔徑聲吶成像技術(shù)[J]. 魚雷技術(shù), 2015, 23(4).

13. 范若楠, 曾進, 任慶生, 等. 基于神經(jīng)網(wǎng)絡(luò)響應面的魚雷總體性能參數(shù)仿真優(yōu)化方法[J]. 魚雷技術(shù), 2015, 23(5).

TB566; TN911.73

A

2096-3920(2020)01-0089-08

10.11993/j.issn.2096-3920.2020.01.013

朱兆彤, 付學志, 胡友峰. 一種利用遷移學習訓練卷積神經(jīng)網(wǎng)絡(luò)的聲吶圖像識別方法[J]. 水下無人系統(tǒng)學報, 2020, 28(1): 89-96.

2019-01-16;

2019-05-26.

中國船舶重工集團公司第七〇五研究所博士后基金資助項目; 陜西省博士后科研項目資助(2017BSHQYXMZZ04).

朱兆彤(1988-), 男, 博士, 工程師, 主要研究方向為聲吶成像與目標識別.

(責任編輯: 陳 曦)

猜你喜歡
聲吶圖像識別卷積
基于全卷積神經(jīng)網(wǎng)絡(luò)的豬背膘厚快速準確測定
支持向量機的艦船圖像識別與分類技術(shù)
空投聲吶浮標空中運動軌跡研究
基于計算機視覺的圖像識別技術(shù)研究
一種基于卷積神經(jīng)網(wǎng)絡(luò)的地磁基準圖構(gòu)建方法
基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
一種并行不對稱空洞卷積模塊①
人工智能背景下圖像識別技術(shù)淺析
意大利萊昂納多公司推出世界上最小的主被動水下聲吶系統(tǒng)
泰利斯公司研制緊湊型CAPTAS 4聲吶
建昌县| 安吉县| 鹤岗市| 都兰县| 四会市| 灌南县| 武隆县| 庆云县| 琼结县| 阜新市| 嘉禾县| 竹北市| 阳高县| 安吉县| 云和县| 彰武县| 三河市| 时尚| 高台县| 阿坝| 永靖县| 水城县| 虹口区| 德昌县| 文登市| 昌江| 万载县| 石林| 郓城县| 双城市| 恩平市| 柳林县| 安吉县| 东兰县| 进贤县| 西和县| 治多县| 财经| 隆德县| 澄江县| 玉溪市|