摘 要:
針對側(cè)掃聲納水下目標(biāo)圖像稀缺,獲取難度大、成本高,導(dǎo)致基于深度學(xué)習(xí)的目標(biāo)檢測模型性能差的問題,結(jié)合光學(xué)域類目標(biāo)數(shù)據(jù)集豐富的現(xiàn)狀,提出一種基于通道和空間注意力(channel and spatial attention, CSA)模塊、最小二乘生成對抗生成網(wǎng)絡(luò)(least squares generative adversarial networks, LSGAN)及循環(huán)對抗生成網(wǎng)絡(luò)(cycle generative adversarial networks, CycleGAN)的側(cè)掃聲納水下目標(biāo)圖像樣本擴(kuò)增方法。首先,受CycleGAN的啟發(fā),設(shè)計(jì)基于循環(huán)一致性的單循環(huán)網(wǎng)絡(luò)結(jié)構(gòu),保證模型的訓(xùn)練效率。然后,在生成器中融合CSA模塊,減少信息彌散的同時增強(qiáng)跨緯度交互。最后,設(shè)計(jì)了基于LSGAN的損失函數(shù),提高生成圖像質(zhì)量的同時提高訓(xùn)練穩(wěn)定性。在船舶光學(xué)域數(shù)據(jù)集與側(cè)掃聲納沉船數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),所提方法實(shí)現(xiàn)了光學(xué)-側(cè)掃聲納樣本間信息的高效、穩(wěn)健轉(zhuǎn)換以及大量側(cè)掃聲納目標(biāo)樣本的擴(kuò)增。同時,基于本文生成樣本訓(xùn)練后的檢測模型進(jìn)行了水下目標(biāo)檢測,結(jié)果表明,使用本文樣本擴(kuò)增數(shù)據(jù)訓(xùn)練后的模型在少樣本沉船目標(biāo)檢測的平均準(zhǔn)確率達(dá)到了84.71%,證明了所提方法實(shí)現(xiàn)了零樣本和小樣本水下強(qiáng)代表性目標(biāo)樣本的高質(zhì)量擴(kuò)增,并為高性能水下目標(biāo)檢測模型構(gòu)建提供了一種新的途徑。
關(guān)鍵詞:
樣本擴(kuò)增; 側(cè)掃聲納; 循環(huán)生成對抗網(wǎng)絡(luò); 通道和空間注意力模塊; 最小二乘生成對抗網(wǎng)絡(luò)
中圖分類號:
P 227
文獻(xiàn)標(biāo)志碼: A""" DOI:10.12305/j.issn.1001-506X.2024.05.06
CSLS-CycleGAN based side-scan sonar sample augmentation
method for underwater target image
TANG Yulin1, WANG Liming1,*, YU Deying1, LI Houpu1, LIU Min2, ZHANG Weidong3
(1. College of Electrical Engineering, Naval University of Engineering, Wuhan 430033, China;
2. Unit 91001 of the PLA, Beijing 100841, China; 3. Unit 31016 of the PLA, Beijing 100088, China)
Abstract:
In view of the scarcity, difficulty and high cost of side-scan sonar underwater target images, and the poor performance of deep-learning based target detection model, combined with the abundant target data set in optical domain, a sample augmentation method for underwater target side-scan sonar images based on channel and spatial attention(CSA) module and least squares generative adversarial networks(LSGAN) and cycle generative adversarial networks(CycleGAN) is propesed. Firstly, inspired by CycleGAN, a single cycle network structure based on cycle consistency is designed to ensure the training efficiency of the model. Then, the CSA module is integrated into the generator to reduce information dispersion while enhancing cross-latitude interaction. Finally, a loss function based on LSGAN is designed to improve the quality of the generated image while improving the training stability. Experiments are carried out on ship optical domain data set and side-scan sonar shipwreck data set. The results show that the proposed method achieves efficient and robust conversion of information between optical and side-scan sonar samples and augmentation of a large number of side-scan sonar target samples. At the same time, the underwater target detection is carried out based on the detection model generated after sample training in this paper. The results show that the average precision value of the model after training with sample augmentation data in this paper reachs 84.71% in detecting shipwreck targets with few samples, which proves that the method in this paper achieves high-quality amplification of highly representative underwater target samples with zero samples and small samples. It also provides a new way to construct high-performance underwater target detection model.
Keywords:
sample augmentation; side-scan sonar; cycle generative adversarial networks (CycleGAN); channel and spatial attention (CSA) module; least squares generative adversarial networks (LSGAN)
0 引 言
水下目標(biāo)探測在航行安全、海洋調(diào)查、海上搜救、軍事任務(wù)等領(lǐng)域具有非常重要的作用[1]。目前,水下目標(biāo)探測的方法主要包括聲探、磁探、光探、電探等,其中聲波因其水中成像條件、傳播距離以及范圍的優(yōu)勢成為目前主流的水下目標(biāo)探測方式[2-4]。側(cè)掃聲納較其他聲學(xué)設(shè)備擁有更寬的掃幅和更高的成像分辨率,且體積小、價格低廉,在水下目標(biāo)探測中應(yīng)用廣泛[5-9]。
目前,基于側(cè)掃聲納圖像的水下目標(biāo)檢測多基于人工目視判讀,存在效率低、耗時長、主觀依賴性強(qiáng)等問題[10]。因此,針對側(cè)掃聲納圖像的水下目標(biāo)自動探測方法研究十分必要[11]。
部分學(xué)者采用機(jī)器學(xué)習(xí)方法,聯(lián)合人工特征和分類器實(shí)現(xiàn)水下目標(biāo)的自動探測,在一定條件下取得了較好的探測效果[12-13]。但受復(fù)雜海底環(huán)境和測量條件的影響,側(cè)掃聲納圖像通常存在低分辨率、特征貧瘠、噪聲復(fù)雜以及畸變嚴(yán)重等特點(diǎn),使傳統(tǒng)的機(jī)器學(xué)習(xí)方法探測精度受到限制[14-16]。近年來,計(jì)算機(jī)視覺領(lǐng)域發(fā)展迅速,基于深度學(xué)習(xí)的目標(biāo)檢測方法性能遠(yuǎn)超傳統(tǒng)機(jī)器學(xué)習(xí)方法,引起了水下探測領(lǐng)域的廣泛關(guān)注[17-24]。然而,基于深度卷積神經(jīng)網(wǎng)絡(luò)(deep convolutional neural network, DCNN)的目標(biāo)探測模型需要大量訓(xùn)練樣本,高代表性樣本是實(shí)現(xiàn)高性能探測的關(guān)鍵[25]。而側(cè)掃聲納圖像因數(shù)據(jù)采集成本高、耗時長、目標(biāo)較少等問題導(dǎo)致數(shù)量嚴(yán)重匱乏,樣本代表性不足[26]。因此,急需開展小樣本水下目標(biāo)側(cè)掃聲納圖像的樣本擴(kuò)增。
受光學(xué)影像中樣本擴(kuò)增技術(shù)的啟發(fā),側(cè)掃聲納水下目標(biāo)樣本擴(kuò)增方法主要通過遷移學(xué)習(xí)[27-30]方法獲得,但是在遷移轉(zhuǎn)換模型訓(xùn)練時無法全面顧及聲波發(fā)射單元、聲波傳播介質(zhì)、聲波反射目標(biāo)、聲波反射背景場、聲波接收單元、噪聲和數(shù)據(jù)后處理等七大類要素的影響[31-32],生成樣本代表性弱,對基于DCNN的目標(biāo)探測網(wǎng)絡(luò)泛化能力和精度提升有限。
近年來,隨著生成對抗網(wǎng)絡(luò)(generate adversarial networks, GAN)的迅速發(fā)展,其被廣泛地應(yīng)用于利用外源圖像進(jìn)行風(fēng)格遷移的任務(wù)中,其核心邏輯是通過生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò)相互對抗、博弈最終生成判別網(wǎng)絡(luò)無法判別真?zhèn)蔚母哔|(zhì)量圖像,具有比傳統(tǒng)機(jī)器學(xué)習(xí)更強(qiáng)、更全面的特征學(xué)習(xí)和表達(dá)能力。Isola等[33]提出了Pix2Pix模型,首次實(shí)現(xiàn)了基于GAN的圖像遷移任務(wù),但該網(wǎng)絡(luò)要求的輸入必須是成對圖像,不適用于側(cè)掃聲納圖像的樣本擴(kuò)增。為解決成對數(shù)據(jù)的限制,Zhu等[34]設(shè)計(jì)了循環(huán)GAN(cycle GAN, CycleGAN),通過非成對數(shù)據(jù)的非監(jiān)督學(xué)習(xí)實(shí)現(xiàn)風(fēng)格遷移任務(wù)。受CycleGAN啟發(fā),李寶奇等[35]通過基于循環(huán)一致性的改進(jìn)CycleGAN實(shí)現(xiàn)水下小目標(biāo)光學(xué)圖像到合成孔徑聲納圖像的遷移生成。但是,由于側(cè)掃聲納水下目標(biāo)圖像的高噪聲、不同環(huán)境下差異大的特點(diǎn),在使用非配對光學(xué)-側(cè)掃聲納圖像訓(xùn)練時,生成器難以提取圖像特征從而生成與目標(biāo)域相似的圖像來“欺騙”判別器,進(jìn)而造成模型振蕩或生成器和判別器之間的不平衡,從而導(dǎo)致模型過擬合或模式崩潰。另外,側(cè)掃聲納圖像特征貧瘠、輻射畸變大的特點(diǎn)導(dǎo)致模型在轉(zhuǎn)換過程中容易混淆背景與目標(biāo)特征,丟失目標(biāo)輪廓、紋理和噪聲,而這些恰恰是側(cè)掃聲納圖像的關(guān)鍵。
綜上,本文提出了一種基于通道和空間注意力(channel and spatial attention, CSA)模塊、最小二乘GAN(least squares GAN, LSGAN)及CycleGAN(簡稱為CSLS-CycleGAN)的水下目標(biāo)側(cè)掃聲納圖像樣本擴(kuò)增方法。首先,設(shè)計(jì)基于循環(huán)一致性的單循環(huán)網(wǎng)絡(luò)結(jié)構(gòu),保證模型的訓(xùn)練效率以及任務(wù)的專注度。其次,在生成器中融合CSA模塊,減少信息彌散的同時增強(qiáng)跨緯度交互,在學(xué)習(xí)全局特征的同時關(guān)注目標(biāo)的細(xì)粒度特征。然后,設(shè)計(jì)了基于LSGAN的損失函數(shù),提高生成圖像質(zhì)量的同時提高訓(xùn)練穩(wěn)定性,避免模式崩潰的情況。最后,基于該轉(zhuǎn)換模型,將船舶目標(biāo)光學(xué)圖像轉(zhuǎn)換為側(cè)掃聲納圖像,實(shí)現(xiàn)樣本高質(zhì)量擴(kuò)增,以期解決側(cè)掃聲納水下目標(biāo)圖像稀缺,為小樣本水下強(qiáng)代表性目標(biāo)樣本擴(kuò)增以及高性能水下目標(biāo)檢測模型構(gòu)建提供了一種新的途徑。
1 CSLS-CycleGAN
足夠數(shù)量的強(qiáng)代表性樣本是訓(xùn)練高性能探測模型的前提,是最終形成高性能智能探測模型的關(guān)鍵組成。使用GAN實(shí)現(xiàn)水下目標(biāo)雙域轉(zhuǎn)換以及側(cè)掃聲納水下目標(biāo)圖像樣本擴(kuò)增是本文的重要組成,網(wǎng)絡(luò)的使用是實(shí)現(xiàn)高質(zhì)量樣本擴(kuò)增的關(guān)鍵。針對光學(xué)圖像與側(cè)掃聲納圖像風(fēng)格差異較大的問題,傳統(tǒng)的GAN存在生成數(shù)據(jù)質(zhì)量較差,甚至兩個域的圖像沒有任何匹配關(guān)系的問題。為了讓生成圖片與輸出圖像產(chǎn)生強(qiáng)關(guān)聯(lián),本文使用基于單循環(huán)一致性的GAN,在保證訓(xùn)練效率的同時重點(diǎn)關(guān)注光學(xué)域向聲學(xué)域的轉(zhuǎn)換任務(wù)。同時,在生成器中融合CSA模塊,減少信息彌散的同時增強(qiáng)跨緯度交互。最后,設(shè)計(jì)了基于LSGAN的組合損失函數(shù),提高生成圖像質(zhì)量的同時提高模型訓(xùn)練的穩(wěn)定性。本文提出網(wǎng)絡(luò)的具體結(jié)構(gòu)圖如圖1所示。
1.1 網(wǎng)絡(luò)結(jié)構(gòu)
本文模型主體由兩個生成器Gos、Gso和一個判別器D組成,將從光學(xué)域中的圖像轉(zhuǎn)換成聲學(xué)域的圖像的生成器稱為Gos,從聲學(xué)域中的圖像轉(zhuǎn)換成光學(xué)域的圖像生成器稱為Gso,將判別圖像屬于聲學(xué)域或虛假的判別器稱為D。
原始輸入光學(xué)圖像通過生成器Gos獲得側(cè)掃聲納圖像S后,將生成的側(cè)掃聲納圖像作為輸入通過生成器Gso獲得與光學(xué)圖像相同域的圖像重構(gòu)光學(xué)圖像,最終保持光學(xué)圖像與重構(gòu)光學(xué)圖像一致,讓圖像循環(huán)了一周回到起點(diǎn)并保持一致。生成器結(jié)構(gòu)如圖2所示。
首先,使用3個卷積層對輸入圖像進(jìn)行特征提取,每個卷積層后使用實(shí)例歸一化(instance normalization, IN)操作以及ReLU激活函數(shù),IN操作僅對單張圖像的像素進(jìn)行均值和標(biāo)準(zhǔn)差的計(jì)算,避免了批量歸一化(batch normalization, BN)中一批圖像之間的相互影響,且擁有更高的效率。其次,使用注意力機(jī)制CSA模塊對圖像通道和空間特征進(jìn)行全局學(xué)習(xí),建立局部細(xì)節(jié)特征與全局特征的交互關(guān)系,并通過跳躍連接實(shí)現(xiàn)多尺度特征融合。然后,使用6個殘差網(wǎng)絡(luò)在進(jìn)一步提取圖像信息的同時對輸入數(shù)據(jù)特征進(jìn)行保留。接著,使用2個轉(zhuǎn)置卷積進(jìn)行上采樣操作。最后,再連接一個卷積層,獲取的圖像矩陣經(jīng)函數(shù)激活Tanh獲得最后的輸出圖像。
為加強(qiáng)輸入數(shù)據(jù)與輸出數(shù)據(jù)之間的關(guān)系,采用殘差網(wǎng)絡(luò)代替深層的卷積網(wǎng)絡(luò)。通過特征提取層提取特征,再將特征數(shù)據(jù)傳遞給輸出層,避免生成器損失輸入層的一些基本信息,保留輸入數(shù)據(jù)的部分特征,更好地保護(hù)原始圖像信息的完整性,解決傳統(tǒng)神經(jīng)網(wǎng)絡(luò)隨網(wǎng)絡(luò)深度的增加而梯度消失明顯的問題,加快模型的訓(xùn)練速度,改善模型的訓(xùn)練效果。判別器結(jié)構(gòu)如圖3所示。
判別器使用5個卷積層對輸入圖像進(jìn)行特征提取,每個卷積層后使用IN操作以及LeakyReLU激活函數(shù),其中最后一層卷積層直接返回線性操作結(jié)果。
1.2 CSA模塊
對側(cè)掃聲納圖像的目標(biāo)細(xì)節(jié)特征與背景特征充分學(xué)習(xí)是生成高質(zhì)量圖像的關(guān)鍵,為了更好地對輸入圖像的全局信息以及局部特征進(jìn)行學(xué)習(xí),增強(qiáng)通道與空間的相互作用,本文設(shè)計(jì)了一種跨越通道和空間緯度的CSA模塊,通過減少信息彌散的同時放大全局的跨緯度交互以提高網(wǎng)絡(luò)性能。CSA模塊由通道注意力和空間注意力組成,具體結(jié)構(gòu)如圖4所示。
本文通道注意力和空間注意力模塊采用并行計(jì)算,將各自輸出的權(quán)重系數(shù)與初始輸入特征圖進(jìn)行元素相乘后,再進(jìn)行兩者特征信息的逐元素相加,在提高效率的同時放大跨緯度的感受域。
Ioutput=(Mc(I)·I)+(Ms(I)·I)(1)
式中:Mc(I)和Ms(I)分別為通道注意力和空間注意力模塊的特征輸出,對各模塊的具體描述如下。
1.2.1 通道注意力
通道注意力強(qiáng)調(diào)模型應(yīng)該關(guān)注什么特征,其每個通道都包含一個特定的特征響應(yīng)。首先,將輸入的特征I(H×W×C)分別經(jīng)過基于寬和高的全局最大池化和全局平均池化,得到兩個1×1×C的特征圖。其次,再將其分別送入一個兩層感知器(multilayer perceptron, MLP),第1層神經(jīng)元個數(shù)為C/r(r為減少率),激活函數(shù)為ReLU,第2層神經(jīng)元個數(shù)為C,這個兩層的神經(jīng)網(wǎng)絡(luò)是共享的。然后,將MLP輸出的特征進(jìn)行基于逐元素的加和操作后經(jīng)過Sigmoid激活函數(shù),生成最終的通道注意力特征,即Mc。最后,將Mc和特征I做逐元素乘法操作可得到縮放后的新特征:
Mc(I)=σ(MLP(AvgPool(I))+MLP(MaxPool(I)))=
σ(W1(W0(ICAvg))+W1(W0(ICMax)))(2)
式中:σ為Sigmoid激活函數(shù);W0∈RCr×C,W1∈RC×Cr,兩者為MLP共享網(wǎng)絡(luò)的權(quán)重。
1.2.2 空間注意力
空間注意力強(qiáng)調(diào)模型關(guān)注的特征在哪里,即增強(qiáng)或抑制不同空間位置的特征。首先將輸入的特征I(H×W×C)做一個基于通道的全局最大池化和全局平均池化,得到兩個H×W×1的特征圖后進(jìn)行基于通道的拼接操作。其次,通過一個7×7卷積核的卷積操作將圖像降維為1個通道。然后,通過Sigmoid激活函數(shù)生成空間注意力特征,即Ms。最后,將Ms和特征I做逐元素點(diǎn)乘乘法,得到最終生成的特征。
Ms(I)=σ(f7×7([AvgPool(I),MaxPool(I)]))=
σ(f7×7([ISAvg,ISMax]))(3)
式中:σ為Sigmoid激活函數(shù);f7×7為卷積核為7×7的卷積操作。
圖像初始特征學(xué)習(xí)熱力圖如圖5所示,可以看出CSA模塊能動態(tài)地抑制或強(qiáng)調(diào)特征的映射,有效避免了關(guān)鍵目標(biāo)特征變成背景特征的情況。
1.3 損失函數(shù)
合適的損失函數(shù)對GAN生成圖像的質(zhì)量提升起到了至關(guān)重要的作用。從提出的網(wǎng)絡(luò)架構(gòu)圖可以看出,其損失函數(shù)由LSGAN損失、Cyclic-consitency損失以及Identity損失3部分組成。LSGAN損失指導(dǎo)生成器生成更加逼真目標(biāo)域的圖像;Cyclic-consitency損失指導(dǎo)生成器生成的圖像與輸入圖像盡可能的接近;Identity損失限制生成器無視輸入數(shù)據(jù)。
1.3.1 LSGAN損失
傳統(tǒng)GAN使用交叉熵作為損失函數(shù),該函數(shù)不優(yōu)化被判別器判定為真實(shí)圖像的圖像,即使這些圖像與判別器的決策邊界仍然很遠(yuǎn),導(dǎo)致生成器生成的圖像質(zhì)量不高以及模型訓(xùn)練不穩(wěn)定。為此,本文采用了LSGAN中目標(biāo)函數(shù)作為模型的損失函數(shù),即采用最小二乘作為損失函數(shù)。
minD VLSGAN(D)=12Es~Pdata(s)[(D(s)-b)2]+
12Ez~Pz(z)[(D(G(z))-a)2](4)
minG VLSGAN(G)=12Ez~Pz(z)[(D(G(z))-c)2](5)
式中:Pdata(s)表示真實(shí)數(shù)據(jù)分布;s表示生成的數(shù)據(jù)與真實(shí)數(shù)據(jù)之間的誤差;G表示生成器;Pz(z)表示輸入噪聲的先驗(yàn)分布。
在判別器D的目標(biāo)函數(shù)中,給真實(shí)數(shù)據(jù)和生成數(shù)據(jù)賦予編碼b與a,b=1表示為真實(shí)數(shù)據(jù),a=0表示為生成數(shù)據(jù),通過最小化判別器判別生成數(shù)據(jù)與0的誤差以及真實(shí)數(shù)據(jù)s與1的誤差,實(shí)現(xiàn)判別器的最優(yōu)化。在生成器Gos的目標(biāo)函數(shù)中,給生成數(shù)據(jù)賦予編碼c,通過最小化生成器生成數(shù)據(jù)z與1的誤差,指導(dǎo)生成器成功欺騙判別器從而獲得高分,此時c=1。因此,將式(4)和式(5)分別轉(zhuǎn)化為
minD VLSGAN(D)=12Es~Pdata(s)[(D(s)-1)2]+
12Ez~Pz(z)[(D(G(z)))2](6)
minG VLSGAN(Gos)=12Ez~Pz(z)[(Dos(G(z))-1)2](7)
1.3.2 Cyclic-consitency損失
為實(shí)現(xiàn)循環(huán)一致性,即要求從光學(xué)域轉(zhuǎn)換為聲學(xué)域時滿足
xGos(x)Gso(Gos(x))≈x(8)
數(shù)學(xué)公式表達(dá)如下:
Lcyc(Gos,Gso)=Ex~Pdata(x)[Gso(Gos(x))-x1](9)
式中:1-范數(shù)為矩陣1-范數(shù),表示所有矩陣的列向量中元素絕對值之和最大的值。
X1=maxj∑mi=1|ai,j|(10)
1.3.3 Identity損失
Identity損失用于限制生成器無視輸入數(shù)據(jù)而去自主修改圖像顏色的情況,表示若將聲學(xué)域圖像送入生成器Gos中,那么應(yīng)盡可能得到本身,具體損失函數(shù)如下:
LIdentity(Gos)=Es~Pdata(s)[(Gos(s)-s)1](11)
因此,網(wǎng)絡(luò)的總損失函數(shù)如下:
Losscyc=minD VLSGAN(D)+minG VLSGAN(Gos)+
λ1Lcyc(Gos,Gso)+λ2LIdentity(Gos)(12)
式中:λ1和λ2為非負(fù)超參數(shù),用于調(diào)整損失對整體效果的不同影響。衡量每一個損失,以平衡每一個組成部分的重要性。
2 實(shí) 驗(yàn)
基于CSLS-CycleGAN的側(cè)掃聲納圖像樣本擴(kuò)增是本文方法的重要組成,為評估本文方法的可行性和有效性,本實(shí)驗(yàn)對提出的GAN性能進(jìn)行評估。通過外源光學(xué)船舶圖像和側(cè)掃聲納沉船圖像雙域轉(zhuǎn)換的性能對提出模型進(jìn)行評估,包括與主流GAN進(jìn)行比對,并對生成的圖像的質(zhì)量進(jìn)行定性定量的分析;生成圖像對YOLOv5目標(biāo)檢測模型的檢測性能提升的作用;以及通過消融實(shí)驗(yàn)對GAN中使用策略的有效性進(jìn)行定性與定量的分析。
2.1 數(shù)據(jù)集
本文用于實(shí)驗(yàn)的數(shù)據(jù)集主要由側(cè)掃聲納沉船圖像以及衛(wèi)星光學(xué)船舶數(shù)據(jù)組成。側(cè)掃聲納沉船數(shù)據(jù)集由各海道測量部門和國內(nèi)外主流側(cè)掃聲納儀器設(shè)備,在多區(qū)域?qū)崪y獲得的600張側(cè)掃聲納沉船圖像組成,部分樣本如圖6(a)所示。衛(wèi)星光學(xué)船舶數(shù)據(jù)集由部分HRSC2016組成,本實(shí)驗(yàn)挑選其中代表性強(qiáng)的數(shù)據(jù)共5 000張,部分樣本如圖6(b)所示。
2.2 評價指標(biāo)
根據(jù)文獻(xiàn)[36]的研究,F(xiàn)ID(Frechet inception distance)、最大平均差異(maximum mean discrepancy, MMD)和1-最近鄰分類器(1-nearest-neighbor, 1-NN)相比其他指標(biāo)可以更好地評價生成樣本的清晰度、特征的多樣性和圖片的真實(shí)性。
FID是計(jì)算真實(shí)圖像與生成圖像的特征向量之間距離的度量,用于度量兩組圖像的相似度,F(xiàn)ID的計(jì)算方法為
FID=μr-μg2+tr(Σr+Σg-2ΣrΣg)(13)
式中:μr和μg分別為兩個分布的均值向量;Σr和Σg為其協(xié)方差矩陣;·為向量的范數(shù)。FID值越小,圖像增強(qiáng)效果越好。
MMD基于最大均方差的統(tǒng)計(jì)檢驗(yàn)來度量兩個特征分布之間的相似性,將真實(shí)集和生成集映射到具有固定核函數(shù)的核空間,然后計(jì)算兩個分布之間的平均差。MMD的計(jì)算公式為
MMD2(X,Y)=E[K(Xi,Xj)-2K(Xi,Yj)+K(Yi,Yj)](14)
式中:X代表真實(shí)圖像集;Xi和Xj是從X中提取的樣本;Y代表生成的圖像集;Yi和Yj是從Y中提取的采樣;E代表期望值;K是高斯核。較低的MMD值表示更有效的圖像增強(qiáng)。
1-NN使用二值分類器將n個實(shí)數(shù)集(標(biāo)記為1)與n個生成集(標(biāo)記為0)混合,然后隨機(jī)分為訓(xùn)練集T1(編號為2n-1)和測試集T2(編號為1),用T1訓(xùn)練分類器,用T2獲得分類精度,以此來計(jì)算兩個圖像集之間的相似性。以上步驟循環(huán)2n次,每次選擇不同的T2,最后計(jì)算平均分類準(zhǔn)確率。精確度越接近0.5越好。
同時,考慮到本文的目的是對匱乏的側(cè)掃聲納水下目標(biāo)圖像進(jìn)行樣本擴(kuò)增,來提高基于深度學(xué)習(xí)的目標(biāo)檢測模型的性能,因此接下來本文使用基于深度學(xué)習(xí)的目標(biāo)檢測模型進(jìn)行對比實(shí)驗(yàn)。目前,目標(biāo)檢測模型非常多,由于本文的目的在于驗(yàn)證擴(kuò)增樣本的有效性,因此本文最終采用高速、輕量、易于部署的YOLOv5模型進(jìn)行評價實(shí)驗(yàn)。將GAN模型生成的圖像作為訓(xùn)練集輸入YOLOv5網(wǎng)絡(luò),將真實(shí)圖像作為驗(yàn)證集,通過召回率、精度和平均精度來評估生成的圖像在檢測網(wǎng)絡(luò)中的有效性。
2.3 實(shí)驗(yàn)設(shè)計(jì)
模型訓(xùn)練均基于Pytorch框架用Python語言實(shí)現(xiàn),硬件環(huán)境為:Windows10操作系統(tǒng);CPU為Intel(R) Core(TM) i9-10900X@3.70 GHz; GPU為2塊NVIDIA GeForce RTX 3090,并行內(nèi)存48 GB。
HRSC2016數(shù)據(jù)集由于原始圖像像素過大且大部分均為背景,在訓(xùn)練模型時反而是一種負(fù)擔(dān),因此所有光學(xué)圖像數(shù)據(jù)均在保留目標(biāo)的基礎(chǔ)上統(tǒng)一設(shè)置為250×250。將側(cè)掃聲納沉船圖像按5∶1劃分訓(xùn)練集和評估集,船舶光學(xué)圖像按9∶1劃分為訓(xùn)練集和轉(zhuǎn)換集。側(cè)掃聲納圖像的評估集和光學(xué)圖像的轉(zhuǎn)換集用以進(jìn)行生成圖像質(zhì)量的定量分析。為減少訓(xùn)練時的震蕩,讓模型訓(xùn)練更加的穩(wěn)定,本實(shí)驗(yàn)在訓(xùn)練時引入緩存歷史數(shù)據(jù)的方式。使用list存儲之前10張圖像,每次訓(xùn)練判別器時從list中隨機(jī)抽取一張進(jìn)行判別,讓判別器可以持有判別任意時間點(diǎn)生成器生成圖像的能力。模型訓(xùn)練的參數(shù)如表1所示。
表1中,λ1和λ2是損失函數(shù)式(12)中的參數(shù),β是Adam優(yōu)化器的參數(shù)。
2.4 實(shí)驗(yàn)與分析
2.4.1 定量分析
本節(jié)首先對模型的訓(xùn)練過程以及性能進(jìn)行分析和評估。本文提出的網(wǎng)絡(luò)最初受CycleGAN啟發(fā),將本文提出的模型與不同結(jié)構(gòu)的CycleGAN模型(即生成器采用ResNet-06、ResNet-09、UNet-128、UNet-256基礎(chǔ)網(wǎng)絡(luò))進(jìn)行比較,結(jié)果如圖7所示。
從圖7可以看出,5種模型的損失值均隨著訓(xùn)練步數(shù)的增加而不斷減小并最終趨于穩(wěn)定,達(dá)到擬合狀態(tài)。其中,本文提出的網(wǎng)絡(luò)在Cyclic-consitency損失、LSGAN損失以及Identity損失中均最低,同時在整個訓(xùn)練過程中最為穩(wěn)定,不存在其他幾個網(wǎng)絡(luò)在訓(xùn)練過程中出現(xiàn)較大的振幅變化的情況。
因?yàn)楸疚哪P蛯儆跓o監(jiān)督學(xué)習(xí)的雙域圖像的風(fēng)格遷移,因此將上述模型與該領(lǐng)域主流的pix2pix、DualGAN[37]以及DiscoGAN[38]進(jìn)行生成圖像的對比,比較對象為將HRSC2016轉(zhuǎn)換集中的500張光學(xué)圖像轉(zhuǎn)換生成的側(cè)掃聲納沉船圖像與真實(shí)側(cè)掃聲納評估集中的100張圖像進(jìn)行定量分析,分別計(jì)算FID、MMD和K-NN,其中K設(shè)置為1。最終定量試驗(yàn)結(jié)果如表2所示。
對比組別2~5可以看出,模型結(jié)構(gòu)并不是越復(fù)雜,參數(shù)越多效果越好,相反由于側(cè)掃聲納圖像低分辨率、特征貧瘠等特征,在圖像的生成上越復(fù)雜的模型結(jié)構(gòu)不一定帶來更好的生成效果。組別1證明pix2pix模型生成圖像的質(zhì)量最不理想,可能是由于該模型需要成對的數(shù)據(jù)集作為訓(xùn)練的輸入,本實(shí)驗(yàn)雖然擁有同一目標(biāo)的不同域圖像,但是除了在背景上的差異外,還存在目標(biāo)的尺寸、方位、紋理、分辨率等多維度的差異,不能理解為理想的成對圖像。而組別2~8由于采用無監(jiān)督學(xué)習(xí),不需要成對的雙域圖像即可完成高質(zhì)量的圖像生成,因此均取得優(yōu)于組別1的效果。從組別6和組別7可以看出,DualGAN和DiscoGAN網(wǎng)絡(luò)與CycleGAN網(wǎng)絡(luò)在沉船目標(biāo)光學(xué)與側(cè)掃聲納雙域圖像轉(zhuǎn)換任務(wù)上性能差距不大,均能很好地達(dá)到目的。組別8對比其他組別可以看出,使用本文模型結(jié)構(gòu)的FID和MMD值均最低,1-NN值與0.5最為接近,證明和上述模型相比,本文模型生成的圖像與真實(shí)側(cè)掃聲納沉船圖像擬合程度更高,擁有更好的清晰度、細(xì)節(jié)度和真實(shí)度以及更低的模式崩潰概率。
2.4.2 定性分析
圖8為5種模型對大尺寸、多數(shù)量和小尺寸3種具有典型代表的光學(xué)圖像的轉(zhuǎn)化圖。
從圖8可以看出5種模型均基本實(shí)現(xiàn)了光學(xué)到聲學(xué)的跨域轉(zhuǎn)化,完成了樣本擴(kuò)增。其中,圖8(b)和圖8(c)均不能很好地生成沉船的紋理特征以及背景出現(xiàn)了黑洞的情況;圖8(d)雖然較好地生成了背景但是依然存在白條以及方框背景等情況;圖8(e)在多目標(biāo)和小尺寸目標(biāo)紋理特征的生成中較前面幾個模型有了提高,但是卻出現(xiàn)了邊界的黑框,可能是錯把沉船目標(biāo)的陰影特征學(xué)習(xí)成了背景信息;再看本文方法,相較于前面4種模型,無論是在模型的紋理特征生成上還是背景特征生成上,均取得了不錯的效果。
2.4.3 目標(biāo)探測模型上的性能
考慮到本文的目的是對匱乏的側(cè)掃聲納水下目標(biāo)圖像進(jìn)行樣本擴(kuò)增,以期提高基于深度學(xué)習(xí)的目標(biāo)檢測模型的性能,因此接下來本文使用基于深度學(xué)習(xí)的目標(biāo)檢測模型進(jìn)行對比實(shí)驗(yàn)。目前目標(biāo)檢測模型非常多,由于本文的目的在于驗(yàn)證擴(kuò)增樣本的有效性,因此采用高速、輕量、易于部署的YOLOv5模型進(jìn)行實(shí)驗(yàn)。
以沉船目標(biāo)為對象,設(shè)計(jì)了3組數(shù)據(jù)集分別對YOLOv5模型進(jìn)行訓(xùn)練,具體如表3所示。數(shù)據(jù)集分別是只包含真實(shí)側(cè)掃聲納數(shù)據(jù)、只包含本文模型生成的數(shù)據(jù),以及包含真實(shí)數(shù)據(jù)與生成數(shù)據(jù),并挑選100張真實(shí)的側(cè)掃聲納圖像對訓(xùn)練后的模型進(jìn)行性能評估。其中,生成的沉船數(shù)據(jù)均經(jīng)過數(shù)據(jù)篩選,剔除了擴(kuò)增失敗的圖像。
使用100張真實(shí)的側(cè)掃聲納圖像對訓(xùn)練完成的模型進(jìn)行驗(yàn)證,采用在目標(biāo)檢測評估領(lǐng)域廣泛應(yīng)用的查全率、查準(zhǔn)率和平均精度來評價模型,結(jié)果如表4所示。從表4可以看出,使用本文方法生成圖像進(jìn)行訓(xùn)練的模型在查全率、查準(zhǔn)率和平均精度值均高于僅使用真實(shí)側(cè)掃聲納數(shù)據(jù)訓(xùn)練的模型,證明了生成數(shù)據(jù)在模型性能提升中的起到了關(guān)鍵作用。使用了真實(shí)數(shù)據(jù)和生成數(shù)據(jù)訓(xùn)練的YOLOv5-C和僅僅使用生成數(shù)據(jù)訓(xùn)練的YOLOv5-B在各項(xiàng)評價指標(biāo)差距不大,證明了模型性能的提升原因主要是由于使用了本文方法生成數(shù)據(jù),或者說本文方法生成的圖像滿足了在真實(shí)度、多樣性上要求。
使用訓(xùn)練好的3個模型對真實(shí)沉船側(cè)掃聲納圖像進(jìn)行目標(biāo)檢測,部分效果對比圖如圖9所示。
從圖9可以看出,使用A、B、C 3組數(shù)據(jù)集訓(xùn)練后的YOLOv5模型均可以實(shí)現(xiàn)真實(shí)海底沉船目標(biāo)的識別。但是對比圖9(b)、圖9(c)和圖9(d)可以發(fā)現(xiàn),僅僅使用數(shù)據(jù)集A進(jìn)行訓(xùn)練的模型在沉船目標(biāo)識別的置信度平均在65%,且在定位精度上有待加強(qiáng),沒有對沉船的陰影進(jìn)行很好的識別,在識別準(zhǔn)確率上,將3組圖像中礁石目標(biāo)錯誤地識別為沉船目標(biāo)。而使用了本文擴(kuò)增數(shù)據(jù)集B和C進(jìn)行訓(xùn)練的模型在沉船目標(biāo)陰影識別上效果更好,且無論是在定位精度還是在置信度上均明顯高于僅僅使用真實(shí)數(shù)據(jù)集進(jìn)行訓(xùn)練的模型,平均置信度均達(dá)到了90%。
以上實(shí)驗(yàn)證明了使用本文方法進(jìn)行樣本擴(kuò)增的圖像與真實(shí)側(cè)掃聲納圖像具有更貼近的真實(shí)度、細(xì)節(jié)度與完整度,且實(shí)現(xiàn)了提升基于深度學(xué)習(xí)的目標(biāo)探測模型探測性能的目的。
2.4.4 消融實(shí)驗(yàn)與評估
為了驗(yàn)證各個模塊在本文模型性能中的作用,采用控制變量法分別對CSA模塊和LSGAN損失函數(shù)進(jìn)行消融實(shí)驗(yàn),評價指標(biāo)依舊采用FID、MMD和1-NN。設(shè)計(jì)了6組對照實(shí)驗(yàn),實(shí)驗(yàn)配置、訓(xùn)練數(shù)據(jù)集以及評估數(shù)據(jù)和第2.3節(jié)一致,實(shí)驗(yàn)結(jié)果如表5所示。
對比組別1~4可以看出,融入了注意力機(jī)制后模型生成圖像的質(zhì)量更高,其中融合了通道注意力和空間注意力機(jī)制的組別4較僅使用了通道和空間注意力模塊的組別2和3擁有更高的性能,證明了本文提出的CSA模塊對模型的有效性。對比組別5和組別1可以看出,本文提出的LSGAN損失函數(shù)的優(yōu)越性。對比組別6和組別4、組別5可以看出,融合了CSA模塊和LSGAN損失函數(shù)后模型的性能比僅使用單一策略的效果更佳,對模型的整體性能提升起到了至關(guān)重要的作用,體現(xiàn)了本文提出的方法的有效性。
使用不同策略訓(xùn)練的6組模型對部分光學(xué)圖像的轉(zhuǎn)化效果如圖10所示。
從圖10可以看出,組別1生成的數(shù)據(jù)真實(shí)度最低,對比組別2和組別1可以看出,增加了通道注意力模塊的模型在生成目標(biāo)時能夠挖掘更多的細(xì)節(jié)特征,但是在背景特征生成上有待加強(qiáng)。對比組別3和組別1可以看出,增加了空間注意力模塊的模型在生成圖像的背景時效果更優(yōu),但是仍然存在背景黑洞的情況,并且在目標(biāo)細(xì)節(jié)特征的生成上效果一般。對比組別4和組別1可以看出,采用了CSA模塊的模型在目標(biāo)細(xì)節(jié)特征以及背景特征生成上能力提升明顯。對比組別5和組別1可以看出,采用了LSGAN目標(biāo)函數(shù)的模型較好地實(shí)現(xiàn)了目標(biāo)圖像的生成,但是在背景的邊緣仍然存在明顯的方框,顯得不是特別的自然。對比組別6和組別1可以看出,融合CSA模塊和LSGAN目標(biāo)函數(shù)的模型無論是在沉船目標(biāo)的紋理、邊緣等細(xì)節(jié)特征,還是在背景特征上均表現(xiàn)良好,生成了清晰度高、細(xì)節(jié)特征完整、真實(shí)感強(qiáng)的目標(biāo)圖像,證明了本文方法的有效性。
3 結(jié) 論
針對側(cè)掃聲納水下目標(biāo)圖像稀缺、獲取難度大、成本高導(dǎo)致基于深度學(xué)習(xí)的目標(biāo)檢測模型性能差的問題,本文結(jié)合光學(xué)域類目標(biāo)數(shù)據(jù)集豐富的優(yōu)勢,提出了一種基于CSLS-CycleGAN的水下目標(biāo)側(cè)掃聲納圖像樣本擴(kuò)增方法,設(shè)計(jì)了單循環(huán)一致性的網(wǎng)絡(luò)結(jié)構(gòu),保證模型的訓(xùn)練效率以及任務(wù)的專注度;在生成器中融合CSA模塊,減少信息彌散的同時增強(qiáng)跨緯度交互,在學(xué)習(xí)全局特征的同時關(guān)注目標(biāo)的細(xì)粒度特征;設(shè)計(jì)了基于LSGAN的損失函數(shù),提高生成圖像質(zhì)量的同時提高訓(xùn)練穩(wěn)定性,避免模式崩潰的情況。通過光學(xué)域船舶圖像與側(cè)掃聲納圖像進(jìn)行實(shí)驗(yàn),實(shí)現(xiàn)了目標(biāo)光學(xué)圖像與側(cè)掃聲納圖像的雙域轉(zhuǎn)化,生成的側(cè)掃聲納水下目標(biāo)圖像清晰度高、細(xì)節(jié)特征完整、真實(shí)感強(qiáng),達(dá)到了少樣本的樣本高質(zhì)量擴(kuò)增的目的,很大程度上解決了基于深度學(xué)習(xí)的水下目標(biāo)檢測模型數(shù)據(jù)匱乏的問題,提升了模型的檢測精度,為水下強(qiáng)代表性目標(biāo)樣本擴(kuò)增以及高性能水下目標(biāo)檢測模型構(gòu)建提供了一種新的思路。
參考文獻(xiàn)
[1] HENRIKSE L. Real-time underwater object detection based on an electrically scanned high-resolution sonar[C]∥Proc.of the IEEE Symposium on Autonomous Underwater Vehicle Techno-logy, 2002.
[2] ARSHAD M R. Recent advancement in sensor technology for underwater applications[J]. Indian Journal of Marine Sciences, 2009, 38(3): 267-273.
[3] GREENE A, RAHMAN A F, KLINE R, et al. Side scan sonar: a cost-efficient alternative method for measuring seagrass cover in shallow environments[J]. Estuarine, Coastal and Shelf Science, 2018. DOI:10.1016/j.ecss, 2018.04.017.
[4] HURTOS N, PALOMERAS N, CARRERA A, et al. Autonomous detection, following and mapping of an underwater chain using sonar[J]. Ocean Engineering, 2017, 130(1): 336-350.
[5] BUSCOMBE D. Shallow water benthic imaging and substrate characterization using recreational-grade side scan-sonar[J]. Environmental Modelling amp; Software, 2017, 89: 1-18.
[6] FLOWERS H J, HIGHTOWER J E. A novel approach to surveying sturgeon using side-scan sonar and occupancy modeling[J]. Marine amp; Coastal Fisheries, 2013, 5(1): 211-223.
[7] JOHNSON S G, DEAETT M A. The application of automated recognition techniques to side-scan sonar imagery[J]. IEEE Journal of Oceanic Engineering: a Journal Devoted to the Application of Electrical and Electronics Engineering to the Oceanic Environment, 1994, 19(1): 138-144.
[8] BURGUERA A, BONIN-FONT F. On-line multi-class segmentation of side-scan sonar imagery using an autonomous underwater vehicle[J]. Journal of Marine Science and Engineering, 2020, 8(8): 557.
[9] CHEN E, GUO J. Real time map generation using sidescan sonar scanlines for unmanned underwater vehicles[J]. Ocean Engineering, 2014, 91: 252-262.
[10] ZHU B Y, WANG X, CHU Z W, et al. Active learning for recognition of shipwreck target in side-scan sonar image[J]. Remote Sensing, 2019, 11(3): 243.
[11] 陽凡林, 獨(dú)知行,吳自銀, 等. 基于灰度直方圖和幾何特征的聲納圖像目標(biāo)識別[J]. 海洋通報, 2006, 25(5): 64-69.
YANG F L, DU Z X, WU Z Y, et al. Object recognizing on sonar image based on histogram and geometric feature[J]. Marine Science Bulletin, 2006, 25(5): 64-69.
[12] LANGNER F, KNAUER C, JANS W, et al. Side scan sonar image resolution and automatic object detection, classification and identification[C]∥Proc.of the Oceans-Europe Conference, 2009.
[13] ISAACS J C. Sonar automatic target recognition for underwater UXO remediation[C]∥Proc.of the Computer Vision amp; Pattern Recognition Workshops, 2015.
[14] YUAN F, XIAO F Q, ZHANG K H, et al. Noise reduction for sonar images by statistical analysis and fields of experts[J]. Journal of Visual Communication and Image Representation, 2021, 74: 102995.
[15] REED S, PETILLOT Y, BELL J.Automated approach to classification of mine-like objects in sidescan sonar using highlight and shadow information[J]. IEE Proceedings—Radar, Sonar and Navigation, 2004, 151(1): 48-56.
[16] KUMAR N, MITRA U, NARAYANAN S S. Robust object classification in underwater sidescan sonar images by using reliability-aware fusion of shadow features[J]. IEEE Journal of Oceanic Engineering, 2015, 40(3): 592-606.
[17] ZHU P P, ISAACS J, FU B, et al. Deep learning feature extraction for target recognition and classification in underwater sonar images[C]∥Proc.of the IEEE 56th Annual Conference on Decision and Control, 2017.
[18] NEUPANE D, SEOK J. A review on deep learning-based approaches for automatic sonar target recognition[J]. Electronics, 2020, 9(11): 1972.
[19] TOPPLE J M, FAWCETT J A. MiNet: efficient deep learning automatic target recognition for small autonomous vehicles[J]. IEEE Geoscience and Remote Sensing Letters, 2021, 18(6): 1014-1018.
[20] HUO G Y, YANG S X, LI Q, et al. A robust and fast method for sidescan sonar image segmentation using nonlocal despeckling and active contour model[J]. IEEE Trans.on Cybernetics, 2016, 47(4): 855-872.
[21] FELDENS P, DARR A, FELDENS A, et al. Detection of boulders in side scan sonar mosaics by a neural network[J]. Geosciences, 2019, 9(4): 159.
[22] TANG Y L, JIN S H, BIAN G, et al. Shipwreck target recognition in side-scan sonar images by improved YOLOv3 model based on transfer learning[J]. IEEE Access, 2020, 8: 173450-173460.
[23] 湯寓麟, 李厚樸, 張衛(wèi)東, 等. 側(cè)掃聲納檢測沉船目標(biāo)的輕量化DETR-YOLO法[J]. 系統(tǒng)工程與電子技術(shù), 2022, 44(8): 2427-2436.
TANG Y L, LI H P, ZHANG W D, et al. Lightweight DETR-YOLO method for detecting shipwreck target in side-scan sonar[J]. Systems Engineering and Electronics, 2022, 44(8): 2427-2436.
[24] NGUYEN H T, LEE E H, LEE S, et al. Study on the classification performance of underwater sonar image classification based on convolutional neural networks for detecting a submerged human body[J]. Sensors, 2019, 20(1): 94.
[25] LI A C, YE A X, CAO B D, et al. Zero shot objects classification method of side scan sonar image based on synthesis of pseudo samples-ScienceDirect[J]. Applied Acoustics, 2021, 173: 107691.
[26] COIRAS E, MIGNOTTE P Y, PETILLOT Y, et al. Supervised target detection and classification by training on augmented reality data[J]. IET Radar, Sonar amp; Navigation, 2007, 1(1): 83-90.
[27] KAPETANOVI N, MIKOVI N, TAHIROVI A. Saliency and anomaly: transition of concepts from natural images to side-scan sonar images[J]. IFAC-Papers OnLine, 2020, 53(2): 14558-14563.
[28] LEE S J, PARK B, KIM A. Deep learning from shallow dives: sonar image generation and training for underwater object detection[EB/OL]. [2023-03-10]. arxiv.org/pdf/1810.07990.pdf.
[29] HUO G Y, WU Z Y, LI J B. Underwater object classification in sidescan sonar images using deep transfer learning and semisynthetic training data[J]. IEEE Access, 2020, 8: 47407-47418.
[30] HUANG C, ZHAO J H, YU Y C, et al. Comprehensive sample augmentation by fully considering side-scan imaging mechanism and environment for shipwreck detection under zero real samples[J]. IEEE Trans.on Geoscience and Remote Sensing, 2021, 60: 5906814.
[31] CHAVEZ P S, ISBRECHT J A, GALANIS P, et al. Processing, mosaicking and management of the monterey bay digital sidescan-sonar images[J]. Marine Geology, 2002, 181(1/3): 305-315.
[32] BLONDEL P. The handbook of sidescan sonar[M]. Berlin: Springer, 2010.
[33] ISOLA P, ZHU J Y, ZHOU T, et al. Image-to-image translation with conditional adversarial networks[C]∥Proc.of the IEEE Conference on Computer Vision and Pattern Recognition, 2017: 5967-5976.
[34] ZHU J Y, PARK T, ISOLA P, et al. Unpaired image-to-image translation using cycle-consistent adversarial networks[C]∥Proc.of the IEEE International Conference on Computer Vision, 2017: 2242-2251.
[35] 李寶奇, 黃海寧, 劉紀(jì)元, 等. 基于改進(jìn)CycleGAN的光學(xué)圖像遷移生成水下小目標(biāo)合成孔徑聲納圖像算法研究[J]. 電子學(xué)報, 2021, 49(9): 1746-1753.
LI B Q, HUANG H N, LIU J Y, et al. Optical image-to-underwater small target synthetic aperture sonar image translation algorithm based on improved CycleGAN[J]. Acta Electronica Sinica, 2021, 49(9): 1746-1753.
[36] ALFARRA M, JUAN C, ANNA F, et al. On the robustness of quality measures for GANs[C]∥Proc.of the 17th European Conference on Computer Vision, 2022: 18-33.
[37] YI Z L, ZHANG H, TAN P L, et al. DualGAN: unsupervised dual learning for image-to-image translation[C]∥Proc.of the IEEE International Conference on Computer Vision, 2017: 2868-2876.
[38] KIM T, CHA M. Learning to discover cross-domain relations with generative adversarial networks[C]∥Proc.of the 34th International Conference on Machine Learning, 2017: 1857-1865.
作者簡介
湯寓麟(1996—),男,博士研究生,主要研究方向?yàn)橹悄芨兄c智能系統(tǒng)、水下目標(biāo)檢測和計(jì)算機(jī)視覺。
王黎明(1978—),男,副教授,博士,主要研究方向?yàn)闊o人裝備智能感知與自主控制。
余德熒(1998—),男,博士研究生,主要研究方向?yàn)楸倍?GNSS精密定位算法、海洋應(yīng)用。
李厚樸(1985—),男,教授,博士,主要研究方向?yàn)榇蟮販y量數(shù)學(xué)分析。
劉 敏(1980—),男,高級工程師,博士,主要研究方向?yàn)榇蟮販y量??罩亓y量與數(shù)據(jù)處理技術(shù)、海洋測繪及海洋地理信息應(yīng)用。
張衛(wèi)東(1981—),男,工程師,主要研究方向?yàn)榈乩硇畔⑾到y(tǒng)。