国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于并聯(lián)位置注意力模塊的PLP-Net的模型及應(yīng)用

2024-12-24 00:00:00康予希譚镕鐙李智勇
關(guān)鍵詞:語義分割注意力機(jī)制深度學(xué)習(xí)

摘 要:為提升高分辨率遙感圖像中信息的精準(zhǔn)提取能力,以應(yīng)對(duì)多影像源數(shù)據(jù)中由于拍攝衛(wèi)星不同而產(chǎn)生的細(xì)節(jié)信息差異,設(shè)計(jì)了一種并聯(lián)位置注意力模塊(parallel location attention module,PLAM)。結(jié)合金字塔結(jié)構(gòu)整合上下文信息,通過在網(wǎng)絡(luò)解碼層與深層網(wǎng)絡(luò)相連接并進(jìn)行上采樣,構(gòu)建了一種新的并行位置金字塔網(wǎng)絡(luò)(PLP-Net)結(jié)構(gòu),以還原輸入圖像的大小。經(jīng)過實(shí)驗(yàn)對(duì)比和全新測(cè)試集的驗(yàn)證,PLP-Net網(wǎng)絡(luò)展現(xiàn)出了良好的分割效果,從而證明了其在遙感圖像復(fù)雜特征細(xì)節(jié)信息提取上的有效性。

關(guān)鍵詞:深度學(xué)習(xí);遙感圖像;語義分割;注意力機(jī)制

中圖分類號(hào):TP75""" 文獻(xiàn)標(biāo)志碼:A

Modeling and application of PLP-Net based on parallel location attention module

Abstract: A parallel location attention module (PLAM) was designed to enhance the precise extraction of information from high-resolution remote sensing images and address the discrepancies in detailed information from using different satellites in multi-image source data. Based on this module, a new parallel location pyramid network (PLP-Net) was constructed by integrating contextual information in pyramid structures, connecting the network decoding layer with the deep network, and upsampling feature images to restore the size of the input image. Experimental comparisons and validations on a new test set revealed that the PLP-Net network achieved strong segmentation results, confirming its effectiveness in extracting complex feature details from remote sensing images.

Key words: deep learning; remote sensing image; semantic segmentation; attention mechanism

近年來,隨著遙感技術(shù)、無人機(jī)以及衛(wèi)星等技術(shù)的不斷發(fā)展,對(duì)分辨率更高的遙感圖像的研究也在不斷深入。高分辨率遙感影像單幅影像分辨率較高、數(shù)據(jù)量較大以及空間分辨率較高等特點(diǎn),使影像中地物種類豐富,紋理類型和面積增大,目標(biāo)物形狀得到很好的展示。

在圖像處理領(lǐng)域,有許多重要的遙感圖像處理方法,圖像語義分割是其中之一。語義分割是根據(jù)圖像中的像素分割[1],通過神經(jīng)網(wǎng)絡(luò)[2]預(yù)測(cè)圖像中的類別,類似于圖像的超分辨率重建[3]。近幾年,設(shè)計(jì)的基于Transformer網(wǎng)絡(luò)結(jié)構(gòu)的遙感語義分割[4]成為熱門的研究方向[5]。通過語義分割,可精確地將圖像中的每個(gè)像素劃分到其所屬的地物類別,為后續(xù)的應(yīng)用提供堅(jiān)實(shí)的基礎(chǔ)。如在環(huán)境評(píng)價(jià)與保護(hù)方面,可以實(shí)現(xiàn)對(duì)生態(tài)環(huán)境、水資源及空氣質(zhì)量等方面的監(jiān)測(cè)和評(píng)估,為環(huán)境保護(hù)和可持續(xù)發(fā)展提供科學(xué)依據(jù)。

本文基于神經(jīng)網(wǎng)絡(luò)語義分割算法和注意力機(jī)制進(jìn)行研究和改進(jìn),使算法能夠在衛(wèi)星遙感影像中得到更細(xì)節(jié)的信息、更好的效果,為遙感圖像的語義分割算法提供一種新的方法和思路。

1 模型結(jié)構(gòu)設(shè)計(jì)

1.1 并聯(lián)位置注意力模塊(parallel location attention module,PLAM)

人類視覺會(huì)本能地關(guān)注特征突出點(diǎn),受到類似啟發(fā),注意力機(jī)制被引入深度學(xué)習(xí)中,并在圖像分類[6]、目標(biāo)檢測(cè)和語義分割等領(lǐng)域得到廣泛應(yīng)用。注意力模型從循環(huán)注意網(wǎng)絡(luò)(RAM)[7] 開始首次將神經(jīng)網(wǎng)絡(luò)和注意力機(jī)制結(jié)合,在循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)[8]中使用了類似策略??臻g變換網(wǎng)絡(luò)(STN)被JADERBERG等[9]提出,主要用來預(yù)測(cè)不同的輸入特征。現(xiàn)在一種新型的通道注意力網(wǎng)絡(luò)(SENet)[10]被廣泛熟知。

經(jīng)典通道注意力機(jī)制僅僅對(duì)通道中的信息進(jìn)行籠統(tǒng)的關(guān)注,沒有將關(guān)注點(diǎn)注重到通道中的不同方向的位置信息,在學(xué)習(xí)中將錯(cuò)過部分特征的細(xì)節(jié)信息。而本文模塊是一種全新的兼容并聯(lián)分支結(jié)構(gòu),同時(shí)用來關(guān)注位置信息的注意力機(jī)制,通過不同方向上提取的特征信息重新整合,以達(dá)到特征重用的目的。PLAM針對(duì)遙感圖像中的細(xì)節(jié)信息,有效地提高了模型訓(xùn)練的效果。PLAM的結(jié)構(gòu)如圖1所示。

PLAM以輸入圖像為起始位置,首先分為兩個(gè)分支。左邊的分支在水平方向進(jìn)行操作,將水平位置上的特征權(quán)重提取出來。右邊的分支在垂直方向進(jìn)行操作,將垂直方向上的特征權(quán)重提取出來。假設(shè)輸入圖像的X的大小為H×W×C,H為輸入圖像的高,代表垂直方向上的特征信息,W為輸入圖像的寬,代表水平方向上的特征信息,C代表輸入特征圖的通道數(shù)。在經(jīng)過左右不同分支的平均池化后,將兩邊的特征權(quán)重進(jìn)行點(diǎn)乘操作,得到特征圖尺寸大小為H×W×C的X1,過程如式(1)所示。

X2=Conv1X1(2)

對(duì)特征信息做1×1卷積操作進(jìn)行降低維度的作用主要是減少參數(shù)量的計(jì)算。

然后經(jīng)過批量歸一化和激活函數(shù)層得到X3。激活函數(shù)使用的是h-swish函數(shù),使用h-swish函數(shù)在增加少量計(jì)算的同時(shí)也獲得了模型精度的提升。過程如式(3)所示。

X3=h-swishBNX2(3)

之后將X3再次經(jīng)過兩個(gè)并行的1×1卷積操作,達(dá)到在不同通道中一個(gè)線性組合的作用,使得網(wǎng)絡(luò)提取的特征更加豐富。在此基礎(chǔ)上對(duì)兩個(gè)特征圖進(jìn)行兩次Sigmoid函數(shù)后進(jìn)行點(diǎn)乘得到X4。此操作是為了將神經(jīng)元的激活頻率從零到完全飽和。得到兩個(gè)特征權(quán)重之后進(jìn)行相乘,用式(4)表示。

最后,X4與原始輸入特征權(quán)x進(jìn)行殘差操作點(diǎn)乘得到特征輸出X5,如式(5)所示。

整個(gè)過程如圖1所示。

1.2 對(duì)稱金字塔模塊(symmetrical pyramid module,SYPM)

該模塊使用在主干網(wǎng)絡(luò)中完成了最后的特征提取之后。該模塊受金字塔網(wǎng)絡(luò)的啟發(fā),是在空間金字塔池化網(wǎng)絡(luò) (SPPNet)[11]的經(jīng)典算法中提出的思想,它的核心思想是聚集不用尺度的感受野,用于解決不同分割目標(biāo)不同尺度的問題。

SYPM由兩個(gè)金字塔結(jié)構(gòu)組成。在主干網(wǎng)絡(luò)輸出的特征圖上使用4個(gè)不同尺度的池化,得到4個(gè)不同尺寸的特征圖,之后將這些特征圖的通道特征進(jìn)行整合,最后輸出一個(gè)結(jié)合了多尺度的融合特征圖,從而達(dá)到不僅關(guān)注全局語義信息而且連接局部細(xì)節(jié)信息的目的。SYPM具體結(jié)構(gòu)如圖2所示。

圖2中經(jīng)過4種不同尺寸自適應(yīng)平均池化后,分別得到2 048×1×1、2 048×2×2、2 048×3×3、2 048×6×6的輸出。該結(jié)果最后會(huì)經(jīng)過一個(gè)1×1的卷積層達(dá)到降維。在金字塔結(jié)構(gòu)中獲得的4種不同尺寸大小的特征進(jìn)行連接,將不同尺度的特征信息進(jìn)行整合,輸出得到一個(gè)雜糅后的特征圖,最后經(jīng)過一個(gè)1×1的卷積,得到上下文信息整合,達(dá)到跨通道的信息交互作用。最終將兩個(gè)金字塔結(jié)構(gòu)的輸出結(jié)果相加,生成最終的分割結(jié)果。

2 并聯(lián)位置金字塔網(wǎng)絡(luò)模型結(jié)構(gòu)設(shè)計(jì)

基于并聯(lián)位置注意力和對(duì)稱金字塔兩個(gè)模塊,設(shè)計(jì)了一種全新的網(wǎng)絡(luò)結(jié)構(gòu)——并聯(lián)位置金字塔網(wǎng)絡(luò)(PLP-Net),其網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

如圖3所示,并聯(lián)位置金字塔網(wǎng)絡(luò)具體操作過程如下:首先針對(duì)輸入大小為256×256的遙感衛(wèi)星數(shù)據(jù)進(jìn)行卷積后經(jīng)過最大池化,得到通道數(shù)為64中大小為64×64的特征圖。隨后正式進(jìn)入特征提取的主干網(wǎng)絡(luò)中。在特征提取中經(jīng)過不同層內(nèi)的卷積和PLAM操作獲得新的特征圖。在特征提取的最后一層中,最后一次進(jìn)行PLAM的操作,并與之相連接,獲得最終提取的深層模糊抽象的特征信息。經(jīng)過SYPM獲得8個(gè)不同尺寸的特征圖。為了不忽視特征提取層中的整體信息,網(wǎng)絡(luò)結(jié)構(gòu)將特征提取層中最后一層的特征信息與SYPM的輸出特征信息相加,得到擁有上下文信息的完整特征圖。

由于特征圖像大小被壓縮到輸入原始圖像的1/8,為了還原到原始圖像大小,最后使用了3次上采樣,每次上采樣對(duì)輸出的圖像進(jìn)行2倍擴(kuò)大,得到最終的分割結(jié)果。本文針對(duì)3次上采樣中的通道設(shè)計(jì)了兩組不同的通道數(shù),一組的通道組合根據(jù)網(wǎng)絡(luò)本身通道數(shù)設(shè)計(jì)為(2 048,256,64),另一組根據(jù)數(shù)據(jù)集類別設(shè)計(jì)為(2 048,8,8)。

3 數(shù)據(jù)集介紹

3.1 數(shù)據(jù)集

該實(shí)驗(yàn)的數(shù)據(jù)集[12]波段數(shù)為3個(gè),遙感影像空間分辨率為2 m。原始圖像在ArcGis、ENVI等遙感圖像處理軟件上進(jìn)行過預(yù)處理,并根據(jù)地貌特點(diǎn)將物種分為道路、耕地、林地、草地、建筑物、水域、壟溝和其他8類。數(shù)據(jù)集包含12 000張圖片,每張圖片的長度和寬度為256×256,隨機(jī)選擇10 000張圖片作為訓(xùn)練集,剩余的圖片作為測(cè)試集,并且測(cè)試集中的圖像都不取自于訓(xùn)練集中,與訓(xùn)練集沒有交叉,避免了數(shù)據(jù)的重復(fù)使用。

3.2 數(shù)據(jù)預(yù)處理

數(shù)據(jù)預(yù)處理是在深度學(xué)習(xí)網(wǎng)絡(luò)中必須經(jīng)過的步驟。因?yàn)檩^大的遙感衛(wèi)星圖像直接輸入網(wǎng)絡(luò)模型時(shí),不僅容易造成內(nèi)存溢出,還會(huì)導(dǎo)致訓(xùn)練效果不佳。同時(shí),高分辨率遙感數(shù)據(jù)集的圖像大小也不一致。因此,對(duì)于一張高分辨率遙感圖像,需要將其切割為大小一致的小圖像作為實(shí)驗(yàn)訓(xùn)練和測(cè)試數(shù)據(jù)集。預(yù)處理流程如下。

1)對(duì)4張5 000×5 000的原始大圖像進(jìn)行顏色的變換。

2)設(shè)置大小為256×256的隨機(jī)采樣方塊,采樣結(jié)束后得到12 000張大小為256×256的圖像,其中10 000張作為訓(xùn)練集和2 000張作為測(cè)試集。

3)對(duì)裁剪后的圖像進(jìn)行數(shù)據(jù)增強(qiáng)操作。

4)根據(jù)網(wǎng)絡(luò)模型確定數(shù)據(jù)集圖像的輸出大小。

4 實(shí)驗(yàn)結(jié)果與分析

4.1 實(shí)驗(yàn)環(huán)境配置

在模型訓(xùn)練過程中,使用學(xué)習(xí)率衰減方法逐漸減小學(xué)習(xí)率。通過反復(fù)實(shí)驗(yàn),確定最終的訓(xùn)練參數(shù):初始學(xué)習(xí)率為0.000 10,訓(xùn)練總周期數(shù)為140個(gè)。從第0個(gè)到第139個(gè)周期中,學(xué)習(xí)率從0.000 10逐步減小到0.000 01。此外算法使用隨機(jī)梯度下降法,損失函數(shù)為NLLLoss函數(shù)。

4.2 實(shí)驗(yàn)結(jié)果分析

本文采用語義分割的評(píng)價(jià)標(biāo)準(zhǔn),用像素精度(PA)和平均交并比(MIOU)、加權(quán)交并比(FWIOU)作為[13]性能指標(biāo)。頻率加權(quán)交集除以并集的評(píng)價(jià)準(zhǔn)則定義為:將每個(gè)類別的頻率作為權(quán)重乘以每個(gè)類別的交集除以并集,最后求和。像素精度的評(píng)價(jià)標(biāo)準(zhǔn)定義為正確標(biāo)記的像素與總像素的比值。平均交與并的評(píng)價(jià)準(zhǔn)則是指兩組真實(shí)值與預(yù)測(cè)值的交與并之比。假設(shè)像素類別數(shù)為K+1, PA、MIOU、FWIOU的公式如式(6)~式(8)所示:

式中:i為真實(shí)值;j為預(yù)測(cè)值;Pii為第i類像素被正確分類的個(gè)數(shù);Pij為第i類像素被分類為第j類像素的個(gè)數(shù)。

為了驗(yàn)證PLP-Net網(wǎng)絡(luò)模型的可行性,本章針對(duì)該網(wǎng)絡(luò)模型在全新的遙感圖像數(shù)據(jù)集中的使用效果,進(jìn)行了與深度卷積網(wǎng)絡(luò)V3(DeepLabV3)[14]、U網(wǎng)絡(luò)(U-Net)[15]、Seg網(wǎng)絡(luò)(SegNet)[16]、全卷積網(wǎng)絡(luò)(FCN)[17]4個(gè)經(jīng)典網(wǎng)絡(luò)以及語義分割通道上采樣網(wǎng)絡(luò)(SCU-Net)的比較。實(shí)驗(yàn)結(jié)果如表1所示。每個(gè)數(shù)值都保留了小數(shù)點(diǎn)后3位。最佳效果以加粗字體表示。每個(gè)網(wǎng)絡(luò)在經(jīng)過140個(gè)實(shí)驗(yàn)周期后都已經(jīng)實(shí)現(xiàn)收斂。

從表1中可以發(fā)現(xiàn),PLP-Net網(wǎng)絡(luò)模型的MIOU值是最高的,為72.467%。本章設(shè)計(jì)的網(wǎng)絡(luò)超過DeepLabV3的MIOU值16.916%,PLP-Net的PA值只比SegNet的PA值低0.197%,F(xiàn)WIOU值也只低0.475%,成為本組對(duì)比實(shí)驗(yàn)中PA值和FWIOU值第二高的網(wǎng)絡(luò)。為了更好地表現(xiàn)出PLP-Net網(wǎng)絡(luò)的性能,每隔20個(gè)周期對(duì)模型性能進(jìn)行一次記錄,見圖4。

從圖4(a)與圖4(c)中可以發(fā)現(xiàn),第5個(gè)周期后,PLP-Net的PA值和FWIOU值逐漸開始超過其他4個(gè)經(jīng)典網(wǎng)絡(luò)。從圖4(b)中,5組網(wǎng)絡(luò)的平均交并比都呈現(xiàn)一直上升的趨勢(shì),到第100個(gè)周期后PLP-Net的平均交并比全部超過其他4個(gè)經(jīng)典網(wǎng)絡(luò),并且呈現(xiàn)平緩上升趨勢(shì)。

為了體現(xiàn)PLP-Net模型中的PLAM相比于其他注意力機(jī)制是相對(duì)突出的,實(shí)驗(yàn)進(jìn)一步將PLP-Net與使用高效通道注意力的網(wǎng)絡(luò)進(jìn)行對(duì)比,同時(shí)在PLAM基礎(chǔ)上設(shè)計(jì)出兩個(gè)變體以證明該模塊的有效性。實(shí)驗(yàn)對(duì)比了兩種不同網(wǎng)絡(luò)上采樣層通道數(shù)的結(jié)果,還進(jìn)行了一組去除SYPM的實(shí)驗(yàn),以及另一組加入PLAM但只使用一個(gè)金字塔結(jié)構(gòu)的網(wǎng)絡(luò)實(shí)驗(yàn),每組實(shí)驗(yàn)中都包含兩種不同的上采樣通道數(shù)。實(shí)驗(yàn)結(jié)果如表2所示。

由表2可知,高效通道注意力在實(shí)驗(yàn)數(shù)據(jù)集上達(dá)到了較好的分割效果,但性能仍然低于PLP-Net模型。同時(shí)只使用左分支水平方向的變體PLAM的MIOU值達(dá)到72.610%,只使用右分支垂直方向的變體PLAM的MIOU值達(dá)到72.794%,成為最高的MIOU值,但它們的精度都低于PALM,兩個(gè)變體模塊都只關(guān)注一個(gè)方向上的信息,其性能低于將兩個(gè)方向結(jié)合的PLAM。

另外,使用2 048個(gè)通道數(shù)的PLP-Net網(wǎng)絡(luò)PA值、MIOU值和FWIOU值都是最高的,分別為95.002%、72.467%和90.898%。當(dāng)模型丟棄SYPM時(shí),網(wǎng)絡(luò)的分割效果低于使用了SYPM的網(wǎng)絡(luò),同時(shí),上采樣通道數(shù)為2 048的網(wǎng)絡(luò)模型要優(yōu)于上采樣通道數(shù)為8的網(wǎng)絡(luò)模型。當(dāng)模型中加入PLAM并且只使用一個(gè)金字塔結(jié)構(gòu)時(shí),上采樣通道數(shù)為2 048的模型能達(dá)到不錯(cuò)的效果,但其MIOU值仍然低于使用2 048個(gè)通道數(shù)的PLP-Net網(wǎng)絡(luò)的0.455%。本文提出了兩種上采樣通道數(shù)的設(shè)計(jì),經(jīng)實(shí)驗(yàn)之后可知,(2 048,256,64)這組通道數(shù)的設(shè)計(jì)要優(yōu)于(2 048,8,8)的設(shè)計(jì),其原因主要在于,在深層網(wǎng)絡(luò)中如果將通道數(shù)從2 048直接降到8會(huì)導(dǎo)致上采樣操作中丟失更多的語義信息,造成最后的分割效果不理想。

5 結(jié)論

本文提出了一種全新高分辨率遙感圖像語義分割模型。在該網(wǎng)絡(luò)模型中提出了一種全新的PLAM,并引入了SYPM來提高網(wǎng)絡(luò)的特征提取能力。在本文的實(shí)驗(yàn)中,使用了2020年的多影像源衛(wèi)星遙感影像,并對(duì)其進(jìn)行了數(shù)據(jù)預(yù)處理。通過對(duì)實(shí)驗(yàn)結(jié)果的分析,得出PLP-Net-2048值最高,其PA和MIOU值分別為95.002%和72.467%。本文設(shè)計(jì)的模型旨在獲得遙感圖像復(fù)雜特征中的細(xì)節(jié)信息,但該網(wǎng)絡(luò)在SYPM中雜糅的信息導(dǎo)致網(wǎng)絡(luò)預(yù)測(cè)出部分效果不連貫,希望進(jìn)一步訓(xùn)練PLP-Net,提高其連貫性和分割性能。

參考文獻(xiàn):

[1]吳強(qiáng)強(qiáng), 王帥, 王彪, 等. 空間信息感知語義分割模型的高分辨率遙感影像道路提取[J]. 遙感學(xué)報(bào), 2022, 26(9): 1872-1885.

[2]HAMIDA A B, BENOIT A, LAMBERT P, et al. Deep learning for semantic segmentation of remote sensing images with rich spectral content[C]//2017 IEEE International Geoscience and Remote Sensing Symposium (IGARSS). July 23-28, 2017. Fort Worth, TX. IEEE, 2017: 2569-2572.

[3]WANG W, JIANG Y B, LUO Y H, et al. An advanced deep residual dense network (DRDN) approach for image super-resolution[J]. International Journal of Computational Intelligence Systems, 2019, 12(2): 1592-1601.

[4]田雪偉, 汪佳麗, 陳明, 等. 改進(jìn)SegFormer網(wǎng)絡(luò)的遙感圖像語義分割方法[J]. 計(jì)算機(jī)工程與應(yīng)用, 2023, 59(8): 217-226.

[5]朱葉飛, 秦小麟, 詹雅婷, 等. 卷積神經(jīng)網(wǎng)絡(luò)和視覺注意力語義分割模型在高分辨率遙感影像分類中的性能分析[J]. 地質(zhì)學(xué)刊, 2023, 47(3): 271-281.

[6]WANG W, LIU H, LI J, et al. Using CFW-net deep learning models for X-ray images to detect COVID-19 patients[J]. International Journal of Computational Intelligence Systems, 2020, 14(1): 199-207.

[7]MNIH V, HEESS N M, GRAVES A, et al. Recurrent models of visual attention[C]//Proceedings of the 27th International Conference on Neural Information Processing Systems-Volume 2. December 8-13, 2014, Montreal, Canada. ACM, 2014: 2204-2212.

[8]ZAREMBA W, SUTSKEVER I, VINYALS O. Recurrent neural net work regula rization[EB/OL]. (2015-02-19) [2024-01-19]. https://arxiv.org/abs/1409.2329.

[9]JADERBERG M, SIMONYAN K, ZISSERMAN A, et al. Spatial transformer networks[EB/OL]. (2016-02-04)[2024-01-19]. http://arxiv.org/abs/1506. 02025.

[10]HU J, SHEN L, ALBANIE S, et al. Squeeze-and-excitation networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(8): 2011-2023.

[11]HE K M, ZHANG X Y, REN S Q, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transaction Pattern Analysis Machine Intelligence, 2015, 37(9): 1904-1916.

[12]楊文軍, 張楊, 王福生, 等. 基于高分光學(xué)遙感影像的湖南省油茶林地識(shí)別技術(shù)研究——以漢壽縣為例[J]. 中南林業(yè)調(diào)查規(guī)劃, 2023, 42(4): 30-34, 62.

[13]楊翠玲. 蘋果樹葉病害圖像分割與識(shí)別研究[D]. 蘭州: 蘭州大學(xué), 2022.

[14]CHEN L C, PAPANDREOU G, SCHROFF F, et al. Rethinking atrous convolution for semantic image segmentation[EB/OL]. (2017-12-05)[2024-01-19]. https://arxiv.org/abs/1706.05587.

[15]RONNEBERGER O, FISCHER P, BROX T. U-net: convolutional networks for biomedical image segmentation[C]//International Conference on Medical Image Computing and Computer-Assisted Intervention. Cham: Springer, 2015: 234-241.

[16]BADRINARAYANAN V, KENDALL A, CIPOLLA R. SegNet: a deep convolutional encoder-decoder architecture for image segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(12): 2481-2495.

[17]SHELHAMER E, LONG J, DARRELL T. Fully convolutional networks for semantic segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(4): 640-651.

猜你喜歡
語義分割注意力機(jī)制深度學(xué)習(xí)
基于積神經(jīng)網(wǎng)絡(luò)的圖像著色方法研究
基于深度學(xué)習(xí)的問題回答技術(shù)研究
基于全卷積網(wǎng)絡(luò)FCN的圖像處理
基于語義分割的車道線檢測(cè)算法研究
基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
基于語義分割的增強(qiáng)現(xiàn)實(shí)圖像配準(zhǔn)技術(shù)
基于注意力機(jī)制的雙向LSTM模型在中文商品評(píng)論情感分類中的研究
軟件工程(2017年11期)2018-01-05 08:06:09
InsunKBQA:一個(gè)基于知識(shí)庫的問答系統(tǒng)
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
新田县| 连江县| 承德市| 济源市| 恩施市| 浙江省| 广西| 崇仁县| 汪清县| 嵩明县| 江永县| 长海县| 南澳县| 思茅市| 仪征市| 当阳市| 大悟县| 阿克苏市| 庄河市| 新蔡县| 色达县| 吴忠市| 基隆市| 卓尼县| 蓬安县| 新蔡县| 广昌县| 南昌县| 阳泉市| 聂拉木县| 资兴市| 霍林郭勒市| 平顶山市| 额尔古纳市| 台安县| 横山县| 漠河县| 阿坝县| 尼木县| 都安| 海淀区|