国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

預(yù)指導(dǎo)的多階段特征融合的圖像語(yǔ)義分割網(wǎng)絡(luò)

2024-05-24 03:32:56王燕范向輝王麗康
關(guān)鍵詞:特征融合金字塔

王燕 范向輝 王麗康

摘 要:

針對(duì)目前語(yǔ)義分割對(duì)圖像邊緣和小物體不能進(jìn)行精確識(shí)別,以及簡(jiǎn)單融合多階段特征會(huì)造成信息冗余、混雜不清等問(wèn)題,提出了一個(gè)預(yù)指導(dǎo)的多階段特征融合的網(wǎng)絡(luò)(pre-guidanced multi-stage feature fusion network,PGMFFNet),PGMFFNet采用編解碼器結(jié)構(gòu),編碼階段利用預(yù)指導(dǎo)模塊對(duì)各階段信息進(jìn)行指導(dǎo),增強(qiáng)各階段特征之間的聯(lián)系,解決各階段特征在后續(xù)融合過(guò)程中產(chǎn)生的語(yǔ)義混雜問(wèn)題。在解碼階段,利用多路徑金字塔上采樣模塊融合高級(jí)語(yǔ)義特征,然后使用改進(jìn)的密集空洞空間金字塔池化模塊對(duì)融合后的特征進(jìn)一步擴(kuò)大感受野,最后將高低層次的特征信息融合,使得對(duì)小物體的分割效果更優(yōu)。PGMFFNet在CityScapes公開(kāi)數(shù)據(jù)集上進(jìn)行了驗(yàn)證,得到了78.38%的平均交并比(mean intersection over union,MIoU),分割效果較好。

關(guān)鍵詞:語(yǔ)義分割;編解碼器;預(yù)指導(dǎo);金字塔;特征融合

中圖分類號(hào):TP391.41?? 文獻(xiàn)標(biāo)志碼:A??? 文章編號(hào):1001-3695(2024)03-047-0951-05doi: 10.19734/j.issn.1001-3695.2023.07.0302

Image semantic segmentation network of pre-guidanced multi-stage feature fusion

Wang Yan, Fan Xianghui, Wang Likang

(School of Computer & Communication, Lanzhou University of Technology, Lanzhou 730050, China)

Abstract:

In view of the current semantic segmentation can not accurately identify image edges and small objects, and simple fusion of multi-stage features will cause information redundancy, confusion and other problems, this paper proposed a pre-guidanced multi-stage feature fusion network (PGMFFNet). PGMFFNet employed a encoder-decoder structure, at the encoder stage, which used a pre-guidance module to guide the information in each stage. Strengthened the relationship between the features of each stage, and solved the semantic confounding problems in the subsequent fusion process of the features of each stage. At the decoder stage, which used the multi-path up-pyramid sampling module to fuse high-level semantic features, and then used the improved dense void space pyramid pool module to further expand the sensory field of the fused features, and finally fused the feature information of high and low levels to make the segmentation effect of small objects better. This paper verified PGMFFNet on CityScapes open data set, and the mean intersection over union (MIoU) obtained to 78.38%, showing good segmentation effect. Key words:semantic segmentation; encoder-decoder; pre-guidance; pyramid; feature fusion

0 引言

圖像語(yǔ)義分割是計(jì)算機(jī)視覺(jué)領(lǐng)域重要的任務(wù)之一[1],其主要目的是對(duì)輸入的圖像進(jìn)行逐像素密度預(yù)測(cè),然后為每一個(gè)像素分配一個(gè)語(yǔ)義標(biāo)簽[2]。圖像語(yǔ)義分割在日常生活中應(yīng)用廣泛。例如,在自動(dòng)駕駛[3]領(lǐng)域,汽車必須能夠?qū)崟r(shí)地對(duì)行駛過(guò)程中出現(xiàn)的各種事物作出具體的解析,然后根據(jù)不同場(chǎng)景,作出不同的反應(yīng)。在醫(yī)療領(lǐng)域[4],圖像語(yǔ)義分割能夠輔助醫(yī)生對(duì)患者進(jìn)行治療。近年來(lái),卷積神經(jīng)網(wǎng)絡(luò)(CNN)發(fā)展迅速,在計(jì)算機(jī)視覺(jué)中取得了極大的成功[5]。隨著2015年,Long等人[6]提出全卷積神經(jīng)網(wǎng)絡(luò)FCN,各種基于全卷積神經(jīng)網(wǎng)絡(luò)的架構(gòu)廣泛應(yīng)用到語(yǔ)義分割領(lǐng)域當(dāng)中。

目前,圖像語(yǔ)義分割存在以下問(wèn)題:a)對(duì)于體積較小、形狀相似的物體分割效果不好,比如圖像中存在的路燈燈桿以及遠(yuǎn)處的路燈,往往會(huì)被忽略,或者分割形狀不完整,對(duì)于處在道路旁邊,距離較遠(yuǎn)的人行道往往會(huì)被分割為道路;b)光照、以及其他物體的影子遮擋等也會(huì)對(duì)分割產(chǎn)生一定的影響,導(dǎo)致分割錯(cuò)誤。

出現(xiàn)上述問(wèn)題的原因主要有兩個(gè):a)未能提取豐富的特征信息;b)對(duì)提取的圖像特征信息利用不夠充分。針對(duì)以上問(wèn)題,目前的語(yǔ)義分割有以下幾種研究趨勢(shì):

a)采用基于編解碼器架構(gòu)的方法。編碼階段不斷地加深卷積層次提取更多的特征信息,解碼階段對(duì)編碼階段的高級(jí)語(yǔ)義信息進(jìn)行解碼,并逐漸恢復(fù)邊界信息。U-Net[7]采用U型結(jié)構(gòu)、跳躍連接來(lái)恢復(fù)原圖像信息。SPGNet[8]通過(guò)在多級(jí)編解碼架構(gòu)中加入語(yǔ)義預(yù)測(cè),重新加權(quán)局部特征以提高分割精度。ESegNet[9]在編碼階段下采樣到更深層次來(lái)獲取更大的接收域和特征空間,在解碼階段采取更先進(jìn)的BiFPN來(lái)聚合各階段的特征信息。FFNet[10]極簡(jiǎn)的編解碼結(jié)構(gòu)上,通過(guò)對(duì)編碼階段進(jìn)行微調(diào),從而獲得更大的感受野。

b)利用上下文來(lái)捕獲長(zhǎng)期依賴關(guān)系。Chen等人[11]提出了DeepLab,并在該網(wǎng)絡(luò)中提出了空洞空間金字塔池化模塊,該模塊使用幾個(gè)包含不同空洞率的并行分支和平均池化生成了不同尺度的特征信息。姚燕等人[12]基于改進(jìn) DeepLabV3+網(wǎng)絡(luò)的輕量級(jí)語(yǔ)義分割算法,使用MobileNetv3降低模型復(fù)雜度,并引入注意力機(jī)制模塊和組歸一化方法,提升分割精度。Zhao等人[13]提出了PSPNet,該網(wǎng)絡(luò)引入了金字塔池化模塊,使用不同大小的池化模塊生成不同區(qū)域的特征圖,用于全局信息聚合。DenseASPP[14]采用密集連接的空洞卷積模塊生成更為密集的多尺度特征信息。EncNet[15]將語(yǔ)義上下文編碼到網(wǎng)絡(luò)中,并強(qiáng)調(diào)類依賴。OCNet[16]提出新的對(duì)象上下文聚合方法來(lái)增強(qiáng)對(duì)象信息,以此獲得更豐富的全局上下文信息。

c)利用注意力機(jī)制來(lái)增強(qiáng)通道或空間之間的聯(lián)系。注意力機(jī)制的原理類似人眼機(jī)制,通過(guò)加強(qiáng)各特征通道之間或空間的聯(lián)系,使得網(wǎng)絡(luò)能夠關(guān)注有用的信息,忽略無(wú)效信息,從而進(jìn)一步提高網(wǎng)絡(luò)的分割精度。SENet[17]中提出了擠壓-激勵(lì)模塊,在擠壓階段順著空間維度來(lái)進(jìn)行通道壓縮,在激勵(lì)階段通過(guò)參數(shù)來(lái)為每個(gè)通道生成權(quán)重,顯示建模通道間的相關(guān)性。ECA-Net[18]是對(duì)SENet的一種改進(jìn),它避免了SENet中的降維操作,減少了降維會(huì)對(duì)通道注意力預(yù)測(cè)產(chǎn)生的消極影響,進(jìn)一步提高了通道注意力的預(yù)測(cè)能力。鄭鵬營(yíng)等人[19]提出了一種基于空間特征提取和注意力機(jī)制的雙路徑語(yǔ)義分割算法,在引入空間特征提取模塊的基礎(chǔ)上,采用了一條結(jié)合雙階通道注意力的語(yǔ)義上下文進(jìn)行特征提取,降低了精度損失。

上述各種方法雖然在一定程度上解決了語(yǔ)義分割的挑戰(zhàn),提高了分割精度,但有些方法只使用單一階段的特征信息,未能充分利用其他各階段的特征信息,有些方法雖然融合了多階段特征,卻對(duì)各階段特征之間的聯(lián)系處理不夠,造成了后續(xù)融合階段的信息冗余、混亂,使得有些像素信息會(huì)被拋棄,從而不能對(duì)圖像的邊緣以及小物體進(jìn)行精確識(shí)別。因此,本文提出了預(yù)指導(dǎo)的多階段特征融合網(wǎng)絡(luò)PGMMFNet,以增強(qiáng)各階段特征之間的聯(lián)系和充分利用各階段特征信息為原則,通過(guò)預(yù)指導(dǎo)模塊對(duì)編碼階段產(chǎn)生的不同階段特征進(jìn)行指導(dǎo),強(qiáng)化各階段特征之間的聯(lián)系,解決了后續(xù)融合過(guò)程中產(chǎn)生的信息冗余、混雜問(wèn)題,并在解碼過(guò)程中擴(kuò)大感受野,利用多階段的特征信息保留圖像的邊界以及深層次高級(jí)語(yǔ)義信息,可以更好地解決上述問(wèn)題,實(shí)現(xiàn)精確分割。

本文的貢獻(xiàn)如下:

a)提出預(yù)指導(dǎo)的多階段特征融合網(wǎng)絡(luò)PGMMFNet,通過(guò)PGM對(duì)編碼階段輸出的不同層次的特征進(jìn)行指導(dǎo),強(qiáng)化各階段特征之間的關(guān)聯(lián),更好地解決后續(xù)融合過(guò)程中產(chǎn)生的信息冗余、混雜問(wèn)題;

b)提出多路徑金字塔上采樣模塊MPUM(multi-path pyramid upsample module)以減少高級(jí)階段特征融合過(guò)程中的信息丟失,使用改進(jìn)的密集連接空洞空間金字塔池化模塊DCASPPM(dense connect atrous spatial pyramid pooling module)擴(kuò)大感受野,最后將高低層次的特征信息融合,獲取更豐富的全局上下文信息;

c)在公開(kāi)的數(shù)據(jù)集CityScapes[20]上進(jìn)行了大量的實(shí)驗(yàn),驗(yàn)證了PGMFFNet的有效性,并且與經(jīng)典網(wǎng)絡(luò)以及近兩年的先進(jìn)模型進(jìn)行了對(duì)比。

1 模型結(jié)構(gòu)

PGMFFNet的整體架構(gòu)如圖1所示,整個(gè)架構(gòu)采用編碼器。編碼階段采用預(yù)訓(xùn)練的ResNet101作為骨干網(wǎng)絡(luò),為了對(duì)骨干網(wǎng)絡(luò)最后一個(gè)階段的輸出同樣使用PGM指導(dǎo),本文在其后面使用了3層kernel為3,stride為2的卷積,將其稱為Res-7。將骨干網(wǎng)絡(luò)各相鄰階段的輸出送入PGM,利用相鄰階段之間的關(guān)聯(lián)性以及高層次特征包含更多的語(yǔ)義信息來(lái)進(jìn)行指導(dǎo),使包含邊緣、輪廓的低級(jí)語(yǔ)義信息更加細(xì)化,語(yǔ)義之間關(guān)聯(lián)性更強(qiáng)。解碼部分由MPUM和DCASPPM組成。MPUM對(duì)高層次特征部分進(jìn)行融合,并采用多路徑的方式減少融合過(guò)程中造成的信息丟失,DCASPPM對(duì)融合的高層次特征擴(kuò)大感受野,提取更多的圖像特征信息。使用多階段特征融合策略將不同層次的特征進(jìn)行融合,并使用ECA(efficient channel attention)模塊優(yōu)化融合后通道之間的關(guān)系,最后通過(guò)雙線性上采樣恢復(fù)至原始分辨率。

2.2 實(shí)驗(yàn)環(huán)境及參數(shù)

本文實(shí)驗(yàn)采用RTX 3090、24 GB的運(yùn)行環(huán)境,程序是在Python3.8的PyTorch 1.8框架下編寫(xiě)。CityScapes數(shù)據(jù)集上的實(shí)驗(yàn)所采用的基礎(chǔ)學(xué)習(xí)率base_lr大小為0.004,具體大小根據(jù)lr=base_lr/16×batch_size進(jìn)行計(jì)算。優(yōu)化函數(shù)采用隨機(jī)梯度下降法(stochastic gradient descent,SGD),其中momentum為0.9,權(quán)重衰減weight_decay為1E-4,損失函數(shù)使用交叉熵?fù)p失函數(shù),學(xué)習(xí)率調(diào)整策略采用poly策略,具體計(jì)算為lr=lr0×(1-iter/max_iter)0.9,其中l(wèi)r0為具體使用的初始學(xué)習(xí)率,iter為當(dāng)前的迭代次數(shù),max_iter為最大的迭代次數(shù)。數(shù)據(jù)的增強(qiáng)策略方面,在訓(xùn)練過(guò)程中本文采用隨機(jī)裁剪、0.5~2.0的隨機(jī)縮放以及隨機(jī)水平翻轉(zhuǎn)等策略。具體的參數(shù)配置如表1所示。

2.3 CityScapes數(shù)據(jù)集消融實(shí)驗(yàn)

為了驗(yàn)證PGMFFNet中各模塊的有效性,本文在CityScapes數(shù)據(jù)集上進(jìn)行消融實(shí)驗(yàn),各模塊的消融實(shí)驗(yàn)結(jié)果如表2所示。PGMFFNet以預(yù)訓(xùn)練的ResNet101為基準(zhǔn)網(wǎng)絡(luò),然后將各模塊與ResNet101進(jìn)行結(jié)合,設(shè)計(jì)一系列消融實(shí)驗(yàn)來(lái)驗(yàn)證各模塊的有效性?!麺IoU表示與基準(zhǔn)網(wǎng)絡(luò)的MIoU值相比,所上升的值大小。

通過(guò)表2的結(jié)果可以看到,在只有ResNet101基準(zhǔn)網(wǎng)絡(luò)時(shí)MIoU值為70.01%,加入PGM對(duì)基準(zhǔn)網(wǎng)絡(luò)的輸出進(jìn)行指導(dǎo)優(yōu)化后的MIoU值為73.65%,上升了3.64%,MIoU值的提高是PGM的指導(dǎo)增強(qiáng)了各階段之間的聯(lián)系,減少了信息冗余;加入MPUM時(shí),MIoU上升了1.84%,加入DCASPPM時(shí),MIoU上升了5.26%,較多的MIoU值的上升是因?yàn)镈CASPPM采用了并聯(lián)的遞進(jìn)式大空洞率,進(jìn)一步擴(kuò)大了高級(jí)語(yǔ)義特征的感受野,以此可以看出加入各模塊后,對(duì)基準(zhǔn)網(wǎng)絡(luò)的性能有顯著的提升。消融實(shí)驗(yàn)部分的可視化結(jié)果如圖5所示,框選部分為重點(diǎn)關(guān)注區(qū)域。從框選中的人的輪廓等可以看出,在只有ResNet101的時(shí)候,人的輪廓很不明顯,在加入PGM和DCASPPM以后,輪廓基本能夠看清楚,但在某些軀干部位有些模糊,在各模塊都加入以后,輪廓清晰,軀干部分也有改進(jìn),并且在遠(yuǎn)方景物還有道路與道路邊草叢的細(xì)節(jié)處,都可以看到基準(zhǔn)網(wǎng)絡(luò)和加入各模塊之后的對(duì)比效果,改進(jìn)效果明顯。

2.4 CityScapes數(shù)據(jù)集實(shí)驗(yàn)結(jié)果分析

CityScapes驗(yàn)證集上進(jìn)行了ResNet50和ResNet101不同主干的對(duì)比,輸入圖像訓(xùn)練期間分辨率為768×768,驗(yàn)證采用2 048×1 024的大小,由對(duì)比結(jié)果選擇了較優(yōu)的ResNet101為主干,對(duì)比的結(jié)果如表3所示。

將PGMFFNet在CityScapes驗(yàn)證集上與經(jīng)典的以及最近較先進(jìn)的網(wǎng)絡(luò)進(jìn)行了對(duì)比實(shí)驗(yàn),結(jié)果如表4所示。

由MIoU值可以看出,經(jīng)典網(wǎng)絡(luò)DeepLabV3+,以及先進(jìn)網(wǎng)絡(luò)CCNet、SPFNet比PGMFFNet相差兩到三個(gè)百分點(diǎn)。造成此差距的原因是上述三種網(wǎng)絡(luò)重點(diǎn)處理的是骨干網(wǎng)絡(luò)輸出的最后一個(gè)階段的特征,對(duì)包含圖像邊緣、輪廓等細(xì)節(jié)信息的第一階段的特征處理不夠,所以分割的圖像邊緣等細(xì)節(jié)信息不夠清楚,也造成最后的分割MIoU值較低,而PGMFFNet使用PGM對(duì)骨干網(wǎng)絡(luò)相鄰階段特征進(jìn)行了指導(dǎo),增強(qiáng)了各階段特征之間的聯(lián)系,彌補(bǔ)了細(xì)節(jié)處理不夠的問(wèn)題,并使用DCASPPM進(jìn)一步擴(kuò)大感受野,獲得了豐富的語(yǔ)義特征信息,因此最后的分割效果較好,MIoU較高。PGMFFNet與部分對(duì)比網(wǎng)絡(luò)在CityScapes數(shù)據(jù)集上的分割如圖6所示,白色邊框選中的是重點(diǎn)關(guān)注區(qū)域。

從圖中可以看到,DeepLabV3+分割出的交通標(biāo)志邊緣形狀不清晰,OCNet對(duì)路上行人的身體輪廓分割無(wú)法辨認(rèn),CCNet、SPFNet相較于DeepLabV3+、OCNet分割的交通標(biāo)志邊緣形狀已大致清晰,但不夠完整;在遠(yuǎn)處景物分割方面,OCNet無(wú)法識(shí)別遠(yuǎn)處的燈桿等小物體,SPFNet、CCNet雖然在一定程度上識(shí)別了燈桿,但破損處很多,而PGMFFNet對(duì)交通標(biāo)志、行人輪廓,以及遠(yuǎn)處的燈桿等識(shí)別較為清晰、完整。造成此差距的原因是對(duì)比網(wǎng)絡(luò)獲取的上下文信息不完整、聯(lián)系不夠緊密,而PGMFFNet對(duì)基準(zhǔn)網(wǎng)絡(luò)的各個(gè)輸出階段進(jìn)行了精細(xì)化處理,增強(qiáng)了不同層級(jí)之間的像素聯(lián)系,并且使用MPUM減少了高級(jí)語(yǔ)義各階段特征融合過(guò)程中的漏采,在融合之后,使用DCASPPM擴(kuò)大了整體的感受野,使得分割出來(lái)的物體邊緣形狀較為完整,整體輪廓更為清晰,效果更好。

3 結(jié)束語(yǔ)

本文提出了預(yù)指導(dǎo)的多階段特征融合的圖像語(yǔ)義分割網(wǎng)絡(luò)PGMFFNet,針對(duì)骨干網(wǎng)絡(luò)各個(gè)階段的輸出,設(shè)計(jì)了PGM對(duì)各階段輸出進(jìn)行指導(dǎo),增強(qiáng)了不同階段之間的像素語(yǔ)義關(guān)系,解決了后續(xù)融合階段產(chǎn)生的語(yǔ)義冗余、混雜問(wèn)題,使用MPUM將各高級(jí)階段的語(yǔ)義特征進(jìn)行融合,并且采用多路徑金字塔上采樣模塊對(duì)融合后的特征盡可能地提取較多的語(yǔ)義信息,DCASPPM采用密集連接的空洞卷積擴(kuò)大了感受野,獲得了較為豐富的不同尺度的語(yǔ)義特征,最后融合了高層以及低層的語(yǔ)義信息,增強(qiáng)了分割效果。PGMFFNet在CityScapes公開(kāi)數(shù)據(jù)集上的平均交并比達(dá)到了78.38%,分割的物體邊緣完整,輪廓清晰,整體效果較好,與經(jīng)典網(wǎng)絡(luò)以及當(dāng)前較為先進(jìn)的網(wǎng)絡(luò)進(jìn)行對(duì)比,分割結(jié)果也占有明顯的優(yōu)勢(shì)。在后續(xù)的工作中,將進(jìn)一步優(yōu)化模型結(jié)構(gòu),在減少參數(shù)量的基礎(chǔ)上得到更好的分割精度。

參考文獻(xiàn):

[1]張?chǎng)危c安,趙健,等. 全卷積神經(jīng)網(wǎng)絡(luò)圖像語(yǔ)義分割方法綜述 [J]. 計(jì)算機(jī)工程與應(yīng)用,2022,58(8): 45-57. (Zhang Xin,Yao Qingan,Zhao Jian,et al. A review of image semantic segmentation methods by full convolutional neural networks [J]. Computer Engineering and Applications,2022,58(8): 45-57.)

[2]Mo Yujian,Wu Yan,Yang Xinneng,et al. Review the state-of-the-art technologies of semantic segmentation based on deep learning [J]. Neurocomputing,2022,493: 626-646.

[3]Rizzoli G,Barbato F,Zanuttigh P. Multimodal semantic segmentation in autonomous driving: a review of current approaches and future perspectives [J]. Technologies,2022,10(4): 90-96.

[4]Jha D,Riegler M A,Johansen D,et al. DoubleU-Net: a deep convolutional neural network for medical image segmentation [C]// Proc of the 33rd IEEE International Symposium on Computer-Based Medical Systems. Piscataway,NJ: IEEE Press,2020: 558-564.

[5]Wang Wenhai,Xie Enze,Li Xiang,et al. Pyramid vision Transformer: a versatile backbone for dense prediction without convolutions [C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE Press,2021: 568-578.

[6]Long J,Shelhamer E,Darrell T. Fully convolutional networks for semantic segmentation [C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2015:3431-3440.

[7]Ronneberger O,F(xiàn)ischer P,Brox T. U-Net: convolutional networks for biomedical image segmentation [C]// Proc of the 18th International Conference on Medical Image Computing and Computer-Assisted Intervention. Cham: Springer,2015: 234-241.

[8]Cheng Bowen,Chen L C,Wei Yunchao,et al. SPGNet: semantic prediction guidance for scene parsing [C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE Press,2019: 5218-5228.

[9]Meng Tianjian,Ghiasi G,Mahjorian R,et al. Revisiting multi-scale feature fusion for semantic segmentation [EB/OL].

(2022-03-23). https://arxiv.org/abs/2203.12683.

[10]Mehta D,Skliar A,Ben Y H,et al. Simple and efficient architectures for semantic segmentation [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2022: 2628-2636.

[11]Chen L C,Zhu Yukun,Papandreou G,et al. Encoder-decoder with atrous separable convolution for semantic image segmentation [C]// Proc of European Conference on Computer Vision. Cham: Springer,2018: 801-818.

[12]姚燕,胡立坤,郭軍. 基于改進(jìn) DeepLabV3+網(wǎng)絡(luò)的輕量級(jí)語(yǔ)義分割算法 [J]. 激光與光電子學(xué)進(jìn)展,2022,59(4): 100-107. (Yao Yan,Hu Likun,Guo Jun. Lightweight semantic segmentation algorithm based on improved DeepLabV3+ network [J]. Advances in Laser and Optoelectronics,2022,59(4): 100-107.)

[13]Zhao Hengshuang,Shi Jianping,Qi Xiaojuan,et al. Pyramid scene parsing network [C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2017:2881-2890.

[14]Yang Maoke,Yu Kun,Zhang Chi,et al. DenseASPP for semantic segmentation in street scenes [C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2018: 3684-3692.

[15]Zhang Hang,Dana K,Shi Jianping,et al. Context encoding for semantic segmentation [C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2018:7151-7160.

[16]Yuan Yuhui,Huang Lang,Guo Jianyuan,et al. OCNet: object context for semantic segmentation [J]. International Journal of Computer Vision,2021,129(8): 2375-2398.

[17]Hu Jie,Shen Li,Sun Gang. Squeeze-and-excitation networks [C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2018: 7132-7141.

[18]Wang Qilong,Wu Banggu,Zhu Pengfei,et al. ECA-Net: efficient channel attention for deep convolutional neural networks [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2020: 11534-11542.

[19]鄭鵬營(yíng),陳瑋,尹鐘. 基于空間特征提取和注意力機(jī)制雙路徑語(yǔ)義分割算法 [J]. 計(jì)算機(jī)應(yīng)用研究,2022,39(2): 613-617. (Zheng Pengying,Chen Wei,Yin Zhong. Dual path semantic segmentation algorithm based on spatial feature extraction and attention mecha-nism[J].Application Research of Computers,2022,39(2):613-617.)

[20]Cordts M,Omran M,Ramos S,et al. The CityScapes dataset for semantic urban scene understanding [C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2016: 3213-3223.

[21]Huang Zilong,Wang Xinggang,Huang Lichao,et al. CCNet: criss-cross attention for semantic segmentation [C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE Press,2019: 603-612.

[22]Zhao Hengshuang,Qi Xiaojuan,Shen Xiaoyong,et al. ICNet for real-time semantic segmentation on high-resolution images[C]// Proc of European Conference on Computer Vision.Berlin:Springer,2018:405-420.

[23]Yu Changqian,Wang Jingbo,Peng Chao,et al. BiSeNet: bilateral segmentation network for real-time semantic segmentation [C]// Proc of European Conference on Computer Vision.Berlin:Springer,2018:325-341.

[24]Elhassan M A M,Yang Chunming,Huang Chenxi,et al. SPFNet: subspace pyramid fusion network for semantic segmentation [EB/OL].(2022-04-04). https://arxiv.org/abs/2204.01278.

猜你喜歡
特征融合金字塔
神奇的金字塔
“金字塔”
A Study of the Pit-Aided Construction of Egyptian Pyramids
海上有座“金字塔”
基于多特征融合的圖像匹配算法
人體行為特征融合與行為識(shí)別的分析
基于移動(dòng)端的樹(shù)木葉片識(shí)別方法的研究
科技資訊(2017年11期)2017-06-09 18:28:13
神秘金字塔
童話世界(2017年11期)2017-05-17 05:28:25
基于SIFT特征的港口內(nèi)艦船檢測(cè)方法
融合整體與局部特征的車輛型號(hào)識(shí)別方法
安丘市| 当雄县| 偏关县| 平定县| 西充县| 吉安市| 宣威市| 黄浦区| 印江| 东至县| 宕昌县| 太湖县| 合山市| 乐平市| 新营市| 波密县| 枝江市| 台安县| 黄平县| 汽车| 广德县| 启东市| 河间市| 洪洞县| 灵台县| 盐津县| 临沧市| 梁平县| 兰溪市| 乌兰县| 淄博市| 漾濞| 古田县| 独山县| 桓仁| 洪泽县| 保康县| 巴南区| 衡阳县| 武鸣县| 彭州市|