賈熹濱, 李 佳
(1.北京工業(yè)大學信息學部, 北京 100124; 2.多媒體與智能軟件技術(shù)北京市重點實驗室, 北京 100124;3.北京人工智能研究院, 北京 100124)
深度神經(jīng)網(wǎng)絡(luò)是解決計算機視覺問題[1-3]的有力工具. 圖像語義分割是計算機視覺中一個經(jīng)典難題,它的目的是對于圖像中的每個像素都預測出其對應的類別,由于所有的像素都要考慮到,該任務(wù)也被認為是密集預測任務(wù)中的一種. 從20世紀70年代起圖像分割問題就吸引了很多研究人員付出巨大的努力,然而,該領(lǐng)域的研究需要大量帶密集標注的訓練數(shù)據(jù)集進行支撐,這些數(shù)據(jù)集的收集成本高昂、耗時長,而目前的方法很難以數(shù)據(jù)有效的方式推廣到不可見的對象類別. 因此,如何在數(shù)據(jù)集圖片較少的情況下,對其進行圖像語義分割,提高分割的效率以及分割結(jié)果的準確性,具有很大的研究價值.
由于人們對使用小樣本學習方法從有限的數(shù)據(jù)中快速學習新的概念感興趣[4-5],因此只需要幾個帶標簽的樣本就可以學會執(zhí)行語義分割的小樣本圖像語義分割問題被提出[6-7]. 該研究的輸入輸出都是像素級別的,用于將任何像素注釋集合從圖像內(nèi)部或跨圖像類別傳播到未注釋的像素,以便進行推斷. 近年來,小樣本圖像分割越來越受到人們的關(guān)注.
目前的小樣本圖像語義分割主要是采用雙分支方法來進行像素的密集預測類別的. Shaban等[8]從小樣本學習中獲得靈感,首次提出了一種雙分支方法來訓練小樣本圖像分割模型. 第1個分支將標記的圖像作為輸入,并生成一個參數(shù)向量作為輸出. 第2個分支將這些參數(shù)和新圖像作為輸入,新類生成圖像的分割掩碼作為輸出. 同時,在PASCAL數(shù)據(jù)集上建立了具有挑戰(zhàn)性的K-shot[9]語義分割任務(wù)的基準(PASCAL- 5i). Rakelly等[10]提出的co-FCN也包含了2條分支,調(diào)節(jié)分支將提取的支持特征與查詢特征按通道連接起來,并將它們編碼為特征或參數(shù),語義分割分支根據(jù)這種編碼條件生成查詢集的分割結(jié)果. 這2個分支是共同學習并且端到端的. Hu等[11]探索了在網(wǎng)絡(luò)的多個階段進行引導,提出了一種多上下文引導結(jié)構(gòu),將支持分支和查詢分支之間的從小到大的上下文特征融合起來,從而在全局上指導查詢分支的分割. 同時引入了注意力模塊,嵌入了Conv-LSTM模塊進入網(wǎng)絡(luò)端,更好地將特征圖從支持集中融合到小樣本語義分割中. Dong等[12]采用了原型網(wǎng)絡(luò)的思想,并使用度量學習解決了小樣本分割問題. 然而,該模型過于復雜,涉及3個訓練階段和復雜的訓練配置,包括原型學習分支、分割分支以及計算在融合中使用的權(quán)重. 該方法基于圖像級丟失提取原型,并以原型為指導調(diào)整查詢集的分割,而不是直接從度量學習中獲得分割.
根據(jù)對相關(guān)文獻的分析,目前,基于小樣本學習的圖像語義分割算法研究較少,方法還不十分完善,特征融合方法較為單一,先前的研究沒有考慮到全局上下文特征的關(guān)系,低級信息和高層信息息息相關(guān),使得其錯過很多細節(jié)信息. 語境關(guān)系在生活中是很重要的方面,科研中也具有普遍的關(guān)系,特別是對于復雜情景的理解,例如,“一只貓只可能在家里或者樹上,不可能在天上飛”. 缺乏收集上下文信息的能力增加了錯誤分類的機會,需要充分利用多尺度[13]的語義信息以及支持集的信息進行語義分割. 同時,相關(guān)研究模型參數(shù)量較大,不利于實際的落地部署,在現(xiàn)實場景下,更加需要的是輕量級的模型.
在此基礎(chǔ)上,本文提出了基于PANet[14]改進的輕量級金字塔原型對齊的小樣本語義分割網(wǎng)絡(luò)框架來解決這些問題. 同樣采用雙分支架構(gòu),第1個分支是條件分支,它以支持圖像和注釋作為輸入,生成各類的原型向量作為輸出. 第2個分支是分割分支,它以查詢圖像和原型作為輸入,輸出預測的分割掩模. 基礎(chǔ)網(wǎng)絡(luò)引用了MobileNetV2[15]的深度可分離卷積與倒殘差結(jié)構(gòu),在不降低網(wǎng)絡(luò)精度的情況下進一步減少了參數(shù)量,提高了算法的性能. 通過利用特征之間互補關(guān)系,使用空間金字塔池化模塊[16]作為網(wǎng)絡(luò)的基本組件,對多種不同金字塔尺度的特征進行融合,進行特征提取的操作,在提高性能的同時,也提升模型的分割準確率.
深度神經(jīng)網(wǎng)絡(luò)對于推動計算機視覺領(lǐng)域中的圖像分割問題的進步具有重要的作用,這在一定程度上是通過大型標記數(shù)據(jù)集實現(xiàn)的. 然而,在許多實際生活的任務(wù)中,這種大規(guī)模的注釋獲取是不實際的,甚至是不可行的.
本文的目標是獲得一個輕量級小樣本圖像語義分割模型,該模型可以從少數(shù)帶注釋的圖像對來自相同類的新圖像進行快速執(zhí)行分割操作. 與之前的工作[17]一樣,本文采用以下模型訓練和測試協(xié)議. 假設(shè)得到了來自2個不重疊類的集合的圖像. 訓練集是由訓練過程中見過的類別集合構(gòu)成的,測試集是由訓練過程沒有見過的類別集合構(gòu)造的. 在訓練集上對分割模型進行訓練,并且在測試集上進行評估.
訓練集和測試集都由若干個集合組成的. 每個集合由一組帶注釋的支持集圖像和查詢集圖像組成. 每個訓練和測試驗證過程都相當于實例化了一個N-wayK-shot分割學習任務(wù). 具體來說,支持集每個語義類都包含了K個圖像及其對應的分割掩碼標簽,并且總共有N個不同的語義類別來自訓練集和測試集. 查詢集也包含來自與支持集類別相同的圖像和分割掩碼. 該模型首先從支持集中提取了N個類別的相關(guān)語義知識,然后應用所學知識對查詢集進行分割.
由于每一個訓練過程都包含了不同的語義類別,使得模型具有較好的泛化能力. 從訓練集中經(jīng)過訓練,獲得分割模型后,對其在所有片段的測試集上的小樣本分割性能進行評估. 特別是,對于每個測試場景,在給定支持集的查詢集上評估分割模型.
本文提出的方法對于只有少數(shù)具有密集注釋的類,也可以有效地執(zhí)行分割操作,不需要大量標記的數(shù)據(jù)集.
本文設(shè)計了一個高效準確的輕量級金字塔原型對齊網(wǎng)絡(luò)結(jié)構(gòu)來解決小樣本語義分割問題,詳細的網(wǎng)絡(luò)總體結(jié)構(gòu)如圖1所示,它包含的2條分支分別是支持分支和查詢分支,這2條分支分別輸入支持集圖像對和查詢集圖像,通過深度可分離卷積和倒殘差結(jié)構(gòu)組成的基礎(chǔ)網(wǎng)絡(luò)以及金字塔池化模塊進行特征提取,對于提取出的特征向量進行原型對齊操作,從而獲得查詢圖像的分割預測結(jié)果. 損失函數(shù)通過在預測的分割結(jié)果和標注的分割掩碼之間進行計算. 在接下來的內(nèi)容中,本文先從特征提取模塊進行說明,然后詳細介紹原型對齊是如何操作的.
圖1 輕量級金字塔原型對齊的小樣本語義分割網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Architecture of lightweight pyramid prototype alignment network for few-shot semantic segmentation
2.1.1 基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)
目前為了獲得更高的精度,基于深度學習的網(wǎng)絡(luò)結(jié)構(gòu)的發(fā)展趨勢是越來越深入和復雜的. 但是這種精度提高的方式帶來的問題也隨之出現(xiàn),網(wǎng)絡(luò)的規(guī)模都較大,并且效率不高. 在一些現(xiàn)實世界的應用如自動駕駛、機器人等落地過程中,模型需要在計算量有限制的硬件平臺上運行.
因此在搭建基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)過程中,考慮到這些問題,本文參考高效的輕量級網(wǎng)絡(luò)MobileNetV2作為進行特征提取的基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu),將部分基礎(chǔ)卷積替換為深度可分離卷積,它是由深度卷積和點卷積這兩部分組成的. 深度卷積可以將多通道的圖像轉(zhuǎn)成單通道的圖像,后面接一個點卷積,解決了信息流通不暢的問題. 同時還使用了具有線性瓶頸的逆殘差結(jié)構(gòu),在進行深度可分離卷積之前先進行1×1的卷積增加特征通道數(shù),實現(xiàn)特征維度的擴張,使得特征在高維運行. 具體網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示,左邊是步長為1的模塊,右邊是步長為2的模塊. 通過采用該結(jié)構(gòu),本文訓練了高效準確的輕量級網(wǎng)絡(luò)模型進行小樣本圖像分割,該模型大小為12 MB,第3.2節(jié)中對該方法與不同方法的復雜度進行了對比分析和討論.
圖2 MobileNetV2基本模塊結(jié)構(gòu)Fig.2 Architecture of MobileNetV2
2.1.2 金字塔池化結(jié)構(gòu)
在圖像分割工作中,目標物體的大小會影響分割的結(jié)果,對于某些較大的物體,它可能會超過接收域,從而影響到預測結(jié)果的連續(xù)性. 另一方面,如果圖中某些東西過小,雖然它們很重要,但是還是很難找到它們. 因此為了在非常小或非常大的對象上提高性能,應該對包含不重要類內(nèi)容的不同子區(qū)域給予足夠的重視. 不同層次、不同尺度的圖像特征通常反映了不同的語義信息. 應考慮不同像素之間的聯(lián)系,結(jié)合不同區(qū)域的上下文信息,進行特征融合.
為了進一步減少不同子區(qū)域之間的上下文信息丟失,本文使用金字塔池模塊[16],它是一種包含不同尺度的信息,并且在不同子區(qū)域之間變化的層次全局先驗. 在深度神經(jīng)網(wǎng)絡(luò)的最后一層特征圖上進行全局場景先驗構(gòu)建,如圖1(a)所示.
本文采用的金字塔池模塊融合了3種不同金字塔尺度下的特征. 對于輸入的特征向量,分別進入不同層級的池化模塊,其輸出的大小各不相同. 為了保證全局特征的權(quán)重,將對特征進行降維,若金字塔共有N個級別,則在每個級別后使用1×1的卷積將對應級別的通道分別降為原本的1/N. 接下來采用雙線性插值進行上采樣,獲得與原始特征圖相同尺寸的輸出. 最后,將不同層次的特征拼接在一起,輸出最終的金字塔池化全局特征.
需要注意的是金字塔層級的數(shù)量和每個級別的大小都可以修改,它們與饋入金字塔池化層的特征向量的大小有關(guān). 該結(jié)構(gòu)通過采用大小不等的池化核,在很短的時間內(nèi)抽象出不同的子區(qū)域. 因此,應該確保多階段內(nèi)核在表示上保持合理的差距. 本文采用的金字塔池模塊是一個三級模塊,池化尺度分別為2×2、3×3和6×6,第3.2節(jié)的實驗中證明了該方法的有效性.
在之前的工作中,支持集的注釋僅用于條件分支,這實際上并沒有充分利用支持信息來進行小樣本學習[18-21]. 在本節(jié)中將詳細介紹原型對齊正則化結(jié)構(gòu)[14],該結(jié)構(gòu)可以更好地利用支持信息來指導小樣本學習過程,并且有助于增強從少量樣本中訓練得出的模型的通用性和魯棒性.
直觀地說,如果模型能夠利用從支持集中提取的原型對查詢集圖像進行良好的分割,那么對從查詢集學習到預測出的掩模原型也能夠很好地分割支持集圖像. 因此,原型對齊正則化結(jié)構(gòu)將所得到的分割模型在相反的方向上執(zhí)行小樣本學習,即以查詢集和預測的掩模作為新的支持集,學習對支持集圖像進行分割的操作. 這在支持集原型和查詢圖像之間強加了一種相互對齊,并且從支持集中學習了更加豐富的知識. 注意,這里的所有支持集和查詢集圖像都來自于訓練集.
度量方式在網(wǎng)絡(luò)結(jié)構(gòu)中是非常重要的,本文采用的是進行余弦距離的計算,即對于2個向量,計算二者的夾角余弦值,根據(jù)余弦值對相關(guān)度進行評估. 例如常見的二維空間,根據(jù)坐標值,把向量映射到空間向量中,然后求出夾角以及相對應余弦值. 獲得的余弦值即為2個向量的相關(guān)度.
圖1(b)詳細說明了原型對齊正則化結(jié)構(gòu). 首先,獲得查詢集和支持集提取出的特征后,對支持集特征計算掩碼平均池化,獲得一組支持集的原型;然后,通過非參數(shù)度量學習計算查詢集特征和支持集原型的余弦值,獲得其與各類別原型的相關(guān)度,從而對查詢集圖像進行相應的分割. 由于分割可以看作是在每個空間位置上的分類,因此使用每個計算原型計算每個空間位置上的查詢特征向量之間的距離. 當對查詢集圖像進行分割預測后,同樣,對查詢集特征也進行掩模平均池化計算,得到了另一組原型,接下來采用非參數(shù)度量學習方法來學習最優(yōu)原型并對支持圖像通過softmax產(chǎn)生圖像不同語義類的概率分布,對分割掩模進行相應的預測.
對于分割分支,本文計算出分割損失Losss如下:
同樣,在條件分支中將對支持集圖像預測出的分割結(jié)果與其標注的分割掩碼進行比較,以計算Lossp的損失. 實現(xiàn)原型對齊正則化的整個過程可以看作是支持集和查詢集的交換. 具體來說,在原型對齊正則化過程中,損失Lossp為
式中:C為類別個數(shù);K為支持集圖像數(shù)量. 如果沒有原型對齊正則化過程,信息只能從支持集單向流動到查詢集. 本文通過將信息流回支持集,使得模型學習一致的嵌入空間,使查詢集原型和支持集原型對齊. 第3.2節(jié)通過實驗驗證了使用原型對齊正則化的效果.
在本文的訓練過程中,模型的總損失L為
L=Losss+λLossp
式中λ為正則化強度,當λ=0時,即相當于訓練沒有加原型對齊正則化結(jié)構(gòu)的模型. 經(jīng)過實驗比較,λ為不同值時對結(jié)果沒有什么改善,因此本文的損失為λ=1時的總損失.
本文遵循文獻[10]中提出的小樣本圖像語義分割評估方案,并在PASCAL- 5i[14]數(shù)據(jù)集上評估模型. 該數(shù)據(jù)集是通過PASCAL VOC 2012[23]和SBD[24]擴充而成的. 將PASCAL VOC的20個類別平均分為4個部分,每個部分包含5個類別. 具體的類別劃分如表1所示. 模型在其中3個部分上進行訓練,然后以交叉驗證的方式在其余1個部分上進行評估. 在測試過程中,以往的方法隨機抽取1 000個樣本集進行評估,但該方法不足以給出穩(wěn)定的結(jié)果. 在本文的實驗中,使用不同的隨機種子對5次運行的結(jié)果進行平均,每次運行包含1 000集,使得獲得的結(jié)果更加具有穩(wěn)定性.
模型采用mean-IoU和binary-IoU兩個評估指標對其進行評估. Mean-IoU是通過計算每個前景類的交并比,并在所有類上求平均值得出的[17],具體的公式定義為
式中:TP、FP和FN分別是分割掩碼集合中的真正例、假正例和假負例的個數(shù);Nl是測試集中類別的數(shù)目.
表1 數(shù)據(jù)集及其類別劃分
而binary-IoU是將所有的對象類別作為一個前景類,并對前景和背景的交并比進行平均[11]. 本文主要使用mean-IoU進行模型評估,因為它考慮了前景類別之間的差異,因此更準確地反映了模型的性能. 同時本文也計算了模型的binary-IoU值,與以前的一些方法進行了比較.
本文在PASCAL- 5i數(shù)據(jù)集上驗證所提出的網(wǎng)絡(luò)結(jié)構(gòu)在圖像分割的有效性,并且實驗過程均在一張顯卡1080Ti上進行. 與之前的研究一樣,本文同樣使用ILSVRC[2]上的預訓練權(quán)重來初始化基礎(chǔ)網(wǎng)絡(luò)[4,7]. 輸入圖像的大小均被調(diào)整為(417,417),同時使用了一個隨機的水平翻轉(zhuǎn)進行數(shù)據(jù)增強. 該模型是使用SGD進行端到端訓練優(yōu)化的,優(yōu)化器的動量為0.9,迭代次數(shù)30 000次. 權(quán)重衰減和批量大小分別為0.000 5和1.
由于金字塔層級的數(shù)量和每個級別池化核的大小與網(wǎng)絡(luò)分割性能息息相關(guān),本文對金字塔池化結(jié)構(gòu)中不同池化核大小對分割結(jié)果的影響進行了多個實驗,結(jié)果如表2所示. 首先,訓練了不加金字塔池化的結(jié)果作為Baseline以方便試驗結(jié)果的比較. 然后,增加了金字塔池化結(jié)構(gòu),分別采用了池化核為2×2、3×3和3×3、6×6的兩級模塊對特征進行提取,發(fā)現(xiàn)由于分別缺失了部分低級和高級特征,性能提升效果并不明顯. 接下來,采用了三級模塊進行特征提取,該模塊池化核大小分別為2×2、3×3、6×6,有效地提升了網(wǎng)絡(luò)的分割性能. 隨著模塊的增加,繼續(xù)實驗了四級模塊的效果,發(fā)現(xiàn)提升效果反而有所下降,說明并不是模塊層數(shù)越多對分割的性能提升越高. 因此本文選擇三級金字塔池模塊,池化核大小分別為2×2、3×3和6×6.
表2 不同池化核大小在PASCAL- 5i上的分割結(jié)果比較
為保證優(yōu)化性能及優(yōu)化收斂速率,本文分別采用了2種調(diào)整方法,等間隔調(diào)整學習率和預熱學習率. 等間隔調(diào)整學習率是先將學習率初始化為1×10-3,并且每10 000次迭代降低10%. 本文中,預熱學習率是將學習率初始化為1×10-6,每隔2 000次升高10%,當它升高至1×10-3時,開始每隔10 000次迭代降低10%. 試驗結(jié)果如表3所示,發(fā)現(xiàn)預熱學習率對小樣本圖像分割任務(wù)中效果提升不明顯,本文選擇等間隔調(diào)整學習率方法.
表3 不同學習率方法在PASCAL- 5i上的分割結(jié)果比較
表4給出了本文所提方法與其他方法在PASCAL- 5i數(shù)據(jù)集上使用mean-IoU度量1-way 1-shot和1-way 5-shot分割的比較結(jié)果. 本文提出的方法優(yōu)于所有比較模型,如OSLSM[8]、co-FCN[10]、SG-One[22]和PANet[14]. 本文的方法在4次不同訓練集和測試集中,1-shot分割的平均交并比達到49.5%,明顯超過了OSLSM[8]8.7%、co-FCN[10]8.4%、SG-One[22]3.2%、PANet[14]1.4%. 與此同時,本文的方法在有5張支持集圖像時,可以獲得56.6%的準確率,明顯優(yōu)于最近的方法,平均交并比超過OSLSM[8]12.7%、co-FCN[10]15.2%、SG-One[22]9.5%、PANet[14]0.9%,取得了顯著提升. 通過這樣的對比,本文可以看到金字塔池化模塊和原型對準正則化對于提高性能都起到了重要的作用. 值得注意的是,本文的方法比之前的方法參數(shù)量明顯更少,在2.1.1中已經(jīng)進行了比較.
表4 1-way 1-shot和1-way 5-shot在PASCAL- 5i上使用mean-IoU的不同方法分割結(jié)果比較
本文還與OSLSM[8]、co-FCN[10]、PL[12]、SG-One[22]、PANet[14]和所提方法用binary-IoU進行了評估比較. 該度量方法計算了背景和前景的平均交并比,首先計算了PASCAL- 5i中4個部分的前景的平均交并比,然后通過這2個值的平均值得到了平均的binary-IoU. 表5給出了在4部分數(shù)據(jù)集上進行交叉驗證的評價結(jié)果,其中Δ為1-shot與5-shot的差值. 本文所提出的方法實現(xiàn)了67.1%的1-shot分割和74.6%的5-shot分割,優(yōu)于之前所有的方法.
本文在多分類小樣本分割任務(wù)上評估了所提出的模型. 評估了2-way 1-shot和2-way 5-shot的分割任務(wù),結(jié)果顯示,該模型沒有喪失一般性,表6總結(jié)了實驗結(jié)果. 在這2個指標上,本文所提出的方法都比以前所有的方法要高.
模型復雜度是衡量模型好壞的一個非常重要的標準,而復雜度可以從2個方面來進行討論分析. 首先是空間復雜度,在網(wǎng)絡(luò)模型中表示為模型參數(shù)量總和. 其次是時間復雜度,它代表的是模型的運算次數(shù),可以采用每秒浮點運算次數(shù)來衡量計算性能. 本文計算了不同方法在同等條件下的參數(shù)量、浮點計算量和模型大小,如表7所示. 可以看出本文采用的方法參數(shù)量為3.0 MB,遠少于之前的OSLSM[8]、co-FCN[10]、SG-One[22]和PANet[14]等小樣本分割方法的參數(shù)量. 同時,本文提出的方法浮點計算量為11 182 MB,在相同條件下,計算速度有明顯提升,時間復雜度遠小于PANet[14]. 模型大小為12 MB,約為PANet[14]的1/6. 本文提出的方法在空間復雜度和時間復雜度方面均獲得了有效改善,實現(xiàn)了高效準確的輕量級金字塔原型對齊網(wǎng)絡(luò).
表5 1-way 1-shot和1-way 5-shot在PASCAL- 5i上使用binary-IoU的不同方法分割結(jié)果比較
圖3 1-way 1-shot圖像語義分割可視化結(jié)果Fig.3 Visualization of results using our model for 1-way 1-shot image semantic segmentation
表6 2-way 1-shot和2-way 5-shot在PASCAL- 5i上 使用Mean-IoU的不同方法分割結(jié)果比較
表7 網(wǎng)絡(luò)復雜度對比
使用本文提出的小樣本分割模型的1-shot部分可視化結(jié)果如圖3所示. 可以看出自行車、貓頭鷹、飛機、汽車等類別都被較準確地分割出來. 實驗表明,該方法能夠成功地從圖像中分割出目標物體.
本文提出的小樣本語義分割模型不僅可以從帶有密集注釋的圖像標簽中學習知識進行指導小樣本分割,也可以從稀疏的注釋中,對從未見過的類別進行準確預測. 本文的工作還需要從弱監(jiān)督方向?qū)π颖緦W習進行進一步的實驗研究.
1) 本文針對小樣本圖像語義分割問題,提出了一種基于金字塔原型對齊的輕量級網(wǎng)絡(luò),在數(shù)據(jù)集樣本較少的情況下,能夠?qū)颖緢D片進行分割. 通過利用深度可分離卷積和逆殘差結(jié)構(gòu),在不影響模型分割分支精度的前提下,達到了參數(shù)量減小的效果,與以往同類型的主流小樣本圖像分割方法對比,有效地降低了網(wǎng)絡(luò)的空間復雜度和計算復雜度,提高了自動分割的效率,證明了本文提出的方法能夠進行高效、快速的圖像分割.
2) 本文提出的網(wǎng)絡(luò)結(jié)構(gòu)充分利用了上下文先驗知識和支持集中的語義信息,融合了不同金字塔尺度的特征,保證了網(wǎng)絡(luò)具有全局上下文信息. 同時通過在支持原型和查詢之間進行的相互對齊,幫助網(wǎng)絡(luò)能夠從支持集中學到更多的信息. 在PASCAL- 5i數(shù)據(jù)集上進行實驗測試,使用2種分割評估指標進行評估,精度均高于多個主流小樣本語義分割網(wǎng)絡(luò),同時對可視化結(jié)果分析,證明了本文所提出的輕量級金字塔原型對齊網(wǎng)絡(luò)在小樣本圖像語義分割應用中的顯著有效性.