王新彥 易政洋
摘要:為實(shí)現(xiàn)割草機(jī)器人在計(jì)算資源有限的情況下快速、準(zhǔn)確地定位并識(shí)別工作環(huán)境中的障礙物,提出一種基于濾波器剪枝的改進(jìn)YOLOv5s深度學(xué)習(xí)模型的割草機(jī)器人工作環(huán)境下障礙物的檢測(cè)方法。首先,將YOLOv5模型中的Bottleneck殘差塊改為分層殘差結(jié)構(gòu),以更細(xì)粒度地表示多尺度特征,同時(shí)增加網(wǎng)絡(luò)感受野;另外,在殘差塊尾部加入SE模塊,用來對(duì)特征圖重新標(biāo)定;其次,對(duì)改進(jìn)后的算法進(jìn)行濾波器剪枝;最后,針對(duì)割草機(jī)器人工作環(huán)境中的常見障礙物建立相關(guān)數(shù)據(jù)集,并使用剪枝后改進(jìn)YOLOv5s作為深度學(xué)習(xí)模型進(jìn)行檢測(cè)。試驗(yàn)結(jié)果表明:改進(jìn)后的YOLOv5模型大小減少18.8%,mAP增加0.1%。對(duì)改進(jìn)YOLOv5模型進(jìn)行剪枝后,比原YOLOv5模型計(jì)算量降低36.6%,模型大小降低33.3%,推理速度減少1.9 ms。剪枝后本文模型的mAP值分別比YOLOv4,YOLOv4-tiny,YOLOv3,YOLOv3-tiny高1.3%,9.5%,5.8%,22.1%。
關(guān)鍵詞:深度學(xué)習(xí);割草機(jī)器人;目標(biāo)檢測(cè);模型剪枝
中圖分類號(hào):TP391.4
文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):2095-5553 (2023) 03-0171-06
Abstract: In order to realize the fast and accurate positioning and identification of obstacles in the working environment by lawn mowing robot with limited computing resources, an obstacle detection method of mowing robot based on improved YOLOv5s deep learning model with filter pruning is proposed. Firstly, the YOLOv5 model uses a layered residual structure to represent multiscale features with finer granularity, and the network receptive fields are added. In addition, SE module is added to the tail of the residual block to recalibrate the feature map. Secondly, the filter pruning is performed for the improved algorithm. Finally, the relevant data sets were established for common obstacles in the working environment of lawn mowing robot, and the improved YOLOv5s after pruning was used as a deep learning model for detection. Experimental results show that the size of the improved YOLOv5 model is reduced by 18.8%, and the mAP is increased by 0.1%. After pruning the improved YOLOv5 model, the computational amount and the model size are reduced by 36.6%, 33.3%, and 1.9 ms, respectively, compared with the original model. After pruning, the mAP of the final model is 1.3%, 9.5%, 5.8% and 22.1% higher than that of YOLOv4, YOLOV4-tiny, YOLOv3 and YOLOV3-tiny, respectively.
Keywords: deep learning; mowing robot; object detection; model pruning
0引言
人工割草是一項(xiàng)單調(diào)且耗時(shí)的工作,并且還需要面臨草坪坡度、障礙物、碎石,甚至是草叢有害昆蟲的威脅,割草機(jī)器人的出現(xiàn)使這些問題得到了解決。市場(chǎng)上的割草機(jī)器人避障系統(tǒng)主要依靠接觸傳感器、導(dǎo)線技術(shù)等傳統(tǒng)手段,效率不高且易損壞障礙物[1]。隨著近幾年深度學(xué)習(xí)的快速發(fā)展,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)技術(shù)可以使割草機(jī)器人更智能、有效地識(shí)別障礙物[2]。通過檢測(cè)障礙物的種類,可以制定相關(guān)的避障策略。同時(shí),可以對(duì)草坪環(huán)境中的綠植和公共設(shè)施進(jìn)行監(jiān)管,以便后期維護(hù)。
為了使割草機(jī)器人擺脫傳統(tǒng)方法,周結(jié)華等[3]基于移動(dòng)機(jī)器人平臺(tái)設(shè)計(jì)了一款運(yùn)用高精度差分GPS技術(shù)采集機(jī)場(chǎng)草坪邊界和障礙物的位置信息的大型割草機(jī)器人。謝忠華依據(jù)CCD攝像機(jī)和超聲波測(cè)距傳感器,重點(diǎn)進(jìn)行了割草機(jī)器人草地識(shí)別和非接觸避障兩方面的研究。而深度學(xué)習(xí)可以自行學(xué)習(xí)相關(guān)障礙物特征,并隨著訓(xùn)練數(shù)據(jù)量的增加,可以顯著提高精度。左錦等[4]設(shè)計(jì)了基于計(jì)算機(jī)視覺導(dǎo)航的割草機(jī)器人,通過攝像頭采集草坪場(chǎng)景的圖像,利用基于深度學(xué)習(xí)的圖像分割技術(shù)識(shí)別草坪已割區(qū)域和未割區(qū)域,提取區(qū)域間的分割線作為機(jī)器人的規(guī)劃路徑,取得很好的效果。
割草機(jī)器人計(jì)算資源有限,且具有一定危險(xiǎn)性,需要在保證檢測(cè)精度和速度的同時(shí)對(duì)模型進(jìn)行壓縮。為此,采集大量草坪環(huán)境障礙物圖像作為模型訓(xùn)練數(shù)據(jù),并提出了一種基于改進(jìn)YOLOv5模型的割草機(jī)器人工作環(huán)境障礙物檢測(cè)方法。在YOLOv5模型Bottleneck殘差塊中構(gòu)造分層殘差連接,增加網(wǎng)絡(luò)感受野的同時(shí),以更細(xì)粒度地表示多尺度特征。在殘差塊中,通過1×1卷積進(jìn)行特征融合后,加入SE模塊,用來對(duì)特征圖重新標(biāo)定。最后,為了進(jìn)一步輕量化模型,對(duì)改進(jìn)后的算法進(jìn)行濾波器剪枝。通過該算法可實(shí)現(xiàn)割草機(jī)器人在草坪環(huán)境下快速有效識(shí)別障礙物,為割草機(jī)器人自主避障及草坪環(huán)境智能化管理提供技術(shù)參考。
1材料與方法
1.1數(shù)據(jù)采集
圖像數(shù)據(jù)采集于中國(guó)鎮(zhèn)江地區(qū)。數(shù)據(jù)集采集時(shí)間從2020年11月13日至2021年3月7日,涉及晴天、陰天、強(qiáng)光等光照條件。選取4類目標(biāo)包括樹干、球形灌木、草坪燈柱和人作為數(shù)據(jù)集對(duì)象,另外,從基準(zhǔn)數(shù)據(jù)集PASCAL VOC 2012和網(wǎng)絡(luò)中獲取一部分類別為人的圖像補(bǔ)充進(jìn)數(shù)據(jù)集。數(shù)據(jù)集共9 133幅圖像,存在樹干圖像4 838幅、人類圖像4 045幅、草坪燈柱1 202幅、球形灌木1 013幅。
1.2數(shù)據(jù)預(yù)處理
采用LabelImg軟件對(duì)9 133幅圖像中的目標(biāo)障礙物使用2D矩形框進(jìn)行標(biāo)注,標(biāo)注文件保存為PASCAL VOC格式的XML文件。將亂序后的數(shù)據(jù)集按照8∶2的比例將數(shù)據(jù)集分成訓(xùn)練集和測(cè)試集,具體參數(shù)見表1,使用訓(xùn)練集中的圖片樣本訓(xùn)練模型,而測(cè)試集被用來模擬現(xiàn)實(shí)場(chǎng)景,測(cè)試模型的泛化能力。
1.3YOLOv5模型
目前,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法主要分為兩種,一種是二階段算法,如R-CNN[5]、SPP-Net[6]、Fast R-CNN[7]等。這些算法首先生成候選區(qū)域,然后對(duì)候選區(qū)域進(jìn)行分類,精度提高了,但速度不滿足割草機(jī)器人實(shí)時(shí)性的要求。另一種是單階段算法,如YOLO系列[811]以及SSD系列[1215]為主,該類算法丟棄了生成候選區(qū)域這一步,將物體檢測(cè)視為一個(gè)回歸問題,從而大幅度提升了檢測(cè)速度,也由此導(dǎo)致精度的降低。
YOLO算法作為單階算法,首先,通過模型中的特征提取模塊對(duì)輸入圖像提取特征,得到S×S大小的特征圖,然后將輸入圖像分成S×S個(gè)網(wǎng)格單元。在YOLOv3和YOLOv4中,當(dāng)目標(biāo)的真實(shí)邊界框中心落入某網(wǎng)格單元中時(shí),則由該網(wǎng)格單元進(jìn)行檢測(cè),每個(gè)網(wǎng)格單元會(huì)預(yù)測(cè)3個(gè)不同尺度的邊界框和置信度信息。而在YOLOv5中,則通過真實(shí)邊界框中心最近的3個(gè)網(wǎng)絡(luò)單元進(jìn)行預(yù)測(cè),可以預(yù)測(cè)3~9個(gè)邊界框和對(duì)應(yīng)的置信度信息,這使得模型訓(xùn)練速度得到了提高。
YOLOv5模型通過控制網(wǎng)絡(luò)的規(guī)??梢苑譃閟,m,l,x四個(gè)不同復(fù)雜度的模型,本文在YOLOv5s的基礎(chǔ)上進(jìn)行改進(jìn),YOLOv5s結(jié)構(gòu)如圖1所示。在YOLOv5s中將整個(gè)模型分為了主干和頭部,在YOLOv5s的主干部分包括了Focus、Conv、C3和SPP(Spatial Pyramid Pooling)[16]四個(gè)模塊。當(dāng)640×640×3的圖片輸入模型時(shí),首先使用Focus模塊對(duì)圖片進(jìn)行切片,得到4個(gè)320×320×3的互補(bǔ)特征圖,再經(jīng)過Concat以及1個(gè)3×3的Conv模塊,最終特征圖變?yōu)?20×320×32,相對(duì)于普通下采樣操作,可以減少信息的損失。Conv是一個(gè)基本模塊,由Convolution層、Batch normalization層和SILU激活函數(shù)依次組合而成,可以用來作為其他模塊的組成部分,也可以用來進(jìn)行下采樣等操作。C3模塊是主干部分的主要組成模塊,用來進(jìn)行殘差學(xué)習(xí)。C3在BottleneckCSP模塊的基礎(chǔ)上去掉了兩個(gè)Conv模塊和一個(gè)BN層,使網(wǎng)絡(luò)更加簡(jiǎn)潔,降低了計(jì)算量和內(nèi)存成本。SPP模塊使用多個(gè)池化窗口對(duì)圖像進(jìn)行最大池化,增大感受野的同時(shí)不會(huì)降低檢測(cè)速度。
YOLOv5s模型的頭部由PAN(PathAggregation Network)模塊以及Detect模塊組成。PAN在FPN(Feature Pyramid Network)的基礎(chǔ)上增加了一個(gè)自底向上的特征金字塔,不僅能增強(qiáng)語義信息,還對(duì)定位信息進(jìn)行了傳遞。同時(shí),PAN具有動(dòng)態(tài)特征池化和全連接層融合的特點(diǎn),對(duì)分類和位置更加有利。YOLOv5s的Detect模塊與YOLOv4、YOLOv3基本相同,從三個(gè)不同尺度特征圖中分別檢測(cè)大、中、小三種規(guī)格的目標(biāo)。
1.4改進(jìn)YOLOv5模型
如圖2所示,把YOLOv5s作為基礎(chǔ)模型,借鑒Gao等[17]所提出Res2Net的思想,首先在圖2(a)中的Bottleneck中構(gòu)造分層的殘差連接,改進(jìn)后的Bottleneck模塊如圖2(b)所示。將經(jīng)過1×1卷積后的輸出特征圖劃分為4個(gè)通道數(shù)相等的子集,從第二個(gè)子集x2開始進(jìn)行3×3卷積操作,其輸出的特征圖y2與x3相加并輸入相應(yīng)3×3卷積核。簡(jiǎn)而言之,yi可以表達(dá)為式(1)。
以輸入、輸出通道數(shù)32為例,原來3×3卷積參數(shù)量為9 216,改進(jìn)后的3個(gè)3×3卷積參數(shù)量為1 728。由于考慮到推理速度的因素,并沒有進(jìn)一步將這些較小的3×3卷積改為分組卷積。之后,將4組輸出的特征圖進(jìn)行拼接操作,并輸入到1×1卷積中進(jìn)行特征融合。最后加入SE(SqueezeandExcitation)block[18],在通道維度上對(duì)原始特征重新標(biāo)定,能夠以少量的計(jì)算量為代價(jià)來提升精度。改進(jìn)后模塊內(nèi)部的分層殘差結(jié)構(gòu)可以更好地進(jìn)行特征重用,以更細(xì)粒度表示多尺度特征并獲得不同感受野的特征組合。在大量減少計(jì)算量的同時(shí),彌補(bǔ)了原本特征提取能力不足的缺點(diǎn)。
在YOLO系列模型訓(xùn)練前,需要在數(shù)據(jù)集上使用 K-means算法進(jìn)行聚類,得到9個(gè)錨框尺寸。而YOLOv5使用了自適應(yīng)錨框的方法,采用K-means和遺傳學(xué)習(xí)算法自動(dòng)計(jì)算出最佳錨框值。另外,訓(xùn)練超參數(shù)設(shè)置為輸入圖像大小640×640,初始學(xué)習(xí)率0.01,批大小4,迭代次數(shù)300次。
實(shí)驗(yàn)平臺(tái)的處理器為i7-9700kf、內(nèi)存為16 G和圖形處理器為顯存11 GB的GeForce RTX2080Ti,使用的系統(tǒng)為Ubuntu18.04,Python版本為3.6,并且安裝了CUDA和cuDNN庫。
從圖3可以看出,訓(xùn)練曲線收斂速度較快,隨著迭代次數(shù)增加,總損失函數(shù)值Loss平穩(wěn)下降。當(dāng)達(dá)到迭代次數(shù)epoch為250時(shí),模型的學(xué)習(xí)效率飽和,mAP(mean Average precision)基本不再變化。結(jié)果表明,改進(jìn)后的模型在割草機(jī)器人工作環(huán)境障礙物數(shù)據(jù)集上有較好的精度,為模型修剪過程奠定了基礎(chǔ)。
1.5基于濾波器剪枝算法的改進(jìn)YOLOv5s
改進(jìn)后的YOLOv5s模型的檢測(cè)精度達(dá)到預(yù)期要求,但由于割草機(jī)器人計(jì)算資源的限制,需要對(duì)模型的計(jì)算量和推理速度進(jìn)行進(jìn)一步優(yōu)化。模型剪枝是模型壓縮和加速的一個(gè)重要方向,其主要分為權(quán)重剪枝[1920]和濾波器剪枝[2122]。濾波器剪枝相比于權(quán)重剪枝,可以得到規(guī)則的網(wǎng)絡(luò)模型,并加速模型的推理速度。通常,濾波器剪枝方法是通過比較濾波器范數(shù)大小,刪除范數(shù)最接近于零的濾波器。He等[23]發(fā)現(xiàn)實(shí)際濾波器范數(shù)的標(biāo)準(zhǔn)差太小,或者最小范數(shù)值仍然很大,并由此得出基于幾何中位數(shù)的濾波器剪枝方法。
基于幾何中位數(shù)的濾波器剪枝方法的基本思想是若第i層中存在與幾何中位數(shù)相近的濾波器,則認(rèn)為這個(gè)濾波器的信息與其他濾波器相重合,甚至冗余,可以被其他濾波器所表示。首先,從改進(jìn)YOLOv5s模型中的所有可學(xué)習(xí)參數(shù)中篩選出95個(gè)filter layer,對(duì)于filter layer中的每一個(gè)filter,計(jì)算該filter和其他所有filter的歐式距離之和,其中歐氏距離之和最小的filter便是所求的幾何中位數(shù)。之后,將離幾何中位數(shù)最近的(n×Pruning rate)個(gè)filter置零。在剪枝訓(xùn)練過程中,被置零的filter梯度強(qiáng)制為0。等模型收斂后,對(duì)模型進(jìn)行去零操作,得到最終剪枝后的改進(jìn)YOLOv5s模型。
剪枝結(jié)果如表2所示,測(cè)試結(jié)果表明,經(jīng)過濾波器剪枝后,改進(jìn)YOLOv5s模型參數(shù)量減少了18%,mAP減少1.9%,模型尺寸減少了2.1,推理速度減少了5 ms。濾波器剪枝可以有效簡(jiǎn)化并加速模型。
2.2模型性能
訓(xùn)練完成的模型以batch size為16的640×640像素圖片進(jìn)行測(cè)試。通過表2,可以發(fā)現(xiàn)改進(jìn)YOLOv5s的計(jì)算量減少了23.8%,權(quán)重大小減少了2.7 MB,這是由于在將原先Bottleneck中的3×3卷積分成3個(gè)卷積后,模型參數(shù)量大量減少。改進(jìn)YOLOv5s的精度幾乎保持不變,表明分層殘差結(jié)構(gòu)能夠很好地補(bǔ)償卷積分組后的精度。其推理速度相比YOLOv5s增加了3.1 ms,改進(jìn)YOLOv5s模型讀取數(shù)據(jù)總量的增加導(dǎo)致了推理速度變慢。本文模型的推理速度為69.8 ms,比改進(jìn)YOLOv5s減少了5 ms,并且超過了YOLOv5s,這說明對(duì)模型進(jìn)行濾波器剪枝可以有效加速模型。
表3為剪枝后本文模型與其他模型的比較結(jié)果。
可以發(fā)現(xiàn)YOLOv4-tiny的FPS和模型計(jì)算量與YOLOv3-tiny較為相近,屬于輕量化模型,然而在計(jì)算量、權(quán)重大小以及FPS上都沒有本文模型好。同時(shí),本文模型的mAP比YOLOv4高了1.3%,計(jì)算量低82.6%,權(quán)重大小低96.3%,檢測(cè)速度快了近8倍。
2.3基于濾波器剪枝的特征圖可視化
如圖4所示,將位于改進(jìn)YOLOv5s中Focus模塊后的第一個(gè)卷積層的特征圖可視化。帶有紅色框(9,21,23,25,29,32,59,60)的特征圖是要修剪掉的通道。這些選定的特征圖包括人、樹干、草坪燈柱的輪廓,可以被其余通道的特征圖所代替。
在圖5(a)和圖5(b)中,剪枝后的改進(jìn)YOLOv5s可以檢測(cè)到遠(yuǎn)處樹干,但在對(duì)圖5(a)中被遮擋的球形灌木有漏檢。在圖5(d)中,被遮擋的人未檢測(cè)出。結(jié)果表明,剪枝后的改進(jìn)YOLOv5s對(duì)大面積遮擋目標(biāo)的魯棒性較差,但在通常情況下,其檢出率高于其他模型。對(duì)于割草機(jī)器人工作環(huán)境的障礙物而言,剪枝后的改進(jìn)模型更適用于該場(chǎng)景。
3結(jié)論
采用為了使割草機(jī)器人在計(jì)算資源有限的情況下更加快速、準(zhǔn)確地檢測(cè)障礙物,使其在后期工作中能夠?qū)Σ萜涵h(huán)境的植物以及公共設(shè)施進(jìn)行監(jiān)管維護(hù),提出使用基于濾波器剪枝的改進(jìn)YOLOv5s模型來對(duì)割草機(jī)工作環(huán)境中的障礙物進(jìn)行定位及分類。根據(jù)訓(xùn)練和檢測(cè)結(jié)果可以得到以下結(jié)論。
1)? 所提出的改進(jìn)方法能夠在保證精度的情況下輕量化YOLOv5s模型,與原模型相比,模型大小減少18.8%,mAP增加0.1%。經(jīng)過剪枝后,本文模型比原YOLOv5模型計(jì)算量降低了36.6%,模型大小降低33.3%,推理速度減少1.9 ms。
2)? 本文模型與YOLOv4、YOLOv4-tiny、YOLOv3、YOLOv3-tiny模型相比,mAP分別提高了1.3%、9.5%、5.8%、22.1%,模型大小分別減小了96.3%、59.1%、96.1、72.3%,識(shí)別速度分別是7.5倍、1.6倍、5.4倍、1.3倍,滿足在計(jì)算資源有限的條件下精準(zhǔn)、快速檢測(cè)割草機(jī)器人工作環(huán)境障礙物的要求。
參考文獻(xiàn)
[1]Franzius M, Dunn M, Einecke N, et al. Embedded robust visual obstacle detection on autonomous lawn mowers [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops. 2017: 44-52.
[2]Daniyan I, Balogun V, Adeodu A, et al. Development and performance evaluation of a robot for lawn mowing [J]. Procedia Manufacturing, 2020, 49: 42-48.
[3]周結(jié)華, 代冀陽, 周繼強(qiáng). 面向大型機(jī)場(chǎng)草坪的割草機(jī)器人路徑規(guī)劃及軌跡跟蹤控制研究[J]. 工程設(shè)計(jì)學(xué)報(bào), 2019, 26(2): 146-152.
Zhou Jiehua, Dai Jiyang, Zhou Jiqiang, et al. Research on path planning and trajectory tracking control of mowing robot for large airport lawn [J]. Chinese Journal of Engineering Design, 2019, 26(2): 146-152.
[4]左錦, 倪金鑫, 陳章寶. 視覺導(dǎo)航草坪修剪機(jī)器人控制系統(tǒng)設(shè)計(jì)[J]. 工業(yè)控制計(jì)算機(jī), 2020, 33(2): 81-82.
Zuo Jin, Ni Jinxin, Chen Zhangbao. Design of control system for visual navigation mowing robot [J]. Industrial Control Computer, 2020, 33(2): 81-82.
[5]Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation [C]. Proceedings of the IEEE conference on computer vision and pattern recognition. 2014: 580-587.
[6]He K, Zhang X, Ren S, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition [J]. IEEE transactions on pattern analysis and machine intelligence, 2015, 37(9): 1904-1916.
[7]Girshick R. Fast R-CNN [J]. Computer Science, 2015.
[8]Redmon J, Divvala S, Girshick R, et al. You only look once: unified, realtime object detection [J]. IEEE, 2016.
[9]Redmon J, Farhadi A. YOLO9000: Better, faster, stronger [C]. IEEE Conference on Computer Vision & Pattern Recognition. IEEE, 2017: 6517-6525.
[10]Redmon J, Farhadi A. YOLOv3: An Incremental Improvement [J]. arXiv eprints, 2018.
[11]Bochkovskiy A, Wang C Y, Liao H Y M. Yolov4: Optimal speed and accuracy of object detection [J]. arXiv Preprint arXiv: 2004.10934, 2020.
[12]Liu W, Anguelov D, Erhan D, et al. Ssd: Single shot multibox detector [C]. European Conference on Computer Vision. Springer, Cham, 2016: 21-37.
[13]Fu C Y, Liu W, Ranga A, et al. Dssd: Deconvolutional single shot detector [J]. arXiv Preprint arXiv: 1701.06659, 2017.
[14]Li Z, Zhou F. FSSD: Feature fusion single shot multibox detector [J]. arXiv Preprint arXiv: 1712.00960, 2017.
[15]Zhang S, Wen L, Bian X, et al. Singleshot refinement neural network for object detection [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018: 4203-4212.
[16]He K, Zhang X, Ren S, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1904-1916.
[17]Gao S H, Cheng M M, Zhao K, et al. Res2net: A new multiscale backbone architecture [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2019, 43(2): 652-662.
[18]Hu J, Shen L, Sun G. Squeezeandexcitation networks [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018: 7132-7141.
[19]Han S, Pool J, Tran J, et al. Learning both weights and connections for efficient neural network [J]. Advances in Neural Information Processing Systems, 2015, 28.
[20]CarreiraPerpinán M A, Idelbayev Y. “l(fā)earningcompression” algorithms for neural net pruning [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018: 8532-8541.
[21]Li H, Kadav A, Durdanovic I, et al. Pruning filters for efficient convents [J]. arXiv Preprint arXiv: 1608.08710, 2016.
[22]Yu R, Li A, Chen C F, et al. Nisp: Pruning networks using neuron importance score propagation [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018: 9194-9203.
[23]He Y, Liu P, Wang Z, et al. Filter pruning via geometric median for deep convolutional neural networks acceleration [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2019: 4340-4349.