余永維, 彭西, 杜柳青, 陳天皓
(重慶理工大學(xué) 機(jī)械工程學(xué)院, 重慶 400054)
近年來(lái),隨著智能制造技術(shù)的發(fā)展,利用視覺(jué)機(jī)器人對(duì)零件進(jìn)行自動(dòng)檢測(cè)成為了智能裝配領(lǐng)域的研究熱點(diǎn)。傳統(tǒng)機(jī)器視覺(jué)的目標(biāo)檢測(cè)算法依賴基于人工設(shè)計(jì)的特征提取器,通過(guò)角點(diǎn)檢測(cè)算法[1]、加速穩(wěn)健特征(SURF)算法[2]、方向梯度直方圖或基于邊緣像素躍遷等算法獲取特征分類器,以達(dá)到工件檢測(cè)的目的。由人工設(shè)計(jì)的特征分類器魯棒性差,無(wú)法適應(yīng)目標(biāo)工件出現(xiàn)相互粘連、堆疊等復(fù)雜情形。
深度卷積神經(jīng)網(wǎng)絡(luò)能夠自動(dòng)學(xué)習(xí)待檢測(cè)對(duì)象的特征,完全無(wú)需人為干預(yù),自學(xué)習(xí)所獲特征的泛化性遠(yuǎn)優(yōu)于人工特征,并更有利于優(yōu)化特征分類模型[3-7]。目前應(yīng)用廣泛的卷積神經(jīng)網(wǎng)絡(luò)目標(biāo)檢測(cè)算法主要分為基于區(qū)域的目標(biāo)檢測(cè)算法(如區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(R-CNN)算法[8]、區(qū)域全卷積網(wǎng)絡(luò)(R-FCN)算法[9]等)和基于回歸的目標(biāo)檢測(cè)算法(如一次性檢測(cè)(YOLO)算法[10]、單次多盒檢測(cè)(SSD)算法[11]等)?;趨^(qū)域的目標(biāo)檢測(cè)算法對(duì)目標(biāo)的定位精度較高,但是檢測(cè)速度依然存在問(wèn)題,如Faster R-CNN算法[12]等?;诨貧w算法的YOLO系列算法檢測(cè)速度快,但是精度比Faster R-CNN算法相對(duì)偏低。Redmon等[13]進(jìn)一步提出YOLOv2和YOLOv3改進(jìn)算法,通過(guò)引入維度聚類、殘差網(wǎng)絡(luò)模塊和多尺度預(yù)測(cè),在保證檢測(cè)速度的同時(shí),大幅提升了檢測(cè)準(zhǔn)確率。
但是,面對(duì)粘連、堆疊、光照變化及環(huán)境因素干擾等工業(yè)現(xiàn)場(chǎng)復(fù)雜條件,基于Darknet-53特征提取網(wǎng)絡(luò)的YOLOv3網(wǎng)絡(luò)算法檢測(cè)精度降低,達(dá)不到實(shí)際應(yīng)用的要求。因此,為保證裝配機(jī)器人在復(fù)雜條件下零件識(shí)別和定位的實(shí)時(shí)性和正確率,本文提出一種融合綜合特征增強(qiáng)(CFE)模塊和Darknet-53的深度特征自學(xué)習(xí)網(wǎng)絡(luò)CFE-Darknet53,在Darknet-53的每個(gè)殘差網(wǎng)絡(luò)后嵌入CFE模塊,建立YOLOv3深度學(xué)習(xí)框架下基于CFE-Darknet53的零件實(shí)時(shí)檢測(cè)模型,顯著提升了檢測(cè)網(wǎng)絡(luò)在復(fù)雜環(huán)境下的特征提取能力。同時(shí),提出一種基于改進(jìn)K-means算法的邊界框預(yù)測(cè)方法來(lái)獲取最優(yōu)的錨框個(gè)數(shù)和尺寸。實(shí)驗(yàn)結(jié)果表明,其不僅能夠準(zhǔn)確檢測(cè)常規(guī)位姿下的零件,而且在相機(jī)過(guò)度曝光、工件相互遮擋等復(fù)雜情形下,都具有很好的檢測(cè)效果。
借鑒殘差網(wǎng)絡(luò)(RESNet)和YOLOv2算法中Darknet-19網(wǎng)絡(luò)結(jié)構(gòu),YOLOv3算法設(shè)計(jì)出基礎(chǔ)分類網(wǎng)絡(luò)Darknet-53,與此前的分類網(wǎng)絡(luò)相比,Darknet-53網(wǎng)絡(luò)具有浮點(diǎn)運(yùn)算更少、速度更快的優(yōu)點(diǎn),在一些自然圖像的物體檢測(cè)中準(zhǔn)確率達(dá)到了近90%[14-17]。但是在粘連、堆疊、光源變化及環(huán)境因素干擾等復(fù)雜工業(yè)現(xiàn)場(chǎng)條件下,YOLOv3算法對(duì)零件實(shí)時(shí)檢測(cè)準(zhǔn)確率為70%左右,達(dá)不到實(shí)際工業(yè)應(yīng)用的要求。
圖1 檢測(cè)流程Fig.1 Detection process
圖2 基于CFE-Darknet53的零件實(shí)時(shí)檢測(cè)原理Fig.2 Real-time detection based on CFE-Darknet 53
為增強(qiáng)深度學(xué)習(xí)檢測(cè)網(wǎng)絡(luò)的特征提取能力,提高復(fù)雜條件下檢測(cè)準(zhǔn)確率,本文在Darknet-53中5個(gè)殘差連接后插入CFE模塊,提出一種融合CFE模塊和Darknet-53的特征提取網(wǎng)絡(luò)CFE-Darknet53,建立YOLOv3框架下基于新特征提取網(wǎng)絡(luò)CFE-Darknet53的零件實(shí)時(shí)檢測(cè)模型,其檢測(cè)流程及原理分別如圖1和圖2所示,具體方法如下:在目標(biāo)檢測(cè)階段,首先將圖片尺寸統(tǒng)一調(diào)整為416×416,通過(guò)CFE-Darknet53特征提取網(wǎng)絡(luò),輸出尺度為13×13的特征圖;13×13特征圖經(jīng)內(nèi)插值上采樣實(shí)現(xiàn)2倍放大,然后與CFE-Darknet53提取網(wǎng)絡(luò)輸出的第43個(gè)卷積特征圖進(jìn)行融合,獲得尺度為26×26的特征圖;將該26×26特征圖進(jìn)行內(nèi)插值上采樣放大為52×52尺度,然后與CFE-Darknet53提取網(wǎng)絡(luò)輸出的第26個(gè)卷積特征圖進(jìn)行特征拼接與融合,獲得52×52的特征圖;3種尺度的特征圖分別經(jīng)過(guò)3次卷積、標(biāo)準(zhǔn)化及非線性激活(CBL)操作,分別實(shí)現(xiàn)對(duì)輸入圖片大、中、小3種尺寸目標(biāo)的檢測(cè)。每種尺度的檢測(cè)輸出都包括標(biāo)記框坐標(biāo)、標(biāo)記框網(wǎng)格所對(duì)應(yīng)的置信度和類別等3類信息;最后,采用非極大值抑制方法對(duì)13×13、26×26、52×52 3種尺度的檢測(cè)輸出進(jìn)行處理,獲得對(duì)原始輸入圖像的識(shí)別與檢測(cè)結(jié)論。
與YOLOv2算法比較,YOLOv3算法對(duì)小目標(biāo)的檢測(cè)能力有所提升,但是對(duì)于零件尺寸較小且無(wú)明顯表面特征、多個(gè)零件相互堆疊與遮擋、多類零件外形高度相似等復(fù)雜工作場(chǎng)景,仍缺乏魯棒性,容易出現(xiàn)漏檢和誤檢的情況。因此,本文提出一種融合CFE模塊和Darknet-53的深度特征自學(xué)習(xí)網(wǎng)絡(luò)CFE-Darknet53,優(yōu)化YOLOv3算法中用于特征自學(xué)習(xí)的深度卷積基礎(chǔ)網(wǎng)絡(luò)Darknet-53,以提升零件檢測(cè)模型在復(fù)雜實(shí)際工作場(chǎng)景下的圖像特征挖掘能力。
CFE模塊內(nèi)部遵循分裂- 轉(zhuǎn)換- 聚合策略,內(nèi)嵌入更多的子空間,可以強(qiáng)化淺層特征并進(jìn)行橫向拉伸,增強(qiáng)網(wǎng)絡(luò)對(duì)上層信息的傳遞能力[18]。
經(jīng)參數(shù)優(yōu)化后,CFE模型的結(jié)構(gòu)如圖3所示,圖中C表示作為CFE模型輸入特征圖的通道數(shù)。CFE模塊把大小為m×m的卷積核劃分為尺度分別為m×1和1×m的兩個(gè)新卷積核,兩個(gè)新卷積核并行但有相反的梯度。Darknet53基礎(chǔ)網(wǎng)絡(luò)中的卷積核大小為3×3,實(shí)際檢測(cè)中,將CFE模塊卷積核K值同樣設(shè)定為3. 這樣,既使CFE模塊具有相同大小的感受野,又能顯著提高模型的運(yùn)行效率。因此,輸入CFE模塊的特征圖需要經(jīng)過(guò)k×1和1×k兩個(gè)卷積核的并行處理,再通過(guò)特征拼接與融合,然后與輸入特征網(wǎng)絡(luò)層以短連接方式組成殘差網(wǎng)絡(luò),最終獲得CFE模塊。
圖3 優(yōu)化參數(shù)后的CFE模型(從左至右:輸入通道數(shù), 卷積核大小,輸出通道數(shù))Fig.3 CFE model with optimized parameters (from left to right: number of input channel, size of convolution kernel and number of output channel)
此外,兩個(gè)并行分支的起始及末尾均通過(guò)尺度為1×1的卷積核連接,是為了能夠?qū)W習(xí)更多的非線性關(guān)系,并進(jìn)一步提高檢測(cè)模型的泛化能力;同時(shí),為防止梯度消失與過(guò)擬合,CFE模塊中的每個(gè)卷積層均通過(guò)正則化處理,并采用非線性激活函數(shù)。
考慮到Darknet-53網(wǎng)絡(luò)中每個(gè)殘差連接層融合了不同層次的特征信息,所以在每個(gè)殘差網(wǎng)絡(luò)塊后增加CFE模塊,融合CFE模塊與Darknet-53基礎(chǔ)網(wǎng)絡(luò)后形成新的特征自學(xué)習(xí)網(wǎng)絡(luò)CFE-Darknet53,既加大了網(wǎng)絡(luò)寬度,又提高了模型的特征自學(xué)習(xí)與傳遞能力,CFE-Darknet53結(jié)構(gòu)如圖4所示。
圖4 特征提取網(wǎng)絡(luò)CFE-Darknet53(CBL m-n: m、n分別表示卷積核的步長(zhǎng)與尺寸;CFE-C:C表示CFE模型的輸入通道數(shù))Fig.4 Feature extraction network CFE-Darknet53 (CBL m-n: m and n represent the step length and size of convolution kernel; CFE-C:C represents the number of input channel in CFE model)
邊界框?qū)δ繕?biāo)檢測(cè)準(zhǔn)確率有重要影響。YOLOv3算法采用傳統(tǒng)K-means聚類算法確定待檢數(shù)據(jù)集中錨框個(gè)數(shù)和尺寸。但是傳統(tǒng)K-means算法對(duì)于不同的聚類中心初值,往往會(huì)得到不同的聚類結(jié)果,聚類中心初值選擇不當(dāng)甚至可能出現(xiàn)局部最優(yōu)解,或不能實(shí)現(xiàn)有效聚類,這會(huì)影響零件邊界框計(jì)算的準(zhǔn)確率。粒子群優(yōu)化(PSO)算法具有優(yōu)秀的搜索能力,引入PSO算法對(duì)K-means聚類結(jié)果進(jìn)一步聚類計(jì)算,可以得到更有效的標(biāo)記框,以選取最優(yōu)的錨框個(gè)數(shù)和尺寸,進(jìn)一步提高檢測(cè)精度,從而彌補(bǔ)傳統(tǒng)K-means算法的上述缺陷。
基于改進(jìn)K-means算法的零件邊界框聚類原理如下:
1)針對(duì)零件圖像的標(biāo)記框樣本集,采取K-means算法進(jìn)行初始聚類,搜索出聚類中心對(duì)應(yīng)的k個(gè)標(biāo)記框。
K-means算法的距離公式定義為
d(b,c)=1-U(b,c),
(1)
式中:b表示數(shù)據(jù)集中標(biāo)記框;c表示作為聚類中心的矩形框;U(b,c)表示標(biāo)記框與聚類中心的交并比。
設(shè)置目標(biāo)函數(shù)f(d)為每個(gè)矩形標(biāo)記框樣本與其對(duì)應(yīng)聚類中心距離之和:
(2)
式中:M為聚類中心的數(shù)量;N為單一聚類所含的零件標(biāo)記框樣本數(shù);m為標(biāo)記框的編號(hào);n為聚類中心的編號(hào)。
2)初始化粒子的位置與速度,方法是先將每一個(gè)零件標(biāo)記框進(jìn)行隨機(jī)歸類,然后計(jì)算出每類的中心(x0,y0),將其指定為粒子的初始位置P0,并設(shè)其初始速度為0.
3)將目標(biāo)函數(shù)f(d)作為粒子適應(yīng)度函數(shù),計(jì)算各粒子對(duì)應(yīng)的適應(yīng)度值。
將適應(yīng)度值最小的粒子所在位置指定為種群的最優(yōu)位置PG. 同樣,把第i個(gè)粒子在適應(yīng)度值最小時(shí)所在的位置指定為其個(gè)體的最優(yōu)位置PG(i).
4)根據(jù)慣性權(quán)重z的調(diào)整公式對(duì)其動(dòng)間距態(tài)更新:
z(t)=zmax-(zmax-zmin)t/tmax,
(3)
式中:zmax、zmin分別為慣性權(quán)重的最大值和最小值,分別設(shè)定為1.4和0;t表示迭代次數(shù)的當(dāng)前值;tmax表示迭代次數(shù)的最大值。
5)用vi、Pi分別表示第i個(gè)粒子的速度和位置,根據(jù)其計(jì)算公式動(dòng)態(tài)更新:
vi(t+1)=z(t)vi(t)+s1r1(PG(i)-Pi)+
s2r2(PG-Pi),
(4)
Pi(t+1)=Pi(t)+H0(1-t/tmax)vi(t+1),
(5)
式中:s1、s2表示學(xué)習(xí)因子,均設(shè)定為2;r1、r2表示在[0,1]范圍均勻分布的隨機(jī)數(shù);H0表示粒子的飛行常數(shù),設(shè)定為1.5.
6)依鄰近原則將每一個(gè)零件標(biāo)記框進(jìn)行重新歸類,并更新各類的聚類中心。
7)根據(jù)收斂閾值判定粒子群搜索是否達(dá)到終止條件。
收斂閾值σ2定義為
(6)
式中:I為粒子群的規(guī)模;f(pi)表示第i個(gè)粒子的適應(yīng)度;fa表示粒子群的適應(yīng)度均值。
8)如粒子群已收斂,此時(shí)的種群最優(yōu)位置PG即為聚類中心,并輸出處于聚類中心位置的所有矩形框。
在邊界框預(yù)測(cè)階段,YOLOv3算法將圖片分成若干網(wǎng)格,零件中心在哪個(gè)網(wǎng)格內(nèi),那么該網(wǎng)格就負(fù)責(zé)預(yù)測(cè)零件的類別和坐標(biāo)。如圖5所示,零件中心僅在網(wǎng)格1內(nèi),則網(wǎng)格1為正例,其他網(wǎng)格內(nèi)不含零件中心,均為負(fù)例,而與其交并比的大小無(wú)關(guān)。
圖5 網(wǎng)格示意圖Fig.5 Sketch of the grid
在訓(xùn)練階段YOLOv3算法直接預(yù)測(cè)坐標(biāo)相對(duì)于網(wǎng)格的偏移量gx和gy,計(jì)算公式為
(7)
式中:x、y為零件中心點(diǎn)的坐標(biāo);w、h表示零件原始圖像的寬與高。選擇S型函數(shù)Sigmoid作為激活函數(shù),將結(jié)果映射到[0,1]范圍內(nèi),以增加對(duì)偏移的約束。
本文實(shí)驗(yàn)的軟硬件平臺(tái):中央處理器Intel(R) Core(TM) i7-8700,顯卡NVIDIA GeForce GTX 1060,內(nèi)存16 GB;工業(yè)相機(jī)為杭州??低晹?shù)字技術(shù)股份有限公司生產(chǎn)的MV-CE013-50GM型相機(jī);光源為東莞樂(lè)視自動(dòng)化科技有限公司生產(chǎn)的LTS-RN9600-R/BGW型光源;操作系統(tǒng)為Ubuntu 14.04 LTS;深度學(xué)習(xí)框架為Darknet.
為檢驗(yàn)算法的有效性,選取5種相似度較高的零件以增加檢測(cè)難度,用CCD相機(jī)拍攝處于各種位姿的零件圖像,一共采集1 000張零件樣本圖像,包含多個(gè)零件堆疊與遮擋、多類零件外形高度相似、光照不均勻等復(fù)雜生成場(chǎng)景。隨機(jī)選取200張作為測(cè)試集,800張作為訓(xùn)練集。零件類型如圖6所示。
圖6 數(shù)據(jù)樣本類別Fig.6 Categories of data samples
選擇標(biāo)注工具LabelImg標(biāo)記制作零件的樣本數(shù)據(jù)集?;赑OS優(yōu)化算法,采用改進(jìn)的K-means算法對(duì)樣本數(shù)據(jù)的標(biāo)記框進(jìn)行聚類分析,確定最優(yōu)的錨框個(gè)數(shù)和尺寸,目標(biāo)函數(shù)f(d)的變化曲線如圖7所示。
圖7 目標(biāo)函數(shù)變化曲線Fig.7 Variation curve of object function
從圖7中可知,當(dāng)標(biāo)記框數(shù)為12后,隨著聚類中心增加,距離函數(shù)的值不再明顯變小,其對(duì)應(yīng)的聚類中心參數(shù)排序?yàn)?36,45)、(38,52)、(43,56)、(49,62)、(67,93)、(71,91)、(70,99)、(73,98)、(92,125)、(100,124)、(102,132)、(105,140)。
訓(xùn)練采用Momentum梯度下降算法,其學(xué)習(xí)率為0.001、每一批樣本訓(xùn)練數(shù)量為64、動(dòng)量項(xiàng)參數(shù)為0.9、權(quán)重衰減系數(shù)為0.000 5.
網(wǎng)絡(luò)迭代次數(shù)不足,損失函數(shù)不能充分收斂,檢測(cè)準(zhǔn)確率低,但網(wǎng)絡(luò)訓(xùn)練次數(shù)過(guò)多,也可能因過(guò)擬合而影響準(zhǔn)確率。因此,每訓(xùn)練迭代500次均保存對(duì)應(yīng)權(quán)重參數(shù),訓(xùn)練結(jié)束后獲得完整的訓(xùn)練權(quán)值文件,根據(jù)損失函數(shù)收斂曲線選擇最優(yōu)訓(xùn)練次數(shù)及最佳權(quán)重參數(shù)。迭代訓(xùn)練達(dá)到25 000次后所對(duì)應(yīng)的損失函數(shù)曲線如圖8所示,從該損失值變化曲線可知,網(wǎng)絡(luò)訓(xùn)練10 000次后,損失函數(shù)已趨收斂,各權(quán)值參數(shù)基本不再變化,網(wǎng)路訓(xùn)練的損失函數(shù)收斂于0.035 2.
圖8 訓(xùn)練損失值變化曲線Fig.8 Change curve of training loss value
網(wǎng)絡(luò)訓(xùn)練完成后,在5類零件的測(cè)試樣本集中隨機(jī)選擇50幅圖像,采用召回率來(lái)測(cè)試及評(píng)估訓(xùn)練效果。召回率P定義為
P=TP/(TP+FN),
(8)
式中:TP為識(shí)別正確的零件圖像數(shù)量;FN為識(shí)別錯(cuò)誤的零件圖像數(shù)量。
采用召回率評(píng)價(jià)網(wǎng)絡(luò)訓(xùn)練效果,訓(xùn)練1 000 0次時(shí)召回率為90.60%,表明有較高的檢測(cè)準(zhǔn)確率。訓(xùn)練14 000次至18 000次時(shí)對(duì)應(yīng)的召回率如表1所示,表明迭代1 000 0次后召回率有所波動(dòng),但總趨勢(shì)是有所降低。
表1 迭代次數(shù)與召回率Tab.1 Iteration number and recall rate
3.3.1 單類零件檢測(cè)效果
圖9 單類零件檢測(cè)效果Fig.9 Detection effect of single type parts
針對(duì)單類零件的檢測(cè),5類零件一共測(cè)試了300張圖片,檢測(cè)效果如圖9所示,圖中分別用A、B、C、D、E分別表示自鎖螺母、法蘭螺母、壓鉚螺母、S型壓鉚螺母、滾花銅鑲螺母。常規(guī)情況下單個(gè)零件的檢測(cè)準(zhǔn)確率均超過(guò)94%,即使在嚴(yán)重重疊、光照變化、位姿變換、拍攝失真等各種復(fù)雜生產(chǎn)場(chǎng)景下,檢測(cè)準(zhǔn)確率也均在90%以上,檢測(cè)時(shí)間為43 ms,在視頻傳輸幀率(24幀/s)下實(shí)現(xiàn)了實(shí)時(shí)檢測(cè),檢測(cè)準(zhǔn)確率和實(shí)時(shí)性如表2所示。
表2 單類零件檢測(cè)性能Tab.2 Detection data of single-class parts
3.3.2 多類零件檢測(cè)效果
針對(duì)多類型零件混雜情況,分別對(duì)正常情況下的239張以及復(fù)雜生產(chǎn)場(chǎng)景下的261張多類零件混雜圖像進(jìn)行測(cè)試。本文算法在復(fù)雜生產(chǎn)場(chǎng)景下的多類零件混雜圖像檢測(cè)效果如圖10(a)~圖10(d)所示,結(jié)果表明,在遮擋、背景變化、過(guò)曝光等復(fù)雜條件下,本文算法均能準(zhǔn)確檢測(cè)多類零件。為了模擬實(shí)際應(yīng)用場(chǎng)景,增加4組多類零件雜亂擺放且有其他零件混雜等雜亂度更高的復(fù)雜場(chǎng)景,包括雜亂擺放且混有其他零件、雜亂擺放且待檢測(cè)零件被干擾零件遮擋、相互重疊且與其他零件雜亂擺放、待檢測(cè)零件與混雜零件相互重疊,檢測(cè)效果如圖10(e)~圖10(h)所示,表明本文算法也有較高的檢測(cè)準(zhǔn)確率,均能達(dá)到91%以上。為了進(jìn)一步說(shuō)明本文算法的有效性,采用SUR人工特征算法、SSD300算法、 YOLOv3算法、CFE模塊算法4種其他算法與本文算法進(jìn)行對(duì)比實(shí)驗(yàn),檢測(cè)效果如表3所示,傳統(tǒng)SUR算法的準(zhǔn)確率較低(僅為62.5%),另外一種基于回歸的SSD300算法檢測(cè)準(zhǔn)確率為77.8%,單純的YOLOv3算法與CFE模塊算法檢測(cè)準(zhǔn)確率均為81%左右,均低于復(fù)雜條件下本文算法91.6%的平均準(zhǔn)確率,驗(yàn)證了本文算法的優(yōu)越性。
工業(yè)生產(chǎn)線上,視覺(jué)裝配機(jī)器人在粘連、堆疊、光照變化及環(huán)境因素干擾等復(fù)雜條件下零件檢測(cè)準(zhǔn)確率低、魯棒性差,為此,本文提出了基于CFE-Darknet53深度特征提取網(wǎng)絡(luò)的零件深度學(xué)習(xí)檢測(cè)方法,根據(jù)實(shí)驗(yàn)結(jié)果得出以下主要結(jié)論:
圖10 多類零件復(fù)雜條件下檢測(cè)效果Fig.10 Detection effect under complex conditions
1)提出了融合CFE模塊和Darknet-53的新特征提取網(wǎng)絡(luò)CFE-Darknet53,顯著提升了檢測(cè)網(wǎng)絡(luò)在復(fù)雜環(huán)境下的特征提取能力。
2)建立了深度學(xué)習(xí)框架YOLOv3下基于CFE-Darknet53的零件實(shí)時(shí)檢測(cè)模型,在保證檢測(cè)實(shí)時(shí)性的同時(shí),較大程度提升了復(fù)雜條件下對(duì)零件的檢測(cè)能力,在復(fù)雜條件下對(duì)相似度很高的多類零件檢測(cè)準(zhǔn)確率達(dá)到91.6%以上。
表3 本文算法與其他算法性能對(duì)比Tab.3 Comparison of detection accuracies ofdifferent algorithms
3) 基于改進(jìn)K-means算法的邊界框預(yù)測(cè)方法,能夠確定最優(yōu)的錨框個(gè)數(shù)和尺寸,降低了漏檢率和誤檢率,進(jìn)一步提高了檢測(cè)準(zhǔn)確率。