国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于保潔機(jī)器人垃圾分類任務(wù)的數(shù)據(jù)重標(biāo)記算法

2023-09-15 03:34王中磐李清都萬(wàn)里紅
軟件導(dǎo)刊 2023年9期
關(guān)鍵詞:子類類別標(biāo)簽

王中磐,袁 野,李清都,萬(wàn)里紅,劉 娜

(1.上海理工大學(xué) 健康科學(xué)與工程學(xué)院,上海 200093;2.上海交通大學(xué) 電子信息與電氣工程學(xué)院,上海 200030;3.中原動(dòng)力智能機(jī)器人有限公司,河南 鄭州 450018)

0 引言

隨著我國(guó)經(jīng)濟(jì)快速發(fā)展,城市化進(jìn)程加快,人口不斷增加,城市生活垃圾日益增多,垃圾分類已成為社會(huì)熱點(diǎn)話題[1-2]。目前,國(guó)內(nèi)垃圾處理廠基本采用人工流水線分揀的方式進(jìn)行垃圾分揀,工作環(huán)境惡劣、勞動(dòng)強(qiáng)度大、分揀效率低。隨著深度學(xué)習(xí)技術(shù)在視覺(jué)領(lǐng)域的應(yīng)用與發(fā)展,使用機(jī)器人和AI 深度學(xué)習(xí)進(jìn)行智能化垃圾分類任務(wù)成為可能,既極大提升了垃圾分揀效率,又節(jié)約了人力資源。

卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)具有卷積計(jì)算的人工神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),是計(jì)算機(jī)視覺(jué)領(lǐng)域常用的深度學(xué)習(xí)模型。1998 年,Lecun[3]最早提出卷積神經(jīng)網(wǎng)絡(luò),盡管結(jié)構(gòu)較為簡(jiǎn)單,但定義了卷積層、池化層、全連接層這些基本結(jié)構(gòu)。

隨著計(jì)算機(jī)算力提升,更多模型架構(gòu)被提出并應(yīng)用到視覺(jué)領(lǐng)域中。Krizhevsky 等[4]提出AlexNet 網(wǎng)絡(luò)模型,包含ReLU 激活函數(shù)、Dropout 方法,使用GPU 加速模型訓(xùn)練的方法已在深度學(xué)習(xí)領(lǐng)域廣泛應(yīng)用。Simonyan 等[5]提出VGGNet 挖掘網(wǎng)絡(luò)深度對(duì)模型造成的影響,證明使用小卷積核、增加網(wǎng)絡(luò)深度可有效提升模型效果,但網(wǎng)絡(luò)過(guò)深會(huì)引發(fā)模型退化問(wèn)題。He 等[6]引入殘差模塊提出ResNet 能較好地解決網(wǎng)絡(luò)過(guò)深的問(wèn)題,后續(xù)提出的卷積神經(jīng)網(wǎng)絡(luò)大部分基于ResNet進(jìn)行改進(jìn)。

在視覺(jué)任務(wù)中,卷積神經(jīng)網(wǎng)絡(luò)技術(shù)的顯著成就很大程度上歸功于大規(guī)模已標(biāo)注的均衡數(shù)據(jù)集。然而,相較于常用的公共數(shù)據(jù)集(ImageNet[7]),真實(shí)數(shù)據(jù)集通常以不平衡數(shù)據(jù)分布為主[8],即少數(shù)類別包含多數(shù)樣本(頭部類),大多數(shù)類別只有少數(shù)樣本(尾部類[9-10])。由于垃圾數(shù)據(jù)集具有以上特點(diǎn),因此在這些分類失衡數(shù)據(jù)集上訓(xùn)練的模型容易發(fā)生過(guò)擬合現(xiàn)象,導(dǎo)致模型在少數(shù)類別上的泛化性能較差[11-12]。

1 相關(guān)研究

現(xiàn)有類別不平衡解決策略可分為重采樣(Re-sampling)[13-14]和重加權(quán)(Re-weighting)[15-16]。其中,重采樣通過(guò)對(duì)頭部類進(jìn)行欠采樣或過(guò)采樣尾部類來(lái)調(diào)整訓(xùn)練數(shù)據(jù)分布類別,緩解數(shù)據(jù)不平衡問(wèn)題。例如,GAN-over-sampling[17]通過(guò)對(duì)抗生成網(wǎng)絡(luò)(Generative Adversarial Networks,GAN)生成尾部類的樣本,從而使數(shù)據(jù)集重新達(dá)到平衡狀態(tài);重加權(quán)則為每個(gè)類別分配不同權(quán)重,使模型能更專注于擬合尾部類的樣本[18],相關(guān)方法包括Focal Loss[19]、CB Loss(Class-balanced loss)[20]等。Focal Loss 通過(guò)研究類別的預(yù)測(cè)難易度,并提升預(yù)測(cè)難度高的樣本權(quán)重,認(rèn)為不平衡數(shù)據(jù)集中尾部類預(yù)測(cè)難度更高,該類的預(yù)測(cè)概率遠(yuǎn)低于頭部類[19];CB Loss 引入一個(gè)有效樣本數(shù)的概念來(lái)近似不同類樣本的期望值,并使用一個(gè)與有效樣本數(shù)成反比的權(quán)重因子來(lái)改進(jìn)損失函數(shù)[20]。

雖然重采樣與重加權(quán)策略可改善推理尾部類別的性能,但在一定程度上會(huì)損失頭部類的性能,并且簡(jiǎn)單地過(guò)采樣尾部類樣本可能會(huì)導(dǎo)致模型過(guò)度擬合[21],在訓(xùn)練過(guò)程中直接提升尾部類的權(quán)重也將使模型降低對(duì)頭部類的關(guān)注度。因此,在提升尾部類別泛化能力的同時(shí),還需要保持頭部類的分類性能,即在垃圾分類任務(wù)中在保持常見(jiàn)垃圾類別識(shí)別精確度的基礎(chǔ)上,提升尾部罕見(jiàn)垃圾類別識(shí)別精確度。

為此,本文提出一種從標(biāo)簽層面分析數(shù)據(jù)集的重標(biāo)記算法框架,從源頭上緩解類別不平衡對(duì)模型訓(xùn)練造成的影響,在一定程度上保證頭部類的識(shí)別精度不受損失。首先提出一種針對(duì)數(shù)據(jù)樣本的重標(biāo)記算法解決類別不平衡、降低模型泛化性能的問(wèn)題。該算法將頭部類劃分為多個(gè)子類并分配相應(yīng)的標(biāo)簽,以緩解標(biāo)簽層面的不平衡問(wèn)題;然后針對(duì)多種不同垃圾類別,制作具有長(zhǎng)尾分布的垃圾數(shù)據(jù)集。實(shí)驗(yàn)表明,所提算法能在著提升長(zhǎng)尾數(shù)據(jù)集中尾部類性能的前提下,基本不損失頭部類性能。

2 垃圾分類任務(wù)方案設(shè)計(jì)

本文所提重標(biāo)記算法旨在緩解類別不平衡的垃圾數(shù)據(jù)集對(duì)模型分類性能造成的影響,最終將部署到保潔機(jī)器人等邊緣計(jì)算設(shè)備上,以更好地完成垃圾分類任務(wù)。因此,垃圾檢測(cè)分類工作是基礎(chǔ),需要設(shè)計(jì)垃圾分類流程,完成長(zhǎng)尾版本垃圾數(shù)據(jù)集的建立與分析,具體流程設(shè)計(jì)如圖1所示。

Fig.1 Waste sorting process圖1 垃圾分類流程

由圖1 所示,該流程主要包括數(shù)據(jù)集采集與分析、模型調(diào)整與訓(xùn)練兩個(gè)部分。首先,確定數(shù)據(jù)集的垃圾種類,采集相應(yīng)數(shù)據(jù)并對(duì)數(shù)據(jù)集進(jìn)行篩選和預(yù)處理,制作出具有長(zhǎng)尾分布的數(shù)據(jù)集版本。然后,確定分類CNN 模型,根據(jù)任務(wù)要求對(duì)模型進(jìn)行調(diào)整與改進(jìn)。最后,在確定數(shù)據(jù)集和模型后開(kāi)始訓(xùn)練模型和驗(yàn)證測(cè)試工作,若模型精度達(dá)到項(xiàng)目要求則開(kāi)始垃圾識(shí)別任務(wù),反之將進(jìn)一步調(diào)整模型參數(shù),直至模型達(dá)到目標(biāo)精度。

本文實(shí)驗(yàn)所用的垃圾圖像數(shù)據(jù)大部分來(lái)源于自身相機(jī)拍攝的圖片,一部分來(lái)源于比賽開(kāi)源數(shù)據(jù),共整理、制作了20 436 張,10 個(gè)類別的長(zhǎng)尾版本數(shù)據(jù)集,數(shù)據(jù)集制作、分析流程如圖2所示。

Fig.2 Dataset production and analysis process圖2 數(shù)據(jù)集制作和分析流程

由圖2 可見(jiàn),該流程首先將采集的垃圾數(shù)據(jù)集進(jìn)行數(shù)據(jù)清洗,篩選出質(zhì)量較高的圖片構(gòu)成原始數(shù)據(jù)集;然后確定待構(gòu)建的長(zhǎng)尾數(shù)據(jù)集的不平衡因子,并進(jìn)行采樣重建,將原始垃圾數(shù)據(jù)集制作為具有長(zhǎng)尾分布的數(shù)據(jù)集版本;最后綜合考慮數(shù)據(jù)分布與聚類方法的分析結(jié)果,確定每個(gè)類別待劃分的子類數(shù)。

本文實(shí)驗(yàn)中垃圾數(shù)據(jù)集的類別數(shù)不多且具有嚴(yán)重的類別不平衡分布情況,目前常用的網(wǎng)絡(luò)為ResNet[6]、EfficientNet[22],由于ResNet 網(wǎng)絡(luò)的分類精度與較為先進(jìn)的EfficientNet 模型相當(dāng),但參數(shù)量更少,運(yùn)行時(shí)占用內(nèi)存較少,更適合部署保潔機(jī)器人的邊緣計(jì)算設(shè)備,能提升算法實(shí)施和落地的可行性。因此本文分類模型選用ResNet 網(wǎng)絡(luò)進(jìn)行后續(xù)實(shí)驗(yàn)。

3 數(shù)據(jù)重標(biāo)記算法設(shè)計(jì)

3.1 總體框架

圖3 為本文所提重標(biāo)記算法的總體框架,主要包含特征提取模塊、特征聚類模塊和標(biāo)簽映射模塊。其中,特征提取模塊由ResNet32 的主干部分構(gòu)成,利用卷積神經(jīng)網(wǎng)絡(luò)提取輸入圖像特征;特征聚類模塊根據(jù)提取特征的類內(nèi)距離將其劃分為幾個(gè)子類,并為每個(gè)子類樣本生成唯一的偽標(biāo)簽,完成數(shù)據(jù)重標(biāo)記;標(biāo)簽映射模塊將偽標(biāo)簽空間映射到真實(shí)標(biāo)簽空間。

Fig.3 Overall framework of data relabeling algorithm圖3 數(shù)據(jù)重標(biāo)記算法整體框架

3.2 特征聚類模塊

特征聚類模塊將樣本特征劃分為指定數(shù)量的子類,并重新標(biāo)記對(duì)應(yīng)的偽標(biāo)簽。具體的,首先在訓(xùn)練過(guò)程中的卷積神經(jīng)網(wǎng)絡(luò)主干部分提取訓(xùn)練樣本特征;然后通過(guò)動(dòng)態(tài)特征聚類方法,根據(jù)對(duì)應(yīng)類別樣本中心的距離大小,將屬于同一類的特征劃分為若干個(gè)小的子類別;最后為每個(gè)子類賦予一個(gè)偽標(biāo)簽并計(jì)算損失。動(dòng)態(tài)特征聚類方法計(jì)算公式如式(1)、式(2)所示。

式中:SCt為訓(xùn)練時(shí)第t個(gè)batch 中某個(gè)類別的樣本中心;Si為該類別第i個(gè)樣本;SN表示該類別劃分的子類別數(shù),即樣本和樣本中心的最大距離被均勻劃分為SN個(gè)區(qū)間;dt為每個(gè)區(qū)間的長(zhǎng)度。

在訓(xùn)練期間,將樣本分批輸入框架中,對(duì)每批每一類數(shù)據(jù)樣本重復(fù)進(jìn)行下述操作:①根據(jù)所有樣本特征計(jì)算每個(gè)類別的樣本中心;②計(jì)算樣本到樣本中心的最大距離,然后將該距離分為多個(gè)區(qū)間;③根據(jù)每個(gè)樣本到樣本中心的距離排序關(guān)系確定樣本的所屬區(qū)間,并為其分配一個(gè)唯一的偽標(biāo)簽。此外,劃分的子類數(shù)目為一個(gè)超參數(shù),其值與數(shù)據(jù)集分布情況相關(guān)。

3.2.1 樣本中心

Mini-batch 的訓(xùn)練策略雖然非常適合視覺(jué)任務(wù),但會(huì)導(dǎo)致樣本中心計(jì)算成本過(guò)高。為了高效計(jì)算樣本中心,本文采用指數(shù)移動(dòng)平均法(Exponential Moving Average)使每批中各類別的樣本中心更接近數(shù)據(jù)集中與之相對(duì)應(yīng)類別的整體情況,樣本中心計(jì)算公式如式(3)所示。

式中:α(0<α<1)表示權(quán)重衰減程度;yt表示第t批中某個(gè)類別特征的平均值;SCt表示樣本中心,即第t批中某一類別特征的指數(shù)移動(dòng)平均值。

3.2.2 子類數(shù)目

子類數(shù)目由數(shù)據(jù)集的不平衡程度和類內(nèi)距離決定。一方面,本文所提方法旨在將嚴(yán)重不平衡的數(shù)據(jù)集中大多數(shù)類別劃分為更多子類;另一方面,本文通過(guò)實(shí)驗(yàn)分析子類數(shù)對(duì)模型造成的影響,得出子類數(shù)越大,樣本類內(nèi)距離越小,當(dāng)子類數(shù)過(guò)大時(shí)將降低模型分類精度。

因此,本文將對(duì)數(shù)據(jù)集中每個(gè)類別進(jìn)行聚類分析,結(jié)合數(shù)據(jù)集的分布情況綜合考慮子類數(shù)目,保證子類數(shù)量盡可能大一些,但不能使得類內(nèi)距離過(guò)小。特征聚類模塊中的動(dòng)態(tài)特征聚類方法作為重標(biāo)記算法的核心部分,具體計(jì)算流程如下:

算法1重標(biāo)記算法

3.3 特征映射模塊

為了將偽標(biāo)簽空間映射到真實(shí)標(biāo)簽空間,本文在特征提取模塊后設(shè)置一個(gè)標(biāo)簽映射模塊,該模塊也是一個(gè)多層全連接網(wǎng)絡(luò)。在訓(xùn)練過(guò)程中,由于特征聚類模塊對(duì)每個(gè)類別的樣本進(jìn)行聚類,并將其分成幾個(gè)子類,因此偽標(biāo)簽的總數(shù)會(huì)大于真實(shí)標(biāo)簽數(shù)量。為了完成初始分類任務(wù),將相同類別樣本的所有偽標(biāo)簽映射到真實(shí)標(biāo)簽,三層全連接層的輸入維度設(shè)置為偽標(biāo)簽總數(shù),并且輸出維度等于真實(shí)標(biāo)簽總數(shù)。

3.4 兩階段訓(xùn)練策略

由于特征提取模塊和標(biāo)簽映射模塊是兩個(gè)相對(duì)獨(dú)立的網(wǎng)絡(luò),因此本文采用兩階段訓(xùn)練方式更新整個(gè)算法框架的權(quán)重參數(shù),如圖4 所示。第一階段,通過(guò)特征聚類模塊生成的偽標(biāo)簽計(jì)算骨干網(wǎng)絡(luò)損失值,并更新特征提取模塊的權(quán)重參數(shù)。第二階段,將標(biāo)簽得到的真實(shí)標(biāo)簽作為ground-truth,計(jì)算標(biāo)簽映射模塊網(wǎng)絡(luò)的損失值,并更新該部分權(quán)重參數(shù)。第一、第二階段交替進(jìn)行,訓(xùn)練過(guò)程中損失函數(shù)保持一致。

Fig.4 Two-stage training strategy圖4 兩階段訓(xùn)練策略

4 實(shí)驗(yàn)與結(jié)果分析

4.1 數(shù)據(jù)集

本文數(shù)據(jù)集的不平衡因子定義為最小類別的訓(xùn)練樣本數(shù)除以最大類別的值,以反映數(shù)據(jù)集的不平衡程度。實(shí)驗(yàn)中,不平衡因子分別設(shè)置為0.01、0.1,由于數(shù)據(jù)分布的不平衡化只影響數(shù)據(jù)集中的訓(xùn)練集,因此平衡分布測(cè)試集類別。長(zhǎng)尾垃圾數(shù)據(jù)集分別為0—樹(shù)葉、1—易拉罐、2—果皮、3—包裝袋、4—紙、5—塑料瓶、6—瓜子殼、7—布制品、8—煙盒、9—煙頭。實(shí)驗(yàn)結(jié)果如圖5、圖6所示。

Fig.5 Distribution of garbage datasets with an unbalanced factor of 0.1圖5 不平衡因子為0.1時(shí)的垃圾數(shù)據(jù)集分布

Fig.6 Distribution of garbage datasets with an unbalanced factor of 0.01圖6 不平衡因子為0.01時(shí)的垃圾數(shù)據(jù)集分布

4.2 實(shí)驗(yàn)設(shè)置

本文將所提算法與重采樣(Re-sampling)[14]、重加權(quán)(Re-weighting)[15]、Focal loss[19]、交叉熵?fù)p失(CE Loss)[23]進(jìn)行比較。其中,重采樣根據(jù)每個(gè)類別的有效樣本數(shù)的倒數(shù)對(duì)樣本進(jìn)行重采樣;重加權(quán)根據(jù)每個(gè)類別的有效樣本數(shù)的倒數(shù)加權(quán)因子對(duì)樣本進(jìn)行重新加權(quán);Focal loss 增加了預(yù)測(cè)難度較高樣本的損失,降低了分類效果較好的樣本權(quán)重;CE Loss不改變樣本權(quán)重,代表最基礎(chǔ)的方法。

本文將CE Loss、Focal Loss 兩種損失函數(shù)與None、重采樣和重新加權(quán)3 種方法相結(jié)合,作為不同訓(xùn)練基準(zhǔn)方法。其中,重加權(quán)、重采樣、CB Loss[20]的訓(xùn)練方法和參數(shù)一致,使用PyTorch 深度學(xué)習(xí)框架[24]訓(xùn)練所有模型,并且模型均采用ResNet[6]架構(gòu)。

本文采用ResNet-32 作為骨干網(wǎng)絡(luò),對(duì)所有長(zhǎng)尾垃圾數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),模型均采用隨機(jī)初始化。另外,優(yōu)化器選用隨機(jī)梯度下降算法(SGD)[25](動(dòng)量=0.9)對(duì)網(wǎng)絡(luò)訓(xùn)練200 個(gè)epoch,并按照CB Loss[20]的訓(xùn)練策略將初始學(xué)習(xí)率設(shè)置為0.1,然后在160、180 個(gè)epoch 分別衰減1%,實(shí)驗(yàn)顯卡為NVIDIA RTX 3090,batch_size 為128。

4.3 實(shí)驗(yàn)結(jié)果

本文采用基礎(chǔ)方法直接訓(xùn)練長(zhǎng)尾數(shù)據(jù)集(CE Loss+None)、SOTA 方法(Focal Loss+Reweight)與本文所提重標(biāo)記方法(Relabel)進(jìn)行比較,綜合分析3 種方法在不平衡因子為0.1 時(shí)垃圾數(shù)據(jù)集上每個(gè)類別的精度與平均精度,如表1 所示。由此可見(jiàn),本文所提重標(biāo)記方法在該數(shù)據(jù)集上的平均精度最高,達(dá)到88.37%,相較于CE Loss+None、Focal Loss+Reweight 分別提升1.72%、1.24%。此外,重標(biāo)記方法能普遍提升樣本數(shù)較少的尾部類精度,對(duì)于樣本數(shù)較多的頭部類精度損失相對(duì)較少。

Table 1 Experimental results with an imbalance factor of 0.1表1 不平衡因子為0.1的實(shí)驗(yàn)結(jié)果(%)

同時(shí),本文將3 種方法在不平衡因子為0.01 的垃圾數(shù)據(jù)集上測(cè)試的精度、平均精度如表2 所示。由此可見(jiàn),本文所提重標(biāo)記方法平均精度最高,達(dá)到79.78%,相較于CE Loss+None、Focal Loss+Reweight 分別提升9.56%、4.39%。此外,重標(biāo)記方法能普遍提升樣本數(shù)較少的尾部精度,對(duì)樣本數(shù)較多的頭部類精度損失相對(duì)較少。

Table 2 Experimental results with an imbalance factor of 0.01表2 不平衡因子為0.01的實(shí)驗(yàn)結(jié)果(%)

綜上所述,采用本文所提重標(biāo)記算法能提升長(zhǎng)尾數(shù)據(jù)集的分類精度,相較于現(xiàn)有SOTA 方法效果更優(yōu),并且對(duì)于高度不平衡的長(zhǎng)尾垃圾數(shù)據(jù)集,平均精度提升更顯著。

如圖7 所示,實(shí)時(shí)測(cè)試時(shí)將重標(biāo)記算法加入檢測(cè)模型后(圖7 下半部分),相較于較改進(jìn)前方法,在保持其他類別識(shí)別效果的同時(shí),對(duì)數(shù)目較少的煙頭類別識(shí)別效果更優(yōu)。

4.4 消融實(shí)驗(yàn)

為了研究所提重標(biāo)記算法相較于baseline 中已有的多類別不平衡學(xué)習(xí)策略的提升效果,對(duì)無(wú)重標(biāo)記算法、重標(biāo)記算法與現(xiàn)有不同學(xué)習(xí)策略相結(jié)合的多種情況進(jìn)行比較實(shí)驗(yàn)。在不平衡因子分別為0.1、0.01 的垃圾數(shù)據(jù)集的各方面實(shí)驗(yàn)結(jié)果如表3、表4所示。

Table 3 Experimental results of different strategy combinations when the imbalance factor is 0.1表3 不平衡因子為0.1時(shí)不同策略組合實(shí)驗(yàn)結(jié)果(%)

Table 4 Experimental results of different strategy combinations when the imbalance factor is 0.01表4 不平衡因子為0.01時(shí)不同策略組合實(shí)驗(yàn)結(jié)果(%)

由表3、表4 可知,在不平衡因子為0.1、0.01 的垃圾數(shù)據(jù)集中,重標(biāo)記方法能結(jié)合baseline 中現(xiàn)有訓(xùn)練方法進(jìn)一步提升模型識(shí)別效果,相較于CE Loss+None 組合方式平均精度分別提升1.72%、9.56%,達(dá)到了88.37%、79.78%。實(shí)驗(yàn)表明,本文所提算法能應(yīng)用于現(xiàn)有多個(gè)不同類別的不平衡訓(xùn)練策略,可進(jìn)一步提升模型在長(zhǎng)尾垃圾數(shù)據(jù)集上的分類精度,當(dāng)直接采用重標(biāo)記算法且不采用其他訓(xùn)練策略時(shí),垃圾分類精度最高。

此外,本文對(duì)算法中采用不同子類數(shù)劃分的方式進(jìn)行比較,以平衡因子為0.1 時(shí)為例,選取兩種不同子類劃分方式,分別對(duì)應(yīng)兩組子類數(shù)目的參數(shù):①根據(jù)數(shù)據(jù)分布劃分,即按照每個(gè)類別的樣本數(shù)量占數(shù)據(jù)集的比例劃分,參數(shù)選取為[10,8,6,5,3,2,2,1,1,1];②聚類分析劃分,即提前對(duì)數(shù)據(jù)集的每個(gè)類別進(jìn)行聚類操作,確定可劃分出的子類,參數(shù)選取為[5,3,2,2,1,1,1,1,1,1],實(shí)驗(yàn)結(jié)果如表5所示。由此可見(jiàn),重標(biāo)記算法在不結(jié)合其他baseline 方法時(shí),采用數(shù)據(jù)分布劃分方式效果更好,分類精度最高;在結(jié)合其他baseline 方法后,采用聚類分析的劃分方式效果更好。

Table 5 Experimental results of different subclass classification methods when the imbalance factor is 0.1表5 不平衡因子為0.1時(shí)不同子類劃分方式實(shí)驗(yàn)結(jié)果(%)

5 結(jié)語(yǔ)

本文為解決人工分揀垃圾環(huán)境差、效率低及垃圾數(shù)據(jù)集類別不均衡分布對(duì)保潔機(jī)器人等計(jì)算設(shè)備,在垃圾分類識(shí)別時(shí)對(duì)識(shí)別效果產(chǎn)生的負(fù)面影響,提出一種針對(duì)數(shù)據(jù)樣本的重標(biāo)記算法與卷積神經(jīng)網(wǎng)絡(luò)分類模型相結(jié)合的策略完成垃圾數(shù)據(jù)分類任務(wù),并能部署在保潔機(jī)器人等邊緣計(jì)算設(shè)備端。

該算法為每個(gè)類別生成多個(gè)子類和相對(duì)應(yīng)的偽標(biāo)簽,緩解了標(biāo)簽層面的數(shù)據(jù)不平衡問(wèn)題,在預(yù)測(cè)時(shí)通過(guò)標(biāo)簽映射將偽標(biāo)簽轉(zhuǎn)換為真實(shí)標(biāo)簽。實(shí)驗(yàn)表明,本文算法能顯著提升常用卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)垃圾分類的泛化性和精確度,可進(jìn)一步提升邊緣計(jì)算設(shè)備垃圾分類任務(wù)的效率,實(shí)現(xiàn)了自動(dòng)化、智能化垃圾分類,有助于建設(shè)生態(tài)文明社會(huì)。

猜你喜歡
子類類別標(biāo)簽
卷入Hohlov算子的某解析雙單葉函數(shù)子類的系數(shù)估計(jì)
無(wú)懼標(biāo)簽 Alfa Romeo Giulia 200HP
不害怕撕掉標(biāo)簽的人,都活出了真正的漂亮
關(guān)于對(duì)稱共軛點(diǎn)的倒星象函數(shù)某些子類的系數(shù)估計(jì)
標(biāo)簽化傷害了誰(shuí)
服務(wù)類別
基于多進(jìn)制查詢樹(shù)的多標(biāo)簽識(shí)別方法
論類別股東會(huì)
中醫(yī)類別全科醫(yī)師培養(yǎng)模式的探討
聚合酶鏈?zhǔn)椒磻?yīng)快速鑒別5種常見(jiàn)肉類別