国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于語(yǔ)義分割的室外場(chǎng)景識(shí)別技術(shù)研究

2022-03-15 10:34:22張怡萌余順年
計(jì)算機(jī)仿真 2022年2期
關(guān)鍵詞:實(shí)例標(biāo)簽語(yǔ)義

張怡萌,陳 寧,余順年

(集美大學(xué)機(jī)械與能源工程學(xué)院,福建 廈門 361021)

1 引言

隨著科技的發(fā)展,人工智能在計(jì)算機(jī)領(lǐng)域逐漸成為了研究的熱門話題,其在各個(gè)領(lǐng)域的應(yīng)用引起了人們的關(guān)注。近年來(lái),深度學(xué)習(xí)領(lǐng)域的創(chuàng)新發(fā)展,給計(jì)算機(jī)視覺(jué)帶來(lái)了新的突破性的研究。尤其是近年來(lái)對(duì)于計(jì)算機(jī)的發(fā)展有了更高的需求,需要計(jì)算機(jī)更加智能化和擬人化,能夠具備更強(qiáng)的邏輯處理能力進(jìn)行預(yù)判和分析。目前,計(jì)算機(jī)視覺(jué)技術(shù)多用于目標(biāo)檢測(cè)、識(shí)別以及跟蹤等方面。場(chǎng)景識(shí)別技術(shù)是計(jì)算機(jī)視覺(jué)領(lǐng)域的一個(gè)重要的研究課題,而深度學(xué)習(xí)是近階段人工智能方向的研究熱點(diǎn)。

場(chǎng)景識(shí)別技術(shù)經(jīng)歷了長(zhǎng)時(shí)間的發(fā)展,而傳統(tǒng)的場(chǎng)景識(shí)別技術(shù)在目前的應(yīng)用中存在很大的局限性。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,基于卷積神經(jīng)網(wǎng)絡(luò)的深度遷移學(xué)習(xí)技術(shù)應(yīng)用在場(chǎng)景識(shí)別中的研究已經(jīng)得到了廣泛的關(guān)注。

隨著移動(dòng)機(jī)器人技術(shù)的發(fā)展,以及人們對(duì)于各種傳感器應(yīng)用的不斷理解,場(chǎng)景識(shí)別技術(shù)也逐漸由簡(jiǎn)單的室內(nèi)環(huán)境識(shí)別擴(kuò)展到場(chǎng)景更為復(fù)雜的室外環(huán)境識(shí)別。在室外移動(dòng)機(jī)器人和無(wú)人駕駛技術(shù)領(lǐng)域,利用環(huán)境感知、道路識(shí)別和場(chǎng)景理解成為了機(jī)器人領(lǐng)域的研究熱點(diǎn)。斯坦福大學(xué)的Mohan[1]結(jié)合了深度反卷積神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng),形成了一種用于場(chǎng)景分析的新網(wǎng)絡(luò)結(jié)構(gòu)。該研究使用多分塊訓(xùn)練,首先對(duì)場(chǎng)景信息有效地學(xué)習(xí),然后通過(guò)反卷積網(wǎng)絡(luò)對(duì)道路區(qū)域進(jìn)行像素級(jí)分割。rust等人[2]提出了一種卷積神經(jīng)網(wǎng)絡(luò),用于學(xué)習(xí)在像素級(jí)別區(qū)分不同的圖像塊和注釋卷積塊網(wǎng)絡(luò)。文章合并了圖像塊的空間信息,并將其作為網(wǎng)絡(luò)的輸入。同時(shí)將網(wǎng)格與模型結(jié)合,用于查找特定類型的像素位置。該方法將圖像塊進(jìn)行分類,并在KITTI 數(shù)據(jù)集進(jìn)行檢測(cè),得到了良好的效果。這種方法的主要優(yōu)點(diǎn)是可以提高各種場(chǎng)景下檢測(cè)結(jié)果的魯棒性,并提高檢測(cè)模型的適用性。

本文針對(duì)傳統(tǒng)的室外場(chǎng)景識(shí)別技術(shù)魯棒性弱和識(shí)別精度低等問(wèn)題,提出了一種基于語(yǔ)義分割的改進(jìn)的deeplabV3+算法的室外場(chǎng)景識(shí)別技術(shù)。該方法在深度學(xué)習(xí)的基礎(chǔ)上,嘗試?yán)酶倪M(jìn)后的K-近鄰算法對(duì)大量的特征點(diǎn)進(jìn)行檢索關(guān)鍵特征后提取與交叉匹配比對(duì),之后把提取到的信息,用語(yǔ)義分割的結(jié)果表達(dá)出來(lái)。本文在VOC2012和cityscapes兩個(gè)不同的數(shù)據(jù)集下使用改進(jìn)后的算法進(jìn)行檢測(cè),并用自定義建立的數(shù)據(jù)庫(kù)進(jìn)行室外場(chǎng)景的實(shí)驗(yàn)結(jié)果驗(yàn)證,對(duì)場(chǎng)景中的全部特征進(jìn)行識(shí)別,之后輸入未標(biāo)簽的新數(shù)據(jù)進(jìn)行匹配,從而實(shí)現(xiàn)室外場(chǎng)景的語(yǔ)義重建。

2 語(yǔ)義分割結(jié)構(gòu)模型

2.1 卷積神經(jīng)網(wǎng)絡(luò)

深度學(xué)習(xí)(deep learning)的概念由加拿大的 G.E.Hinton 博士[3]在2006年提出,是一種基于深度置信網(wǎng)絡(luò)非監(jiān)督貪心逐層訓(xùn)練算法,將低層特征結(jié)合起來(lái)創(chuàng)建更抽象的高層特征。隨著深度學(xué)習(xí)研究?jī)?nèi)容不斷創(chuàng)新發(fā)展,目前已經(jīng)應(yīng)用在機(jī)器視覺(jué)、數(shù)據(jù)處理、視頻分析、智能駕駛和語(yǔ)言翻譯等眾多領(lǐng)域。2016年和人類世界圍棋冠軍進(jìn)行比賽DeepMind公司開(kāi)發(fā)的AlphaGO[4],是深度學(xué)習(xí)的應(yīng)用潛力得到進(jìn)一步的挖掘。到目前,深度學(xué)習(xí)在數(shù)據(jù)、算法和模型上取得了驚人的進(jìn)展,也成功促使了人工智能技術(shù)大規(guī)模的發(fā)展和應(yīng)用。

卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)是基于深度學(xué)習(xí)理論的一種人工神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)可省去圖像預(yù)處理與特征抽取等步驟,將數(shù)據(jù)作為輸入[5]。源于仿生學(xué)的啟發(fā),在二十世紀(jì)六十年代初,Hubel 和 Wiesel 以貓為對(duì)象實(shí)施了視覺(jué)實(shí)驗(yàn),研究提出了視覺(jué)皮層功能分層模型[6]。CNN的基本結(jié)構(gòu)為:輸入層、卷積層(convolutional layer)、池化層(pooling layer)、全連接層及輸出層。在卷積神經(jīng)網(wǎng)絡(luò)中,卷積層和池化層通常有多個(gè),并且采用交替設(shè)置。

2.2 模型選擇與模型簡(jiǎn)介

本文比對(duì)了各模型在PASCAL VOC2012測(cè)試集的MIOU,如表1所示,DeeplabV3+的準(zhǔn)確率MIOU值要高于其它幾種神經(jīng)網(wǎng)絡(luò)。

表1 各個(gè)語(yǔ)義分割框架在PASCAL VOC2012數(shù)據(jù)集上

因此,本文基于deeplabV3+框架進(jìn)行實(shí)驗(yàn),使用一種改進(jìn)后的K-近鄰算法對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行優(yōu)化,同原始的神經(jīng)網(wǎng)絡(luò)實(shí)驗(yàn)結(jié)果進(jìn)行對(duì)照。

2.2.1 deeplabV3+網(wǎng)絡(luò)結(jié)構(gòu)

2015年,谷歌發(fā)布了DeepLab模型。經(jīng)過(guò)不斷的改進(jìn)以及優(yōu)化卷及神經(jīng)網(wǎng)絡(luò),將模型升級(jí)為DeepLab-V2[7]和DeepLab-V3[8],新的模型具有更強(qiáng)大的建模技術(shù)以及特征提取功能。隨后,谷歌在DeepLab-V3的基礎(chǔ)添加了一個(gè)簡(jiǎn)單高效的解碼器模塊[9]用于優(yōu)化分割后的特征目標(biāo),主要用于特征目標(biāo)的邊界優(yōu)化,并將更新后的模型命名為DeepLab-V3+[10],同時(shí)對(duì)多孔金字塔池化(ASPP)[11-13]和解碼器模塊使用可分離的卷積神經(jīng)網(wǎng)絡(luò),從而為語(yǔ)義分割提供了一個(gè)計(jì)算速度更快、分割能力更強(qiáng)的網(wǎng)絡(luò)結(jié)構(gòu)。

Deeplabv3+采用編碼器-解碼器的方式,編碼器部分使用Xception網(wǎng)絡(luò)[14]作為基礎(chǔ)網(wǎng)絡(luò)進(jìn)行特征提取。Xception網(wǎng)絡(luò)是一種深度可分離的卷積網(wǎng)絡(luò)。為了解決物體魯棒分割問(wèn)題,該算法引入了 ASPP 模塊。將圖像輸入進(jìn)該算法中時(shí),首先經(jīng)過(guò)卷積網(wǎng)絡(luò)得到一個(gè)初始的特征圖,然后將特征圖輸入到一個(gè)1*1的卷積層中,以降低特征圖的層次。其目的是減少特征圖的通道(這里由256通道減少為48通道)。解碼器部分將低層次功能特征與高層次功能特征結(jié)合到一起,將編碼器中處理后的特征圖再次輸入進(jìn)一個(gè)1*1的卷積中,得到一個(gè)更低層次的特征圖,再次減少特征圖通道數(shù),然后使用4x插值采樣實(shí)現(xiàn)雙線性特征圖合并。最后經(jīng)過(guò)3*3卷積操作后采用4倍的雙線性插值,以恢復(fù)原始圖像的分辨率并獲得與原始圖像相同的尺寸的分割后的圖片。

2.2.2 K-近鄰算法

K-近鄰(K-Nearest Neighbor,K-NN)[15]是求解分類問(wèn)題的一種常用算法,是數(shù)據(jù)挖掘算法的一種。簡(jiǎn)單表示為:輸入一個(gè)新的未添加標(biāo)簽的數(shù)據(jù),然后在原始訓(xùn)練集標(biāo)簽數(shù)據(jù)與該輸入數(shù)據(jù)最相似的K個(gè)標(biāo)簽,并且根據(jù)找到的這K個(gè)標(biāo)簽,來(lái)確定新數(shù)據(jù)集的分類。

K-近鄰方法是一種原理相對(duì)簡(jiǎn)單且易于實(shí)現(xiàn)的分類識(shí)別算法。并且具有在K個(gè)近鄰樣本數(shù)和訓(xùn)練樣本總數(shù)N都趨近無(wú)窮大時(shí)并且k/N→0時(shí),能夠保證K-近鄰規(guī)則是最優(yōu)的分類準(zhǔn)則等良好特性。但是,也存在著明顯的不足,K-近鄰算法在解決實(shí)際模式分類的問(wèn)題時(shí),K-近鄰算法在分類過(guò)多時(shí),識(shí)別精度會(huì)有所下降,但可以通過(guò)增加樣本的數(shù)量,提高識(shí)別精度。因此,本文選擇采用K-近鄰方法來(lái)輔助深度學(xué)習(xí)系統(tǒng)進(jìn)行室外場(chǎng)景識(shí)別實(shí)驗(yàn)。

按照該算法的基本思路,以本次實(shí)驗(yàn)的分類問(wèn)題為例,在給出新的實(shí)例之后,根據(jù)與該實(shí)例相似度的訓(xùn)練樣本,選擇出該訓(xùn)練樣本與預(yù)測(cè)樣本的距離d的K個(gè)取值,并依據(jù)K的取值來(lái)確定新的實(shí)例:在運(yùn)算過(guò)程中,系統(tǒng)會(huì)輸出連續(xù)的坐標(biāo)(X1,y1),(X2,y2),…,(Xn,yn),其中,Xi是該實(shí)例的特征向量表示,yi則是實(shí)例Xi對(duì)應(yīng)的類別。對(duì)于給定的實(shí)例,使用K-近鄰算法對(duì)樣本的預(yù)測(cè)估計(jì)可以表示為

(1)

其中,Lk(x)表示與實(shí)例X最相似的K個(gè)實(shí)例。

為了提高算法的精度,本文對(duì)K-近鄰算法的相似度計(jì)算方法進(jìn)行了改進(jìn)工作,即,對(duì)每個(gè)實(shí)例進(jìn)行權(quán)重計(jì)算,具體體現(xiàn)為對(duì)于相似度的計(jì)算,考慮到測(cè)量的接收信號(hào)強(qiáng)度,提高接近度高的訓(xùn)練樣本的估計(jì)權(quán)值,考慮到多種算法的復(fù)雜程度以及準(zhǔn)確率。本文選擇使用歐式距離來(lái)代替原算法進(jìn)行相似度的計(jì)算

(2)

為了提高訓(xùn)練樣本的估計(jì)權(quán)值,本文的權(quán)值選擇使用訓(xùn)練實(shí)例間的歐氏距離的倒數(shù),其中,第i個(gè)近鄰的權(quán)值設(shè)置為

(3)

歐式距離的冪次越高,與預(yù)測(cè)樣本差別較大的樣本在訓(xùn)練時(shí)發(fā)揮的作用就越小,對(duì)預(yù)測(cè)樣本的估計(jì)可以表示為

(3)

在確定實(shí)例的K-近鄰后,計(jì)算每個(gè)實(shí)例的決策權(quán)重,根據(jù)決策權(quán)重的大小,判斷其在預(yù)測(cè)的類別歸屬時(shí)發(fā)揮作用的大小[16]。

2.2.3 本文選取的模型

為了提高deeplabV3+的識(shí)別精度,本文的主要目的是在原有的開(kāi)源deeplabV3+算法中加入K-近鄰算法進(jìn)行改進(jìn),如圖1使所示:在實(shí)驗(yàn)前,要對(duì)自己的數(shù)據(jù)集進(jìn)行標(biāo)簽工作,由于數(shù)據(jù)集樣本數(shù)量比較大,因此標(biāo)簽工作非常復(fù)雜繁瑣,為解決此問(wèn)題,本文在對(duì)數(shù)據(jù)進(jìn)行處理時(shí),針對(duì)于數(shù)據(jù)集的處理工作,引入非監(jiān)督學(xué)習(xí)的概念,使用K-近鄰算法對(duì)公開(kāi)數(shù)據(jù)集進(jìn)行特征提取分類,然后把分類結(jié)果應(yīng)用于deeplabV3+測(cè)試算法中,進(jìn)行對(duì)自定義數(shù)據(jù)集的識(shí)別測(cè)試工作。改進(jìn)后的模型算法,如圖2所示。

圖1 算法流程

圖2 改進(jìn)后的deeplabV3+模型框架

3 基于語(yǔ)義分割的室外場(chǎng)景識(shí)別

3.1 改進(jìn)的deepLabV3+進(jìn)行語(yǔ)義分割實(shí)驗(yàn)

訓(xùn)練數(shù)據(jù)集采用開(kāi)源的VOC2012數(shù)據(jù)集、cityscapes數(shù)據(jù)集以及自定義采集的數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)。對(duì)于自己采集的數(shù)據(jù)集,由于樣本數(shù)量較少,因此利用數(shù)據(jù)增強(qiáng)方式對(duì)數(shù)據(jù)進(jìn)行擴(kuò)充。擴(kuò)充后的數(shù)據(jù)集樣本數(shù)量增加,大量的樣本使得訓(xùn)練能夠更加準(zhǔn)確多樣性,有效防止訓(xùn)練過(guò)程中由于樣本不足導(dǎo)致的過(guò)擬合現(xiàn)象,模型的魯棒性也能得到提升。

如圖3所示,本次實(shí)驗(yàn)所拍攝的圖片為校園及周邊環(huán)境,共采集圖片800張,圖像采集時(shí)設(shè)計(jì)包括晝夜、雨天等不同環(huán)境下的室外場(chǎng)景。樣本集隨機(jī)選取 600 張圖像生成訓(xùn)練集,其余 200 張圖像則作為測(cè)試集。

圖3 部分?jǐn)?shù)據(jù)集示例

為了使測(cè)試結(jié)果更具有說(shuō)服力,考慮對(duì)采集到的數(shù)據(jù)集進(jìn)行數(shù)據(jù)擴(kuò)增。本次實(shí)驗(yàn)分別從COCO數(shù)據(jù)集和KITTI數(shù)據(jù)集中各分選出1500張適合本次實(shí)驗(yàn)的室外環(huán)境的圖片,加入進(jìn)自定義的數(shù)據(jù)集中進(jìn)行擴(kuò)充。擴(kuò)充后的數(shù)據(jù)集樣本容量為3800張圖片,其中2850張為訓(xùn)練集,其余950張圖片作為測(cè)試集使用。

目前的deeplabV3+實(shí)驗(yàn)方法需要采用人工標(biāo)注和輔助標(biāo)注結(jié)合的方式對(duì)集裝箱數(shù)據(jù)集進(jìn)行標(biāo)注,人工標(biāo)注主要使用labeIme樣本目標(biāo)標(biāo)注軟件,利用該軟件進(jìn)行自定義標(biāo)注時(shí),需要按照目標(biāo)的形狀進(jìn)行輪廓描繪,可生成所需要的json文件,然后通過(guò)編程語(yǔ)言把json文件轉(zhuǎn)換為后面訓(xùn)練所需要的png格式的語(yǔ)義圖片,labelme操作界面如圖4所示,圖片生成結(jié)果如圖5所示。

圖4 labelme標(biāo)注效果

圖5 標(biāo)簽轉(zhuǎn)換后生成的圖片

考慮訓(xùn)練集中的屬性分布,以及考慮到某些屬性不能使用語(yǔ)義分割將屬性分割并可視化。

本文改進(jìn)的算法需要先對(duì)原有數(shù)據(jù)集進(jìn)行訓(xùn)練,VOC數(shù)據(jù)集測(cè)試結(jié)果如圖6所示,僅對(duì)物體進(jìn)行無(wú)背景的分割,且VOC數(shù)據(jù)集與本次實(shí)驗(yàn)環(huán)境重合度不高,通過(guò)對(duì)比自定義數(shù)據(jù)集與VOC數(shù)據(jù)集樣本中的特征,提取出比對(duì)結(jié)果中相似度最高的樣本的分類標(biāo)簽,最終選取了6個(gè)屬性。具體屬性值見(jiàn)表2。

圖6 VOC數(shù)據(jù)集測(cè)試結(jié)果

表2 自制數(shù)據(jù)集與VOC數(shù)據(jù)集相似分類標(biāo)簽

使用Cityscapes數(shù)據(jù)集進(jìn)行測(cè)試的結(jié)果如圖7所示,Cityscapes數(shù)據(jù)集樣本由多個(gè)國(guó)家的不同街道環(huán)境組成,數(shù)據(jù)集樣本容量大,且與本次實(shí)驗(yàn)的環(huán)境類別重合度較高,通過(guò)對(duì)比自定義數(shù)據(jù)集樣本中的特征與Cityscapes數(shù)據(jù)集對(duì)應(yīng),提取出比對(duì)結(jié)果中相似度最高的樣本的分類標(biāo)簽,最終選取了12個(gè)屬性。具體屬性值見(jiàn)表3。

圖7 Cityscapes數(shù)據(jù)集測(cè)試結(jié)果

表3 自制數(shù)據(jù)集與Cityscapes數(shù)據(jù)集相似分類標(biāo)簽

由于VOC數(shù)據(jù)集的樣本分類標(biāo)簽屬性相對(duì)較少,而且沒(méi)有分離背景,因此不太適用于本次實(shí)驗(yàn)的室外場(chǎng)景環(huán)境檢測(cè)中,而cityscapes數(shù)據(jù)集樣本是城市景觀,大多為街道環(huán)境,而且分類標(biāo)簽與本次實(shí)驗(yàn)的實(shí)驗(yàn)場(chǎng)景環(huán)境相似性更高,分類標(biāo)簽屬性也更多更適合于本次實(shí)驗(yàn)環(huán)境。

3.2 模型訓(xùn)練及訓(xùn)練結(jié)果

本次實(shí)驗(yàn)在ubuntu16.04桌面版系統(tǒng)下進(jìn)行,在深度學(xué)習(xí)框TensorFlow下進(jìn)行deeplabV3+和FCN的語(yǔ)義分割算法,計(jì)算機(jī)處理器為Inter(R)Core(TM)i7-7700K CPU@4.20GHz,內(nèi)存8GB,適配器為NVIDIA GeForce GTX 1080GPU。CUDA9.0版本并行計(jì)算框架配合CUDNN9.0版本是深度神經(jīng)網(wǎng)絡(luò)加速庫(kù),使用python版本為3.6.8。

本文選擇使用Xception65網(wǎng)絡(luò)模型來(lái)初始化網(wǎng)絡(luò)參數(shù),并基于deeplabV3+的python版本進(jìn)行模型的訓(xùn)練和測(cè)試,通過(guò)對(duì)應(yīng)網(wǎng)絡(luò)的配置文件修改訓(xùn)練策略參數(shù),其主要的訓(xùn)練策略如表4所示。

表4 主要訓(xùn)練策略

本次實(shí)驗(yàn)從GitHub上下載了deeplabV3+的源碼。首先對(duì)于數(shù)據(jù)集的處理,TensorFlow使用TFrecord格式來(lái)進(jìn)行數(shù)據(jù)存儲(chǔ),T并且提供了豐富的函數(shù)方法對(duì)數(shù)據(jù)進(jìn)行預(yù)處理工作。其對(duì)于模型進(jìn)行初始化參數(shù)的設(shè)置,由于計(jì)算資源的限制,本實(shí)驗(yàn)首先使用deeplabV3+網(wǎng)絡(luò)模型訓(xùn)練了VOC數(shù)據(jù)集以及cityscapes數(shù)據(jù)集,對(duì)數(shù)據(jù)集對(duì)應(yīng)特征進(jìn)行比較之后,使用改進(jìn)后的K-鄰近算法提取出樣本最相似的分類標(biāo)簽,本次實(shí)驗(yàn)中,基礎(chǔ)的學(xué)習(xí)率設(shè)置為0.0001,學(xué)習(xí)率下降策略選擇使用poly,batch_size設(shè)置為12,權(quán)重衰減設(shè)置為0.0004,output_stride設(shè)置為4,對(duì)應(yīng)的空洞金字塔的3個(gè)空洞卷積參數(shù)分別設(shè)置為8,12,16。

使用改進(jìn)后的算法對(duì)自定義的訓(xùn)練集和測(cè)試集進(jìn)行訓(xùn)練,獲得模型的參數(shù)。實(shí)驗(yàn)過(guò)程中,生成的損失率隨著時(shí)間的增加在不斷降低,當(dāng)降低到一定的范圍時(shí),損失率得到相對(duì)穩(wěn)定的區(qū)間,取區(qū)間的最低點(diǎn),得到的參數(shù)為損失率最小值。圖8所示為訓(xùn)練過(guò)程的網(wǎng)絡(luò)總損失值的變化曲線。圖9所示為整個(gè)訓(xùn)練過(guò)程的學(xué)習(xí)率變化曲線。

圖8 網(wǎng)絡(luò)總損失值的變化曲線

圖9 學(xué)習(xí)率變化曲線

圖中可以看出,在迭代次數(shù)大約40000次時(shí),損失函數(shù)值開(kāi)始趨近于穩(wěn)定,其中,隨著學(xué)習(xí)步數(shù)的不斷增加,學(xué)習(xí)率逐漸趨近于0,而總損失值逐漸趨近于0.4。

展示模型識(shí)別效果圖,輸入為一張圖片,輸出為一張語(yǔ)義分割圖,分割效果如圖10所示。

圖10 改進(jìn)后的算法語(yǔ)義分割效果圖

3.3 評(píng)價(jià)指標(biāo)

Precision即準(zhǔn)確率,是在識(shí)別所有的實(shí)例時(shí),系統(tǒng)識(shí)別出來(lái)的所有的實(shí)例A所占的比例,其公式為

(5)

Recall即召回率,是在識(shí)別出來(lái)的所有的實(shí)例A中,識(shí)別出來(lái)正確的A所占的比例,其公式為

(6)

以實(shí)例B為例,簡(jiǎn)單說(shuō)明TP、FP、FN的釋義。TP表示數(shù)據(jù)集中的實(shí)例B被正確識(shí)別為實(shí)例B;FP表示數(shù)據(jù)集中的實(shí)例B被識(shí)別成了實(shí)例C或者其它非B實(shí)例;FN表示數(shù)據(jù)集中的其它非B實(shí)例被識(shí)別為實(shí)例B。

AP即平均精度(Average-Precision),簡(jiǎn)單來(lái)說(shuō),AP就是Precision-Recall曲線(P-R曲線)的面積,通常情況下,分類的準(zhǔn)確率越高,AP值越高。

改進(jìn)后的語(yǔ)義分割結(jié)果與原本的deeplabV3+網(wǎng)絡(luò)相比,識(shí)別結(jié)果分析如表5、圖11所示:

表5 實(shí)驗(yàn)結(jié)果

圖11 改進(jìn)前后結(jié)果對(duì)比示意圖

3.4 結(jié)果分析

本次實(shí)驗(yàn)是在測(cè)試公開(kāi)數(shù)據(jù)集結(jié)果的基礎(chǔ)上測(cè)試自定義數(shù)據(jù)集,與現(xiàn)有的測(cè)試數(shù)據(jù)集的方法不同,省去了對(duì)數(shù)據(jù)集進(jìn)行標(biāo)簽的工作,減少了大量的前期準(zhǔn)備工作,節(jié)省了實(shí)驗(yàn)的時(shí)間,輸入新的未添加標(biāo)簽的數(shù)據(jù)后,將該數(shù)據(jù)中能夠提取出來(lái)的每個(gè)特征與實(shí)驗(yàn)中訓(xùn)練過(guò)的樣本中的生成的特征信息進(jìn)行對(duì)應(yīng)比較。

試驗(yàn)結(jié)果表明,改進(jìn)后的語(yǔ)義識(shí)別方法比現(xiàn)有的直接使用deeplabV3+算法進(jìn)行語(yǔ)義識(shí)別相比,縮短了訓(xùn)練時(shí)間,提升了訓(xùn)練精度。原本的方法在采集數(shù)據(jù)集之后花費(fèi)了大量的時(shí)間在標(biāo)簽工作上,改進(jìn)后的訓(xùn)練算法則避免了這一繁瑣的過(guò)程,通過(guò)K-近鄰算法計(jì)算過(guò)相似性之后在進(jìn)行結(jié)果輸出的方式,比原本的直接輸出方式的準(zhǔn)確率有提高,而且工作效率也有所提高,使室外場(chǎng)景的語(yǔ)義識(shí)別效果得到提升。

4 結(jié)束語(yǔ)

本文運(yùn)用了深度學(xué)習(xí)的原理,提出了一種基于語(yǔ)義分割的室外場(chǎng)景識(shí)別方法,該方法主要通過(guò)進(jìn)行實(shí)驗(yàn)來(lái)確認(rèn)環(huán)境的語(yǔ)義識(shí)別結(jié)果,同時(shí)對(duì)改進(jìn)后的deeplabV3+算法與原本的算法進(jìn)行對(duì)比試驗(yàn),得到相對(duì)較好的結(jié)果。本次實(shí)驗(yàn)發(fā)現(xiàn)改進(jìn)后的算法在可行性上提供了有力的支撐,由于原本的算法在對(duì)自定義數(shù)據(jù)集進(jìn)行訓(xùn)練之前要經(jīng)過(guò)繁瑣的標(biāo)簽過(guò)程,而改進(jìn)后的算法在原本深度學(xué)習(xí)的基礎(chǔ)上引入了一種改進(jìn)后K-近鄰算法的概念,去掉了前期標(biāo)注的過(guò)程,引入分類標(biāo)簽,利用原有數(shù)據(jù)集與自定義數(shù)據(jù)集樣本的相似特征進(jìn)行實(shí)驗(yàn),減少了算法的前期準(zhǔn)備時(shí)間,提高了識(shí)別的準(zhǔn)確率以及算法工作的效率。

最終的實(shí)驗(yàn)結(jié)果證實(shí)了本文的實(shí)驗(yàn)方案是可行的,同時(shí)有效的提升了工作效率,為后續(xù)進(jìn)行室外場(chǎng)景的語(yǔ)義分割提供了可行性。

本文的實(shí)驗(yàn)方案雖然能提升室外場(chǎng)景語(yǔ)義分割的速度和效率,但是識(shí)別精度以及準(zhǔn)確性仍有一定的誤差,這對(duì)于實(shí)時(shí)檢測(cè)還是能造成一定的影響,下一步的研究工作可以考慮在保證準(zhǔn)確率的同時(shí)能夠提高訓(xùn)練速度以及減小實(shí)時(shí)識(shí)別的誤差影響。

猜你喜歡
實(shí)例標(biāo)簽語(yǔ)義
語(yǔ)言與語(yǔ)義
無(wú)懼標(biāo)簽 Alfa Romeo Giulia 200HP
車迷(2018年11期)2018-08-30 03:20:32
不害怕撕掉標(biāo)簽的人,都活出了真正的漂亮
海峽姐妹(2018年3期)2018-05-09 08:21:02
“上”與“下”語(yǔ)義的不對(duì)稱性及其認(rèn)知闡釋
標(biāo)簽化傷害了誰(shuí)
基于多進(jìn)制查詢樹的多標(biāo)簽識(shí)別方法
認(rèn)知范疇模糊與語(yǔ)義模糊
完形填空Ⅱ
完形填空Ⅰ
語(yǔ)義分析與漢俄副名組合
武冈市| 福建省| 南溪县| 陕西省| 闵行区| 宽甸| 新昌县| 永宁县| 甘肃省| 张家口市| 阳春市| 旬邑县| 古交市| 呼和浩特市| 英德市| 上蔡县| 固原市| 都兰县| 深泽县| 密云县| 上栗县| 大丰市| 石家庄市| 富平县| 万宁市| 海城市| 馆陶县| 咸丰县| 湾仔区| 洪江市| 大港区| 铜山县| 沙湾县| 合川市| 娱乐| 广昌县| 泾川县| 章丘市| 嵊州市| 上栗县| 河西区|