国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于CNN的圖形分類算法研究

2021-05-11 18:07:52董亮段正泰龔彬
中國新通信 2021年4期
關(guān)鍵詞:模式識別卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)

董亮 段正泰 龔彬

【摘要】 ? ?圖像物體分類與檢測是計算機視覺研究中的兩個重要的基本問題,也是圖像分割、物體跟蹤、行為分析等其他高層視覺任務(wù)的基礎(chǔ)。為最大限度的發(fā)揮深度學(xué)習(xí)算法的性能,有必要對不同的深度學(xué)習(xí)算法進(jìn)行評估,從而進(jìn)行不同數(shù)據(jù)集識別方法的最優(yōu)選擇。本文基于CIFAR10和MNIST數(shù)據(jù)集,采用LeNet網(wǎng)絡(luò)和VGG網(wǎng)絡(luò)進(jìn)行圖像識別,并比較各算法的效率、準(zhǔn)確率、召回率等性能差異,進(jìn)而對兩種算法進(jìn)行對比和分析。

【關(guān)鍵詞】 ? ?模式識別 ? ?深度學(xué)習(xí) ? ?卷積神經(jīng)網(wǎng)絡(luò) ? ?LeNet ? ?VGG

引言

計算機視覺作為人工智能的一個重要分支,其顯著的研究成果已逐漸應(yīng)用于人們的實際生活中,如人臉識別、目標(biāo)追蹤等。而圖像分類是計算機視覺中的一個基礎(chǔ)問題,如何高效準(zhǔn)確的實現(xiàn)圖像分類具有重要的研究意義和實用價值。與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)相比,卷積神經(jīng)網(wǎng)絡(luò)可通過局部感受野和權(quán)值共享機制大幅降低網(wǎng)絡(luò)結(jié)構(gòu)的參數(shù)數(shù)量[1],并且能夠通過池化操作有效降低特征維度,同時可有效改善網(wǎng)絡(luò)的泛化能力。因此,卷積神經(jīng)網(wǎng)絡(luò)被廣泛應(yīng)用在大規(guī)模圖像數(shù)據(jù)集的分類與識別中。近年來,Alex Krizhevsky等提出了AlexNet模型,該模型引入全新的深層結(jié)構(gòu),將錯誤率從25%以上降低到了15%,顛覆了圖像識別領(lǐng)域[2];2014年,VGG團(tuán)隊提出通過小卷積核增加網(wǎng)絡(luò)的深度,減少網(wǎng)絡(luò)參數(shù)量[3]。大量研究實驗表明,CNN是一種具有層次結(jié)構(gòu)的學(xué)習(xí)模型,其在特征提取、特征選擇以及分類等問題上具有突出的優(yōu)勢,可有效提高人圖像識別的準(zhǔn)確率和穩(wěn)健性。

一、數(shù)據(jù)集的準(zhǔn)備

1.1 MNIST數(shù)據(jù)集

手寫數(shù)字識別數(shù)據(jù)集(MNIST)包含60000條訓(xùn)練數(shù)據(jù)和10000條測試數(shù)據(jù)[4]。數(shù)據(jù)集中每一條數(shù)據(jù)均由feature(數(shù)字圖像)和lebels(標(biāo)簽)組成。如圖1所示,每個圖像都是固定大?。?8x28像素),其值為0到1。每個圖像都被平展并轉(zhuǎn)換為784(28*28)個特征的一維numpy數(shù)組。

1.2 CIFAR10數(shù)據(jù)集

CIFAR-10[5]是由Hinton的學(xué)生Alex Krizhevsky和Ilya Sutskever整理的一個用于識別普適物體的小型數(shù)據(jù)集。一共包含10個類別的RGB彩色圖片,如圖2所示。圖片的尺寸為32×32,數(shù)據(jù)集中一共有50000張訓(xùn)練圖片和10000張測試圖片。

二、算法設(shè)計

2.1數(shù)據(jù)預(yù)處理

Pytorch框架對MNIST和CIFAR10數(shù)據(jù)集進(jìn)行了封裝。以MNIST數(shù)據(jù)集為例,每幅圖像是長度784的一維數(shù)組,而卷積網(wǎng)絡(luò)直接從彩色或灰度圖像中提取特征,通過transforms.ToTensor()方法轉(zhuǎn)化為tensor。每一個數(shù)據(jù)labels是One-Hot-Encoding格式,而模型輸出層共有10個神經(jīng)元,因此需將數(shù)據(jù)labels轉(zhuǎn)換為對應(yīng)0-9的數(shù)字。每次訓(xùn)練并不是讀取所有數(shù)據(jù)同時進(jìn)行訓(xùn)練,而是讀取一個batch數(shù)據(jù)進(jìn)行訓(xùn)練。

2.2 Lenet神經(jīng)網(wǎng)絡(luò)

LeNet神經(jīng)網(wǎng)絡(luò)[6]模型,該模型共有7層(不包含輸入),每層都包含可訓(xùn)練參數(shù);每個層有多個Feature Map,每個Feature Map通過一種卷積濾波器提取輸入的一種特征,每個FeatureMap有多個神經(jīng)元。

2.3 VGGNet神經(jīng)網(wǎng)絡(luò)

VGGNet是由牛津大學(xué)視覺幾何小組(Visual Geometry Group,VGG)提出的一種深度卷積網(wǎng)絡(luò)結(jié)構(gòu)[7]。

模型特點為:

①整個網(wǎng)絡(luò)都是用了同樣大小的卷積核尺寸3*3和最大池化尺寸2*2;

②兩個3*3的卷積串聯(lián)相當(dāng)于1個5*5的卷積層,感受野大小為5*5(如圖8所示)。同樣,3個3*3卷積層串聯(lián)的效果相當(dāng)于1個7*7的卷積層。這樣的連接方式使得網(wǎng)絡(luò)的參數(shù)更少,而且多層的激活函數(shù)(前者可以使用三次ReLU激活函數(shù),而后者只有一次)令網(wǎng)絡(luò)對特征的學(xué)習(xí)能力更強。

三、實驗與分析

3.1實驗環(huán)境

本文所有實驗均在Windows10操作系統(tǒng)的計算機上進(jìn)行,計算機配置為Intel Core i7-8750H CPU、主頻2.20GHz、內(nèi)存8.0GB、實驗所用編譯器為Pycharm,編程語言為Python,所用到的依賴庫為Pytorch 1.1.0,Tochversion 0.3.0,Numpy 1.17.4和Opencv 3.4.1。

3.2算法對比與分析

3.2.1 LeNet和VGGNet識別CIFAR10數(shù)據(jù)集

在識別CIFAR10數(shù)據(jù)集方面,LeNet在數(shù)據(jù)集迭代不同次數(shù)時,兩算法在不同時期準(zhǔn)確率比較如下圖3所示,VGGNet的79.1%明顯優(yōu)于LeNet的66.1%,且在收斂速度上也明顯優(yōu)于LeNet。由此可得出以下結(jié)論:

①幾個小濾波器(3x3)卷積層的組合比一個大濾波器(5x5或7x7)卷積層好。

②通過不斷加深網(wǎng)絡(luò)結(jié)構(gòu)可以提升性能。

3.2.2 LeNet識別MNIST數(shù)據(jù)集

在識別MNIST數(shù)據(jù)集方面,LeNet在數(shù)據(jù)集迭代不同次數(shù)時,由圖4所示實驗結(jié)果可知,應(yīng)用同一LeNet網(wǎng)絡(luò)分別對CIFAR10數(shù)據(jù)集和MNIST數(shù)據(jù)集的訓(xùn)練效果存在明顯差異,訓(xùn)練準(zhǔn)確率由CIFAR10的66.1%提高到MNIST的98.2%。由此可得出以下結(jié)論:

相對于灰度圖的MNIST數(shù)據(jù)集,顯然具有RGB3通道的彩色CIFAR10數(shù)據(jù)集訓(xùn)練難度要高很多,且在收斂速度上明顯慢于MNIST。

四、總結(jié)

本文基于CNN卷積神經(jīng)網(wǎng)絡(luò),介紹分析了LeNet和VGGNet兩個經(jīng)典神經(jīng)網(wǎng)絡(luò),并將兩網(wǎng)絡(luò)應(yīng)用在CIFAR10和MNIST兩類圖像識別數(shù)據(jù)集上,通過控制迭代次數(shù),得出有效結(jié)論。本文實驗結(jié)果表明,在對同一數(shù)據(jù)集進(jìn)行訓(xùn)練時,幾個小濾波器卷積層的組合比一個大濾波器卷積層好,且網(wǎng)絡(luò)結(jié)構(gòu)越深效果越好;在應(yīng)用同一網(wǎng)絡(luò)對不同數(shù)據(jù)集訓(xùn)練時,灰度圖數(shù)據(jù)集在收斂速度和準(zhǔn)確率方面明顯優(yōu)于彩色圖,也反映出彩色圖片在訓(xùn)練時的難度之大。

因此,在訓(xùn)練諸如MNIST的簡單數(shù)據(jù)集合時,可以采用簡單的全連接層網(wǎng)絡(luò)即可達(dá)到較高的準(zhǔn)確率;此外,在搭建卷積神經(jīng)網(wǎng)絡(luò)時,適當(dāng)?shù)脑黾泳W(wǎng)絡(luò)深度,可以有效提高訓(xùn)練準(zhǔn)確率。下一步將通過加寬加深網(wǎng)絡(luò)結(jié)構(gòu),對現(xiàn)有算法進(jìn)行改進(jìn),進(jìn)一步提高檢測精度,以適用于更為復(fù)雜的數(shù)據(jù)環(huán)境。

參 ?考 ?文 ?獻(xiàn)

[1]呂剛,郝平,盛建榮.一種改進(jìn)的深度神經(jīng)網(wǎng)絡(luò)在小圖像分類中的應(yīng)用研究[J].計算機應(yīng)用與軟件,2014,31(4):182-184.

[2]侯宇昆.卷積神經(jīng)網(wǎng)絡(luò)概述[J].中國新通信,2017,19(9):45-45.

[3]趙秦敏.基于哈希編碼的圖像檢索算法研究[D].成都:電子科技大學(xué),2017

[4]林大貴.TensorFlow Keras 深度學(xué)習(xí)人工智能實踐應(yīng)用[M].北京:清華大學(xué)出版社,2018:254-270

[5] Alex Krizhevsky.The CIFAR-10 dataset[EB/OL].http://www.cs.toronto.edu/~kriz/cifar.html,2009.

[6] Lécun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11):2278-2324.

[7] Simonyan, Karen, and Andrew Zisserman. “Very deep convolutional networks for large-scale image recognition.” arXiv preprint arXiv:1409.1556 (2014).

董亮,出生1976年10月,性別:男,民族:漢族、籍貫:吉林 職務(wù)(現(xiàn)任云南特殊教育職業(yè)學(xué)院院長,計算機應(yīng)用碩士,副教授,研究方向:計算機軟件系統(tǒng)架構(gòu),人工智能,模式識別技術(shù)

猜你喜歡
模式識別卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)
淺談模式識別在圖像識別中的應(yīng)用
電子測試(2017年23期)2017-04-04 05:06:50
第四屆亞洲模式識別會議
基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識別算法
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
軟件工程(2016年8期)2016-10-25 15:47:34
基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識別的算法的研究
第3屆亞洲模式識別會議
電氣設(shè)備的故障診斷與模式識別
河南科技(2014年5期)2014-02-27 14:08:35
滕州市| 昌黎县| 冷水江市| 千阳县| 蒙自县| 五大连池市| 吉木萨尔县| 宜州市| 海伦市| 金乡县| 板桥市| 巨野县| 长寿区| 河津市| 德钦县| 宝坻区| 林甸县| 宝山区| 卢龙县| 天气| 怀安县| 平利县| 常德市| 新疆| 禹城市| 绥芬河市| 屯门区| 夏津县| 屏东市| 沙洋县| 长治市| 罗定市| 长阳| 上栗县| 亳州市| 邯郸县| 法库县| 吉首市| 改则县| 长宁县| 郑州市|