劉之瑜,張淑芬,張振斌,董燕靈,羅長(zhǎng)銀
(1. 華北理工大學(xué) 理學(xué)院, 河北 唐山 063210;2. 華北理工大學(xué) 河北省數(shù)據(jù)科學(xué)與應(yīng)用重點(diǎn)實(shí)驗(yàn)室,河北 唐山 063210;3. 華北理工大學(xué) 唐山市數(shù)據(jù)科學(xué)重點(diǎn)實(shí)驗(yàn)室,河北 唐山 063210)
設(shè)施蔬菜可以隨時(shí)隨地監(jiān)控設(shè)施內(nèi)環(huán)境參數(shù)并及時(shí)調(diào)節(jié),可以為設(shè)施內(nèi)的蔬菜提供合適的生長(zhǎng)環(huán)境提高蔬菜的產(chǎn)量和質(zhì)量,因此設(shè)施蔬菜的建設(shè)規(guī)模發(fā)展迅速。相較于設(shè)施內(nèi)蔬菜生長(zhǎng)需要的空氣溫度和濕度、土壤的溫度和濕度、光照強(qiáng)度、CO2濃度、土壤酸堿度等環(huán)境條件,蔬菜病蟲(chóng)害是影響設(shè)施蔬菜產(chǎn)量的最主要因素。很長(zhǎng)時(shí)間內(nèi)務(wù)農(nóng)人員在管理設(shè)施蔬菜的時(shí)候只能靠肉眼去觀察蔬菜的生長(zhǎng)情況,是否有病蟲(chóng)害以及病蟲(chóng)害的危害程度,往往很難及時(shí)發(fā)現(xiàn)并采取措施,蔬菜病蟲(chóng)害總會(huì)造成蔬菜產(chǎn)量的減少和質(zhì)量的降低,不止給務(wù)農(nóng)人員造成了經(jīng)濟(jì)損失,也對(duì)人們的菜籃子造成了影響。
為了最大限度地減少生產(chǎn)損失和保持蔬菜作物的可持續(xù)性,必須采取適當(dāng)?shù)募膊」芾砗涂刂拼胧?,突出?duì)蔬菜作物的持續(xù)監(jiān)測(cè),并結(jié)合病蟲(chóng)害的快速準(zhǔn)確診斷[1]。圖像采集設(shè)備采集的蔬菜圖像,由于其中細(xì)微的類間差異和較大的背景變化,大規(guī)模圖像數(shù)據(jù)集的視覺(jué)分類具有挑戰(zhàn)性。深度卷積神經(jīng)網(wǎng)絡(luò)(CNNs)是迄今為止解決這一問(wèn)題最成功的模型,不斷有各種卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)被提出來(lái)提高分類性能,如ResNet[2]、SENet[3]、InceptionNet[4]、VGGNet[5]。從網(wǎng)絡(luò)結(jié)構(gòu)的角度看,卷積神經(jīng)網(wǎng)絡(luò)主要包括卷積層、池化層和全連接層三個(gè)基本操作,卷積層通過(guò)卷積核從圖像中提取有效特征[6-8],此外卷積層后常跟一個(gè)激活函數(shù),如線性整流單元(ReLU)[9],以完成對(duì)網(wǎng)絡(luò)的非線性變換;池化層是卷積神經(jīng)網(wǎng)絡(luò)中常用的另一個(gè)關(guān)鍵操作,經(jīng)過(guò)池化操作可以有效降低特征圖的維數(shù),降低計(jì)算量同時(shí)增強(qiáng)對(duì)輸入圖像變化的魯棒性,一定程度上可以減少過(guò)擬合,卷積神經(jīng)網(wǎng)絡(luò)常用的池化類型有最大池化[10]和平均池化[11],也有一些網(wǎng)絡(luò)拋棄了池化操作,如ResNet[2],使用跨步卷積將池化層以1× 1卷積核代替,這樣操作是有效的但不能確定所選節(jié)點(diǎn)是不是最有效的點(diǎn);而全連接層起到了分類器的作用,將卷積層提取到的特征映射到樣本標(biāo)記空間,完成分類。
與卷積操作相比,池化操作較難手動(dòng)選擇,往往根據(jù)性能或經(jīng)驗(yàn)來(lái)確定,需要在實(shí)驗(yàn)和錯(cuò)誤中付出時(shí)間和精力來(lái)確定池化參數(shù),如何根據(jù)不同類型的數(shù)據(jù)選擇池化類型也是一個(gè)問(wèn)題。本文對(duì)最大池化和平均池化的選擇進(jìn)行了研究,根據(jù)圖像梯度的變異系數(shù)對(duì)池化的類型進(jìn)行選擇,將原數(shù)據(jù)集劃分為最大池化部分和平均池化部分,再進(jìn)行訓(xùn)練,實(shí)驗(yàn)驗(yàn)證了可行性。
在卷積神經(jīng)網(wǎng)絡(luò)被廣泛應(yīng)用之前,傳統(tǒng)的圖像識(shí)別算法采用人工設(shè)計(jì)特征提取算子的方法來(lái)提取圖像特征,比較著名的有 SIFT[12]和 HOG[13]特征提取算子,大多數(shù)特征提取算子都采用池化操作來(lái)減少特征向量的大小。池化的數(shù)據(jù)掃描方式類似于卷積核,一個(gè)4×4的矩陣經(jīng)過(guò)2×2大小步長(zhǎng)為2的滑動(dòng)窗口池化操作后尺寸變?yōu)?×2的矩陣,最大池化對(duì)輸入的特征圖矩陣采用取最大值的操作,滑動(dòng)窗口掃過(guò)的區(qū)域取四個(gè)元素中的最大值,最大池化窗口覆蓋區(qū)域取值過(guò)程如圖 1所示。平均池化對(duì)輸入的特征圖矩陣采取求均值的操作,滑動(dòng)窗口掃過(guò)的區(qū)域取四個(gè)元素的平均值,平均池化窗口覆蓋區(qū)域取值過(guò)程如圖2所示。
圖1 最大池化窗口取值效果Fig.1 value taking effect of maximum pooling window
圖2 平均池化窗口取值效果Fig.2 average pooling window value effect
除了最常用的最大與平均池化,許多新的池化方法也被提出,Dingjun Yu等[14]提出了一種稱為混合池的特征池化方法來(lái)對(duì)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行正則化,用最大和平均池化的隨機(jī)選擇過(guò)程代替了確定性池化操作,并有效降低了過(guò)擬合,經(jīng)測(cè)試該方法優(yōu)于單獨(dú)使用最大或平均池化。Caglar Gulcehre等[15]提出了Lp范數(shù)[16]池化,通過(guò)訓(xùn)練參數(shù)P將Lp范數(shù)變的可訓(xùn)練,參數(shù)P由取值1的平均池化到取值∞的最大池化,實(shí)驗(yàn)證明有助于提高模型準(zhǔn)確率。ChenYu Lee等[17]通過(guò)樹(shù)形結(jié)構(gòu)合并最大和平均池化,結(jié)合之后得到的新的池化層是可訓(xùn)練的,并易于實(shí)現(xiàn),通過(guò)實(shí)驗(yàn)證明樹(shù)形合并操作提高了模型的準(zhǔn)確率,并適用于不同的模型。Lin Min等[18]提出了一種全局平均池(Gap),全局平均池將輸出特征平均化,然后將特征傳給分類器,與傳統(tǒng)的全連接層相比,可以減少過(guò)擬合,在CIFAR-10和CIFAR-100數(shù)據(jù)集上驗(yàn)證了模型可行性。Faraz Saeedan等[19]提出了一種保留特征細(xì)節(jié)的自適應(yīng)池化,可放大空間變化保留結(jié)構(gòu)細(xì)節(jié),細(xì)節(jié)保留池化可隨網(wǎng)絡(luò)訓(xùn)練,實(shí)驗(yàn)證明在不同網(wǎng)絡(luò)模型上占有優(yōu)勢(shì)。Kobayashi Takumi[20]提出了根據(jù)輸入特征自適應(yīng)調(diào)整池化功能的池化方法,無(wú)需手動(dòng)調(diào)整,將池化的合并方式以參數(shù)化的形式導(dǎo)出,通過(guò)輸入特征圖中的全局統(tǒng)計(jì)信息來(lái)估計(jì)參數(shù),以實(shí)現(xiàn)池化的靈活組合,實(shí)驗(yàn)證明在多種模型中有效。Weitao Wan等[21]提出了一種用于語(yǔ)義感知特征池的基于熵的特征加權(quán)方法,該方法可輕松集成到各種CNN體系結(jié)構(gòu)中進(jìn)行訓(xùn)練,核心思想是使用信息熵來(lái)量化網(wǎng)絡(luò)對(duì)其類預(yù)測(cè)的不確定性,并以此估計(jì)特征向量在特征圖中空間位置處的重要性,將網(wǎng)絡(luò)的注意力集中在語(yǔ)義上重要的圖像區(qū)域上,從而改善了大規(guī)模分類和弱監(jiān)督語(yǔ)義分割任務(wù)。在許多網(wǎng)絡(luò)模型中,由于網(wǎng)絡(luò)層參數(shù)結(jié)構(gòu)的原因,需要將輸入圖像強(qiáng)制縮放成固定大小的尺寸,He Kaiming等[22]提出了空間金字塔池化(SPP),是一種自適應(yīng)的池化操作,該方法對(duì)輸入尺寸沒(méi)有要求,采用不同的池化窗口進(jìn)行池化,將得到的結(jié)果合并產(chǎn)生固定大小的輸出,解決了網(wǎng)絡(luò)要求輸入固定大小的圖像的問(wèn)題。
池化操作除了有消除冗余信息降低特征圖維數(shù)的作用,還有對(duì)特征圖中的特征信息進(jìn)行選擇性保留的作用。最大和平均池化都對(duì)特征圖進(jìn)行了下采樣,但最大池化在一定程度上對(duì)特征做出了選擇,將分類識(shí)別度更高的特征提取出來(lái),更多的保留了圖像的紋理信息,也起到了非線性作用,因紋理特征的重要性最大池化的可選擇性更大;平均池化更善于對(duì)圖像的整體特征信息進(jìn)行下采樣,更有利于信息的完整傳遞,其貢獻(xiàn)度主要集中在減少特征圖維度上。池化操作在卷積神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)中必不可少。
池化操作特征提取的誤差主要來(lái)自滑動(dòng)窗口大小受限造成的估計(jì)值方差增大和卷積層參數(shù)誤差造成估計(jì)均值的偏移,平均池化能減小滑動(dòng)窗口大小受限造成的估計(jì)值方差增大帶來(lái)的誤差,更多的保留圖像的背景信息,最大池化能減小卷積層參數(shù)誤差造成估計(jì)均值的偏移帶來(lái)的誤差,更多的保留紋理信息[23]。
本文在進(jìn)行最大池化和平均池化的選擇時(shí),采用了變異系數(shù)作為指導(dǎo)選擇參數(shù),變異系數(shù)又稱標(biāo)準(zhǔn)離差率,是衡量數(shù)據(jù)值離散程度的一個(gè)統(tǒng)計(jì)量,適用于數(shù)據(jù)值測(cè)量尺度相差太大的情況。
變異系數(shù)cv為標(biāo)準(zhǔn)差與平均值之比,公式如下:
數(shù)學(xué)中的梯度以向量表示,函數(shù) f( x, y)在點(diǎn)(x, y)處的梯度記作 ? f ( x, y)。梯度的計(jì)算公式如下。
梯度向量:
梯度的值:
梯度的方向角:
圖像的梯度值代表了圖像像素值的變化量,梯度值的大小代表了像素值的差異性,而圖像的特征邊緣往往梯度值變化明顯,蔬菜葉片病蟲(chóng)害圖像的健康區(qū)域和病害區(qū)域差異明顯,如西紅柿早疫病,會(huì)使葉片枯黃,與健康葉片的綠色差異明顯。通過(guò)統(tǒng)計(jì)梯度值的分布情況可以在一定程度上分析圖像特征的離散程度,計(jì)算圖像梯度值的標(biāo)準(zhǔn)差、均值和變異系數(shù),分析標(biāo)準(zhǔn)差和均值的對(duì)比,若比值大于1則表明圖像的方差標(biāo)準(zhǔn)差的比重更大,需要采用平均池化來(lái)降低誤差,若比值小于1則表明圖像均值的比重更大,需要采用最大池化來(lái)降低誤差。
算法描述如下:
輸入:待處理的圖像數(shù)據(jù)集
輸出:根據(jù)變異系數(shù)劃分完成的數(shù)據(jù)集
Step.1讀取數(shù)據(jù)集中的一張圖像,進(jìn)行如下處理:
(1)將圖像矩陣中的像素值以二維數(shù)組的方式讀取
(2)調(diào)用函數(shù)計(jì)算圖像梯度值并保存為二維數(shù)組
(4)調(diào)用函數(shù)計(jì)算圖像梯度值的標(biāo)準(zhǔn)差σ
(6)if(cv≤1)
將圖片劃分到最大池化數(shù)據(jù)集
else
將圖片劃分到平均池化數(shù)據(jù)集
Step.2讀取待處理數(shù)據(jù)集中的下一張圖像,返回步驟(1),直至全部圖像處理完畢。
Step.3得到根據(jù)變異系數(shù)劃分完成的數(shù)據(jù)集
Step.4將劃分好的數(shù)據(jù)集放到卷積神經(jīng)網(wǎng)絡(luò)中進(jìn)行訓(xùn)練
在本節(jié)介紹實(shí)驗(yàn)所用數(shù)據(jù)集,網(wǎng)絡(luò)模型的搭建,實(shí)驗(yàn)環(huán)境的參數(shù)和實(shí)驗(yàn)結(jié)果及分析。
本文實(shí)驗(yàn)設(shè)備為筆記本電腦,電腦操作系統(tǒng)為64位windows 10系統(tǒng);CPU處理器為十代i7八核高性能處理器2.30 GHz;運(yùn)行內(nèi)存為16 GB海力士DDR4 3200 MH z;顯卡為 GeForce R TX 2060顯卡內(nèi)存為6 GB,支持GPU加速;編譯語(yǔ)言為Python 3.8.5;深度學(xué)習(xí)框架為Pytorch 1.6.0。
本文采用 PlantVillage大型植物病害圖像數(shù)據(jù)集,選取其中六種植物十種病害作為實(shí)驗(yàn)數(shù)據(jù)集,分別為健康藍(lán)莓葉片、健康櫻桃葉片、櫻桃白粉病、橘子綠病、桃核菌斑病、健康桃葉片、馬鈴薯早疫病、健康馬鈴薯葉片、馬鈴薯晚疫病、健康大豆葉片,共18 814張圖片,分為訓(xùn)練集13 170張圖片和測(cè)試集 5 644張圖片,分別占比 70%和30%,六種植物病害圖像樣本示例如圖3所示。
圖3 六種植物病害圖像樣本示例Fig.3 image samples of six plant diseases
通過(guò)變異系數(shù)算法根據(jù)圖像池化選擇劃分原數(shù)據(jù)集為兩個(gè)數(shù)據(jù)集,劃分后的數(shù)據(jù)集包括最大和平均池化兩部分,數(shù)據(jù)集劃分前后分支結(jié)構(gòu)分別如圖4所示,劃分后如圖5所示。
圖4 劃分前數(shù)據(jù)集結(jié)構(gòu)Fig.4 dataset structure before partition
圖5 劃分后數(shù)據(jù)集結(jié)構(gòu)Fig.5 pataset structure after partition
網(wǎng)絡(luò)模型的搭建和訓(xùn)練測(cè)試均在 Pytorch 1.6.0框架下實(shí)現(xiàn),Pytorch由Facebook公司基于Torch庫(kù)開(kāi)發(fā)的基于Python的庫(kù),支持動(dòng)態(tài)神經(jīng)網(wǎng)絡(luò),設(shè)置網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)單直觀靈活,支持GPU加速的張量計(jì)算,框架簡(jiǎn)潔快速高效有利于研究人員快速搭建出模型。本文采用Python語(yǔ)言來(lái)構(gòu)建和訓(xùn)練網(wǎng)絡(luò),分別搭建AlexNet和VGG16網(wǎng)絡(luò),AlexNet網(wǎng)絡(luò)結(jié)構(gòu)和每層參數(shù)數(shù)量如圖 6所示,卷積層和全連接層參數(shù)依次為34 944、614 656、885 120、1 327 488、884 992和 37 752 832、16 781 312、4 090 700,總參數(shù)為62 378 344。參數(shù)統(tǒng)計(jì)如表1所示。
表1 AlexNet每層參數(shù)統(tǒng)計(jì)Tab.1 parameter statistics of each layer of AlexNet
圖6 AlexNet分層結(jié)構(gòu)Fig.6 AlexNet hierarchy
VGG16網(wǎng)絡(luò)層級(jí)構(gòu)和特征圖大小如圖 7所示,池化層無(wú)訓(xùn)練參數(shù),卷積層和全連接層參數(shù)依次為 1 792、36 928、73 856、147 584、295 168、590 080、590 080、1 180 160、2 359 808、2 359 808、2 359 808、2 359 808、2 359 808、102 764 544、16 781 312、86 037,總計(jì)134 346 581。參數(shù)統(tǒng)計(jì)如表2所示。
表2 VGG16每層參數(shù)統(tǒng)計(jì)Tab.2 parameter statistics of each layer of VGG16
圖7 VGG16模型參數(shù)結(jié)構(gòu)Fig.7 parameter structure of VGG16 model
首先 AlexNet模型使用未劃分?jǐn)?shù)據(jù)集訓(xùn)練,分別采用最大和平均池化分兩次進(jìn)行了訓(xùn)練,訓(xùn)練過(guò)程中的loss值統(tǒng)計(jì)繪圖如圖8所示,準(zhǔn)確率統(tǒng)計(jì)繪圖如圖9所示。圖8中l(wèi)ossAA曲線(虛線)為 AlexNet以平均池化訓(xùn)練未劃分?jǐn)?shù)據(jù)集的 loss值,lossAM曲線為AlexNet以最大池化訓(xùn)練未劃分?jǐn)?shù)據(jù)集的loss值,通過(guò)對(duì)比可以發(fā)現(xiàn)用最大池化來(lái)訓(xùn)練loss值的時(shí)候loss值更低,網(wǎng)絡(luò)更穩(wěn)定。圖9中accAA曲線(虛線)為AlexNet以平均池化訓(xùn)練未劃分?jǐn)?shù)據(jù)集的準(zhǔn)確率,accAM 曲線為AlexNet以最大池化訓(xùn)練未劃分?jǐn)?shù)據(jù)集的準(zhǔn)確率,二者基本持平,采用最大池化訓(xùn)練準(zhǔn)確率更高。
圖8 AlexNet訓(xùn)練未劃分?jǐn)?shù)據(jù)集loss值對(duì)比Fig.8 comparison of loss values in AlexNet training undivided dataset
圖9 AlexNet訓(xùn)練未劃分?jǐn)?shù)據(jù)集準(zhǔn)確率對(duì)比Fig.9 comparison of accuracy of AlexNet training undivided datasets
然后用 AlexNet網(wǎng)絡(luò)訓(xùn)練劃分好的數(shù)據(jù)集,先用使用最大池化的網(wǎng)絡(luò)訓(xùn)練最大池化部分?jǐn)?shù)據(jù)集,切換為平均池化網(wǎng)絡(luò)再行訓(xùn)練平均池化部分,訓(xùn)練過(guò)程中l(wèi)oss值統(tǒng)計(jì)繪圖如圖10所示,準(zhǔn)確率統(tǒng)計(jì)繪圖如圖11所示。從圖10中可以看出loss值很低,在 0.1以下,說(shuō)明網(wǎng)絡(luò)比較穩(wěn)定,從圖11 中可以看出準(zhǔn)確率很高而且很穩(wěn)定,在 95%以上。AlexNet實(shí)驗(yàn)過(guò)程中的準(zhǔn)確率統(tǒng)計(jì)如表 3所示,其中平均準(zhǔn)確率為后10次平均準(zhǔn)確率,可以看出 AlexNet先劃分?jǐn)?shù)據(jù)集再進(jìn)行訓(xùn)練的平均準(zhǔn)確率最高,各自最高準(zhǔn)確率基本持平,相差不超過(guò) 0.42%,說(shuō)明通過(guò)變異系數(shù)對(duì)數(shù)據(jù)集的池化選擇在AlexNet中有效。
表3 AlexNet準(zhǔn)確率統(tǒng)計(jì)Tab.3 AlexNet accuracy statistics
圖10 AlexNet訓(xùn)練劃分好的數(shù)據(jù)集loss值Fig.10 loss value of dataset divided by AlexNet training
圖11 AlexNet訓(xùn)練劃分好的數(shù)據(jù)集準(zhǔn)確率Fig.11 accuracy rate of dataset divided by AlexNet training
使用VGG16模型使用未劃分?jǐn)?shù)據(jù)集訓(xùn)練,先用使用最大池化的網(wǎng)絡(luò)訓(xùn)練最大池化部分?jǐn)?shù)據(jù)集,切換為平均池化網(wǎng)絡(luò)再行訓(xùn)練平均池化部分,訓(xùn)練結(jié)束后loss值的統(tǒng)計(jì)繪圖如圖12所示,準(zhǔn)確率的統(tǒng)計(jì)繪圖對(duì)比如圖13所示。圖12中l(wèi)ossVA曲線(虛線)為 VGG16以平均池化訓(xùn)練未劃分?jǐn)?shù)據(jù)集的loss值,lossVM曲線為VGG16以最大池化訓(xùn)練未劃分?jǐn)?shù)據(jù)集的loss值,通過(guò)對(duì)比可以發(fā)現(xiàn)用最大池化來(lái)訓(xùn)練 loss值的時(shí)候 loss值更低,網(wǎng)絡(luò)更穩(wěn)定。圖13中accVA(虛線)曲線為VGG16以平均池化訓(xùn)練未劃分?jǐn)?shù)據(jù)集的準(zhǔn)確率,accVM曲線為VGG16以最大池化訓(xùn)練未劃分?jǐn)?shù)據(jù)集的準(zhǔn)確率,二者基本持平,采用平均池化訓(xùn)練準(zhǔn)確率更高。
圖12 VGG16訓(xùn)練未劃分?jǐn)?shù)據(jù)集loss值對(duì)比Fig.12 comparison of loss values of VGG16 training undivided dataset
圖13 VGG16訓(xùn)練未劃分?jǐn)?shù)據(jù)集準(zhǔn)確率對(duì)比Fig.13 accuracy comparison of VGG16 training datasets
然后用VGG16網(wǎng)絡(luò)訓(xùn)練劃分好的數(shù)據(jù)集,先訓(xùn)練最大池化部分?jǐn)?shù)據(jù)集再行訓(xùn)練平均池化部分,其訓(xùn)練loss值統(tǒng)計(jì)繪圖如圖14所示,準(zhǔn)確率統(tǒng)計(jì)繪圖如圖15所示。從圖14中可以看出loss值很低并趨于平穩(wěn),在 0.1以下,說(shuō)明網(wǎng)絡(luò)比較穩(wěn)定,從圖 15 中可以看出準(zhǔn)確率很高而且很穩(wěn)定,在95%以上。VGG16實(shí)驗(yàn)過(guò)程中的準(zhǔn)確率統(tǒng)計(jì)如表4所示,其中平均準(zhǔn)確率為后10次平均準(zhǔn)確率,可以看出 VGG16先劃分?jǐn)?shù)據(jù)集再進(jìn)行訓(xùn)練的平均準(zhǔn)確率最高,各自最高準(zhǔn)確率基本持平,相差不超過(guò) 0.14%,說(shuō)明通過(guò)變異系數(shù)對(duì)數(shù)據(jù)集的池化選擇在VGG16中有效。
表4 VGG16準(zhǔn)確率統(tǒng)計(jì)Tab.4 accuracy statistics of VGG16
圖14 VGG16 訓(xùn)練劃分好的數(shù)據(jù)集loss值Fig.14 loss value of VGG16 training divided dataset
圖15 VGG16訓(xùn)練劃分好的數(shù)據(jù)集準(zhǔn)確率Fig.15 accuracy of VGG16 training dataset
卷積神經(jīng)網(wǎng)絡(luò)在設(shè)施蔬菜病害識(shí)別中應(yīng)用廣泛,本章對(duì)卷積神經(jīng)網(wǎng)絡(luò)在進(jìn)行病害圖像識(shí)別分類的訓(xùn)練過(guò)程中,最大和平均池化的選擇進(jìn)行了研究,通過(guò)計(jì)算圖像變異系數(shù)大小決定該圖像適合最大還是平均池化,變異系數(shù)大于1適合使用平均池化否則使用最大池化,將圖像劃分為最大池化訓(xùn)練部分和平均池化訓(xùn)練部分,再由卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練分類。經(jīng)實(shí)驗(yàn)驗(yàn)證在 AlexNet和VGG16網(wǎng)絡(luò)中均有提升,準(zhǔn)確率穩(wěn)定在 95%以上,該方法有效。