摘 要:PCA數(shù)據(jù)降維技術(shù)廣泛應(yīng)用于數(shù)據(jù)降維和數(shù)據(jù)的特征提取,可以很大程度上降低算法的計(jì)算復(fù)雜度,提升程序運(yùn)行效率。文章將MNIST原始數(shù)據(jù)集和對(duì)原始數(shù)據(jù)集進(jìn)行PCA降維處理之后的數(shù)據(jù)集作為樣本,分別采用K-鄰近算法、決策樹(shù)ID3算法、SVC分類(lèi)模型,以及選取不同分類(lèi)算法作為基礎(chǔ)分類(lèi)器的集成學(xué)習(xí)方法,實(shí)現(xiàn)手寫(xiě)數(shù)字識(shí)別。在對(duì)MNIST數(shù)據(jù)集進(jìn)行PCA降維前后,以及不同分類(lèi)算法和模型執(zhí)行結(jié)果的時(shí)間復(fù)雜度與預(yù)測(cè)準(zhǔn)確率進(jìn)行比對(duì)與分析,進(jìn)一步強(qiáng)化與優(yōu)化手寫(xiě)數(shù)字識(shí)別準(zhǔn)確率等各項(xiàng)指標(biāo)。
關(guān)鍵詞:PCA降維;MNIST手寫(xiě)數(shù)字識(shí)別;K-鄰近算法;決策樹(shù);SVC分類(lèi)模型;集成學(xué)習(xí)
中圖分類(lèi)號(hào):TP391.4;TP181 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2096-4706(2024)16-0064-05
Optimization of MNIST Handwritten Digit Recognition Based on PCA Dimensionality Reduction
Abstract: PCA data dimensionality reduction technology is widely used in data dimensionality reduction and feature extraction, which can greatly reduce the computational complexity of algorithms and improve program efficiency. This paper takes the MNIST original dataset and the dataset after PCA dimensionality reduction as samples, and uses K-Nearest Neighbor algorithm, Decision Tree ID3 algorithm, SVC classification model, as well aGA+K2yAEPOy2eiDF3uhRaA==s Ensemble Learning methods that select different classification algorithms as basic classifiers to achieve handwritten digit recognition. It compares and analyzes the time complexity and prediction accurLm6ZfPkSb1C60t9ylZPjEw==acy of different classification algorithms and models before and after PCA dimensionality reduction on the MNIST dataset, further enhances and optimizes various indicators such as handwritten digit recognition accuracy.
Keywords: PCA dimensionality reduction; MNIST handwritten digit recognition; K-Nearest Neighbor algorithm; Decision Tree; SVC classification model; Ensemble Learning
0 引 言
MNIST[1]經(jīng)典手寫(xiě)數(shù)字?jǐn)?shù)據(jù)集由訓(xùn)練集、測(cè)試集、訓(xùn)練結(jié)果集和測(cè)試結(jié)果集四個(gè)文件子集構(gòu)成,四個(gè)子集存放在mnist.npz數(shù)組壓縮文件中。該數(shù)據(jù)集的構(gòu)建目標(biāo)是讓機(jī)器學(xué)習(xí)[2]運(yùn)用其分類(lèi)預(yù)測(cè)方法,達(dá)到識(shí)別手寫(xiě)數(shù)字[3]的目的;常用的機(jī)器學(xué)習(xí)分類(lèi)算法有:K-鄰近算法[4]、決策樹(shù)ID3算法[5]、SVC分類(lèi)模型[6]和集成學(xué)習(xí)[7]等方法;數(shù)據(jù)降維是一種將高維數(shù)據(jù)轉(zhuǎn)換為地位數(shù)據(jù)的技術(shù),同時(shí)盡量保留原始數(shù)據(jù)的重要信息及數(shù)據(jù)的變化,以期達(dá)到降低計(jì)算資源,提升算法效率的效果。主成分分析PCA降維技術(shù)[2]通過(guò)減少數(shù)據(jù)集維度,具有降低算法計(jì)算復(fù)雜度的優(yōu)勢(shì),運(yùn)用保留數(shù)據(jù)主要變化模式、去除噪聲和不重要特征的數(shù)據(jù)處理工作原理。不僅高效地實(shí)現(xiàn)了數(shù)據(jù)降維,還能夠保留數(shù)據(jù)集核心信息。本文以MNIST數(shù)據(jù)集和經(jīng)過(guò)PCA降維的數(shù)據(jù)集為樣本,分別采用機(jī)器學(xué)習(xí)的K-鄰近算法、決策樹(shù)、SVC分類(lèi)模型等多種分類(lèi)預(yù)測(cè)算法,實(shí)現(xiàn)手寫(xiě)數(shù)字識(shí)別,同時(shí)進(jìn)行多種算法的計(jì)算復(fù)雜度和預(yù)測(cè)準(zhǔn)確率比對(duì)。
1 數(shù)據(jù)預(yù)處理
mnist.npz數(shù)據(jù)集文件由6萬(wàn)個(gè)手寫(xiě)數(shù)字訓(xùn)練樣本和1萬(wàn)個(gè)測(cè)試樣本組成,1張28×28灰度圖像構(gòu)成1個(gè)樣本,訓(xùn)練樣本和測(cè)試樣本分別對(duì)應(yīng)的數(shù)字標(biāo)簽結(jié)果數(shù)據(jù)集也包含在內(nèi)。為了簡(jiǎn)化數(shù)據(jù),同時(shí)進(jìn)一步降低算法計(jì)算量,需要對(duì)數(shù)據(jù)進(jìn)行歸一化處理和降維預(yù)處理。
1.1 歸一化處理與數(shù)據(jù)格式轉(zhuǎn)換
為了分類(lèi)器能夠識(shí)別輸入數(shù)據(jù)集格式,將數(shù)據(jù)集進(jìn)行歸一化處理和格式轉(zhuǎn)換。具體流程如下:
1)加載mnist.npz數(shù)據(jù)集壓縮包。
2)提取壓縮包中的數(shù)組、獲取訓(xùn)練集、測(cè)試集以及分類(lèi)數(shù)字標(biāo)簽。
3)將訓(xùn)練集、測(cè)試集數(shù)組非零元素歸一化為1。
4)數(shù)據(jù)格式轉(zhuǎn)換,將28×28矩陣轉(zhuǎn)換成1×784列的矩陣。
處理結(jié)果如圖1和圖2所示。
1.2 數(shù)據(jù)降維
本文采用PCA降維技術(shù)[8]對(duì)mnist.npz數(shù)據(jù)集進(jìn)行數(shù)據(jù)降維。PCA降維運(yùn)用正交變化,將原始數(shù)據(jù)轉(zhuǎn)化到一組線性不相關(guān)成份上的原理,對(duì)數(shù)據(jù)集進(jìn)行降維。PCA降維技術(shù)能夠顯著降低分類(lèi)訓(xùn)練和預(yù)測(cè)的計(jì)算量,但是會(huì)造成分類(lèi)預(yù)測(cè)精度降低。
PCA降維技術(shù)有一個(gè)非常重要的降維參數(shù)n_components,是用來(lái)指定降維后的特征值,通常代表期望將原始數(shù)據(jù)壓縮成的特征數(shù)。本文通過(guò)將降維參數(shù)n_components通過(guò)反復(fù)測(cè)試,確定將歸一化和格式轉(zhuǎn)換后的數(shù)據(jù)集采用PCA降維技術(shù)由784個(gè)特征值,降維到n_components值為36,來(lái)減少數(shù)據(jù)量,進(jìn)而降低算法計(jì)算復(fù)雜度。手寫(xiě)數(shù)字?jǐn)?shù)據(jù)訓(xùn)練集和測(cè)試集進(jìn)行PCA降維代碼如下:
PCA降維之前,mnist.npz數(shù)據(jù)集中的手寫(xiě)數(shù)字是人眼可以識(shí)別的,通過(guò)PCA降維技術(shù)對(duì)mnist.npz訓(xùn)練集和測(cè)試集進(jìn)行降維之后,手寫(xiě)數(shù)字為人眼不可以識(shí)別,部分手寫(xiě)數(shù)字降維之前和降維之后顯示如圖3和圖4所示。
2 手寫(xiě)數(shù)字識(shí)別實(shí)現(xiàn)及分類(lèi)預(yù)測(cè)
2.1 k-鄰近算法實(shí)現(xiàn)手寫(xiě)數(shù)字識(shí)別
K-鄰近算法[4]是一種易于掌握且十分有效的機(jī)器學(xué)習(xí)算法。采用測(cè)量不同特征值之間的距離進(jìn)行分類(lèi)。根據(jù)歐氏距離公式,計(jì)算兩個(gè)向量點(diǎn)之間的距離。數(shù)據(jù)集特征值為n的兩個(gè)向量a(x11,x12,…,x1n)和b(x21,x22,…,x2n)之間的歐氏距離為:
將各個(gè)點(diǎn)之間的距離計(jì)算完成之后,按照從小到大的順序?qū)⑺芯嚯x排序,然后選取前k個(gè)最小距離,再求出前k個(gè)距離對(duì)應(yīng)的每個(gè)分類(lèi)標(biāo)簽,預(yù)測(cè)出的結(jié)果值是出現(xiàn)頻率最高的分類(lèi)標(biāo)簽。精度高、對(duì)異常值不敏感,以及空間復(fù)雜度較高是k-鄰近算法的主要特點(diǎn),該模型實(shí)現(xiàn)識(shí)別手寫(xiě)數(shù)字流程如下:
1)收集及解析數(shù)據(jù)集。
2)計(jì)算測(cè)試集中的每一個(gè)當(dāng)前點(diǎn)與訓(xùn)練集中點(diǎn)的距離。
3)將距離按照遞增順序進(jìn)行排序。
4)選取距離最小的前k個(gè)點(diǎn)。
5)計(jì)算前k個(gè)點(diǎn)類(lèi)別標(biāo)簽的頻率。
6)將頻率最高的類(lèi)別標(biāo)簽確定為該點(diǎn)的預(yù)測(cè)分類(lèi)。
具體流程圖如圖5所示。
按照?qǐng)D5流程,采用K-鄰近算法分類(lèi)器對(duì)樣本數(shù)據(jù)集的60 000個(gè)訓(xùn)練集向量和10 000個(gè)測(cè)試集向量進(jìn)行距離計(jì)算和測(cè)試,原始數(shù)據(jù)集進(jìn)行PCA降維前,每個(gè)距離計(jì)算包括784個(gè)維度浮點(diǎn)運(yùn)算;采用PCA降維之后,每個(gè)距離計(jì)算包括36個(gè)維度浮點(diǎn)運(yùn)算。運(yùn)用PCA-K-鄰近算法[8]進(jìn)行測(cè)試,當(dāng)k設(shè)置為3時(shí),PCA降維前錯(cuò)誤率為3.91%,準(zhǔn)確率為96.09%,但是識(shí)別時(shí)長(zhǎng)非常高,為10 876.904秒,執(zhí)行效率并不高,但識(shí)別準(zhǔn)確率較高;PCA降維后錯(cuò)誤率降為3.57%,準(zhǔn)確率為96.46%,識(shí)別時(shí)長(zhǎng)大大降低,僅僅花費(fèi)了238.77秒。相比較于降維前,PCA降維后的時(shí)間復(fù)雜度和識(shí)別準(zhǔn)確率都有優(yōu)化,尤其在時(shí)間復(fù)雜度方面,識(shí)別花費(fèi)時(shí)長(zhǎng)大大降低,PCA降維技術(shù)表現(xiàn)非常優(yōu)異。
2.2 模型創(chuàng)建與代碼實(shí)現(xiàn)手寫(xiě)數(shù)字識(shí)別
采用決策樹(shù)ID3算法、SVC分類(lèi)模型算法和集成學(xué)習(xí)技術(shù),將mnist.npz數(shù)據(jù)集進(jìn)行PCA降維前和PCA降維后,分別實(shí)現(xiàn)手寫(xiě)數(shù)字識(shí)別,將實(shí)驗(yàn)結(jié)果進(jìn)行比對(duì),給出最優(yōu)方案。
2.2.1 決策樹(shù)ID3算法構(gòu)造決策樹(shù)模型
決策樹(shù)ID3算法[9]是一種其數(shù)據(jù)形式非常易于理解,計(jì)算復(fù)雜度較低。決策樹(shù)算法常見(jiàn)的有二分法和ID3等算法。鑒于ID3算法的優(yōu)勢(shì)以及對(duì)數(shù)據(jù)集的規(guī)則要求,本文采用ID3算法實(shí)現(xiàn)手寫(xiě)數(shù)字識(shí)別。其數(shù)據(jù)結(jié)構(gòu)滿(mǎn)足ID3算法的數(shù)據(jù)結(jié)構(gòu)要求。決策樹(shù)ID3算法對(duì)數(shù)據(jù)集的每次劃分會(huì)選取一個(gè)特征屬性作為參考屬性,這個(gè)參考屬性的確定基于計(jì)算信息增益的原則,此度量方式稱(chēng)為熵,熵期望值的計(jì)算公式為:
其中n為分類(lèi)的數(shù)目,p(xi)為選擇該分類(lèi)的概率。決策樹(shù)ID3算法優(yōu)勢(shì)在于能夠簡(jiǎn)單且快速遍歷整個(gè)數(shù)據(jù)集,循環(huán)計(jì)算熵值和數(shù)據(jù)集子集的劃分。
本文運(yùn)用Python語(yǔ)言skleanrn庫(kù)的tree模塊提供的分類(lèi)樹(shù)DecisionTreeClassifier()方法,將mnist.npz文件中60 000個(gè)原始訓(xùn)練集或者降維后訓(xùn)練集作為樣本訓(xùn)練集,采用分類(lèi)器方法DecisionTreeClassifier()提供的fit()方法進(jìn)行訓(xùn)練,構(gòu)造手寫(xiě)數(shù)字識(shí)別決策樹(shù)模型;運(yùn)用決策樹(shù)模型提供的score()方法分別對(duì)mnist.npz文件中10 000個(gè)原始測(cè)試集向量或者降維后測(cè)試集進(jìn)行測(cè)試,分別得出識(shí)別時(shí)間復(fù)雜度和預(yù)測(cè)準(zhǔn)確率。
構(gòu)造決策樹(shù)識(shí)別模型的具體方法如下:
1)調(diào)用Python語(yǔ)言sklean庫(kù)的分類(lèi)樹(shù)tree.DecisionTreeClassifier()方法生成決策樹(shù)分類(lèi)器。
2)運(yùn)用決策樹(shù)分類(lèi)器fit()方法對(duì)樣本訓(xùn)練集進(jìn)行訓(xùn)練,生成決策樹(shù)識(shí)別模型。
3)調(diào)用決策樹(shù)識(shí)別模型的score()方法對(duì)樣本測(cè)試集進(jìn)行測(cè)試。
4)求出預(yù)測(cè)準(zhǔn)確率和時(shí)間復(fù)雜度。
2.2.2 SVC算法構(gòu)建識(shí)別模型
SVC(Support Vector Classification)支持向量機(jī)分類(lèi)[10]是一種二分類(lèi)算法模型,在模式識(shí)別中表現(xiàn)優(yōu)異,能夠很好地解決二分類(lèi)或者多分類(lèi)問(wèn)題。運(yùn)用核函數(shù),將低維數(shù)據(jù)映射到高維特征空間,在高維特征空間中尋找出超平面方法,將不同類(lèi)別之間的間隔最大化,實(shí)現(xiàn)分類(lèi)目的。
本文采用Python語(yǔ)言skleanrn庫(kù)中svm模塊提供的支持向量分類(lèi)器函數(shù)svc()構(gòu)造支持向量機(jī);同樣運(yùn)用支持向量機(jī)svc()函數(shù)提供的fit()方法,將mnist.npz文件中60 000個(gè)原始訓(xùn)練集或者降維后訓(xùn)練集作為樣本訓(xùn)練集,構(gòu)造手寫(xiě)數(shù)字識(shí)別支持向量機(jī)模型;運(yùn)用支持向量機(jī)模型提供的score()方法得到預(yù)測(cè)指標(biāo)。
2.2.3 集成學(xué)習(xí)技術(shù)構(gòu)建識(shí)別模型
集成學(xué)習(xí)[11](ensemble learning)是一個(gè)分類(lèi)器集成器,將多個(gè)機(jī)器學(xué)習(xí)算法作為基礎(chǔ)分類(lèi)模型,之后采用投票法、學(xué)習(xí)法等構(gòu)建策略,將選取的基礎(chǔ)分類(lèi)器結(jié)合起來(lái),用以完成機(jī)器學(xué)習(xí)任務(wù)。本文的集成學(xué)習(xí),將SVC分類(lèi)模型和決策樹(shù)ID3算法為基礎(chǔ)分類(lèi)器,以投票法作為構(gòu)建策略實(shí)現(xiàn)手寫(xiě)數(shù)字識(shí)別,如圖6所示。
2.2.4 流程與Python代碼實(shí)現(xiàn)
分類(lèi)模型識(shí)別手寫(xiě)數(shù)字實(shí)現(xiàn)流程如下:
1)數(shù)據(jù)集收集、歸一化與格式轉(zhuǎn)換處理。
2)對(duì)數(shù)據(jù)集進(jìn)行PCA降維。
3)ID3算法構(gòu)造決策樹(shù)。
4)決策樹(shù)對(duì)訓(xùn)練集(PCA降維前、降維后)進(jìn)行訓(xùn)練。
5)SVC模式算法對(duì)訓(xùn)練集(PCA降維前、降維后)進(jìn)行訓(xùn)練。
6)集成學(xué)習(xí)對(duì)訓(xùn)練集(PCA降維前、降維后)進(jìn)行訓(xùn)練,以決策樹(shù)與SVC分類(lèi)模型為基礎(chǔ)分類(lèi)器。
7)分別預(yù)測(cè)測(cè)試集分類(lèi)結(jié)果。
8)將預(yù)測(cè)分類(lèi)結(jié)果與測(cè)試集實(shí)際分類(lèi)標(biāo)簽進(jìn)行比對(duì),獲得預(yù)測(cè)錯(cuò)誤率。
部分Python核心代碼如下:
上述代碼中,采用決策樹(shù)ID3算法對(duì)數(shù)據(jù)集PCA降維前后、數(shù)據(jù)集PCA降維之后采用SVC分類(lèi)模式算法,以及以數(shù)據(jù)集PCA_決策樹(shù)ID3算法和PCA_SVC分類(lèi)算法作為基礎(chǔ)分類(lèi)器實(shí)現(xiàn)的集成學(xué)習(xí)技術(shù),進(jìn)行數(shù)據(jù)集訓(xùn)練;在集成學(xué)習(xí)代碼中,權(quán)重的分配通過(guò)反復(fù)測(cè)試,采用PCA_決策樹(shù)對(duì)PCA_SVC分類(lèi)算法位1.8比1比例進(jìn)行分配,以期得到最優(yōu)識(shí)別效果。
2.3 結(jié)果分析與比對(duì)
圖7為通過(guò)K-鄰近算法PCA降維前后手寫(xiě)數(shù)字識(shí)別結(jié)果和運(yùn)行結(jié)果。
總結(jié)不同算法所用訓(xùn)練時(shí)長(zhǎng)和預(yù)測(cè)準(zhǔn)確率如表1所示。
表1給出了8種不同機(jī)器學(xué)習(xí)分類(lèi)算法識(shí)別手寫(xiě)數(shù)字的運(yùn)行結(jié)果,從表1可以看出,K-鄰近算法降維前訓(xùn)練時(shí)長(zhǎng)為10 876.90秒,是其余算法訓(xùn)練時(shí)長(zhǎng)的42倍左右,將耗費(fèi)大量資源,因此將其作為異常值在剔除,繪制不同算法識(shí)別手寫(xiě)數(shù)字運(yùn)行結(jié)果對(duì)比圖,如圖8所示。
表1和圖8中,K-鄰近算法PCA降維前后的預(yù)測(cè)準(zhǔn)率最高,分別達(dá)到了96.3%和96.5%,但是降維前訓(xùn)練時(shí)長(zhǎng)遠(yuǎn)遠(yuǎn)超出預(yù)期,將K-鄰近算法排除;而PCA-K-鄰近算法預(yù)測(cè)結(jié)果不僅在預(yù)測(cè)準(zhǔn)確率上保持了降維前的高預(yù)測(cè)率,而且在算法時(shí)間復(fù)雜度上得到大幅度降低;通常,SVC分類(lèi)模型在中小型數(shù)據(jù)集上的表現(xiàn)和神經(jīng)網(wǎng)絡(luò)一樣突出,從表1和圖8可以看出,SVC算法降維前后在時(shí)間復(fù)雜度和預(yù)測(cè)準(zhǔn)確率都有較好的預(yù)期結(jié)果值,PCA-SVC算法相對(duì)于SVC算法在預(yù)測(cè)準(zhǔn)確率方面不分上下,在時(shí)間復(fù)雜度上表現(xiàn)更為優(yōu)異;降維前后的決策樹(shù)ID3算法對(duì)數(shù)據(jù)集進(jìn)行降維之后,并沒(méi)有提升預(yù)測(cè)準(zhǔn)確率,反而降低了預(yù)測(cè)效率,但是兩者時(shí)間復(fù)雜度相對(duì)于其他算法大幅度降低,執(zhí)行效率非常高,訓(xùn)練時(shí)間均在10秒以?xún)?nèi);數(shù)據(jù)顯示,集成學(xué)習(xí)預(yù)測(cè)準(zhǔn)確率在降維前后的表現(xiàn)沒(méi)有特別優(yōu)勢(shì),表現(xiàn)一般。
3 結(jié) 論
本文分別采用K-鄰近算法、SVC分類(lèi)模型、決策樹(shù)ID3算法以及集成學(xué)習(xí)算法將mnist.npz原始數(shù)據(jù)集進(jìn)行歸一化、矩陣轉(zhuǎn)換等處理結(jié)果作為樣本,實(shí)現(xiàn)手寫(xiě)數(shù)字識(shí)別;然后以采用PCA算法對(duì)其進(jìn)行降維處理之后的數(shù)據(jù)集作為樣本,再次分別運(yùn)用上述四種機(jī)器學(xué)習(xí)分類(lèi)方法實(shí)現(xiàn)識(shí)別。對(duì)各種算法執(zhí)行結(jié)果的時(shí)間復(fù)雜度和預(yù)測(cè)準(zhǔn)確率進(jìn)行對(duì)比,篩選相對(duì)較優(yōu)算法。從實(shí)驗(yàn)數(shù)據(jù)可以看出,其中PCA-K-鄰近算法和SVC分類(lèi)模型PCA降維前后在預(yù)測(cè)準(zhǔn)確率表現(xiàn)非常優(yōu)異,均達(dá)到93%以上,K-鄰近算法在預(yù)測(cè)準(zhǔn)確率方面甚至高達(dá)96%以上;在執(zhí)行效率方面,決策樹(shù)ID3算法表現(xiàn)非常優(yōu)異,訓(xùn)練時(shí)長(zhǎng)相對(duì)于其他算法降低了大約38倍到57倍之間,而且預(yù)測(cè)準(zhǔn)確率也接近90%。從運(yùn)行結(jié)果的比對(duì)可以看出,不同算法各有優(yōu)勢(shì),程序運(yùn)行結(jié)果數(shù)據(jù)具有較高參考價(jià)值。
參考文獻(xiàn):
[1] 張貫航.基于MNIST數(shù)據(jù)集的激活函數(shù)比較研究 [J].軟件,2023(9):165-168.
[2] Peter Harrington.機(jī)器學(xué)習(xí)實(shí)戰(zhàn) [M].李銳,李鵬,曲亞?wèn)|,王斌,譯.北京:人民郵電出版社,2013.
[3] 黃明春,田秀云,謝玉萍,等.基于人工智能的手寫(xiě)數(shù)字識(shí)別方法研究 [J].機(jī)電工程技術(shù),2023(4):185-189.
[4] 辛英.基于k-鄰近算法的手寫(xiě)識(shí)別系統(tǒng)的研究與實(shí)現(xiàn) [J].電子設(shè)計(jì)工程,2018(7):27-30.
[5] 趙力衡.基于決策樹(shù)的手寫(xiě)數(shù)字識(shí)別的應(yīng)用研究 [J].軟件,2018(3):90-94.
[6] 曹啼.C-SVC、ν-SVC與LSSVC三種支持向量分類(lèi)機(jī)的對(duì)比研究 [D].上海:華東師范大學(xué),2019.
[7] 王衡軍.機(jī)器學(xué)習(xí) [M].北京:清華大學(xué)出版社,2020.
[8] 楊濟(jì)萍.基于主成分降維模型的手寫(xiě)數(shù)字識(shí)別研究 [J].網(wǎng)絡(luò)安全技術(shù)與應(yīng)用,2021(3):31-32.
[9] 張桂杰,王小燦,邢維康,等.基于決策樹(shù)分類(lèi)算法的心理測(cè)評(píng)模型研究 [J].吉林師范大學(xué)學(xué)報(bào),2023(4):123-130.
[10] 李雅琴.SVM在手寫(xiě)數(shù)字識(shí)別中的應(yīng)用研究 [D].武漢:華中師范大學(xué).
[11] 符新偉,王舒可.基于集成機(jī)器學(xué)習(xí)的手寫(xiě)數(shù)字識(shí)別技術(shù)研究 [J].中阿科技論壇:中英文,2022(11):124-128.