謝穎 朱遠(yuǎn)勝 姚雪存 馬維聰
摘 要:提出將PCA及LVQ網(wǎng)絡(luò)用于專(zhuān)業(yè)可持續(xù)發(fā)展分類(lèi)應(yīng)用研究,通過(guò)多種調(diào)研形式獲取專(zhuān)業(yè)發(fā)展的21項(xiàng)指標(biāo),首先對(duì)比使用標(biāo)準(zhǔn)正交歸一化方法和min-max歸一化方法對(duì)原始的樣本進(jìn)行歸一化,再利用PCA算法解除樣本特征的相關(guān)性,實(shí)現(xiàn)數(shù)據(jù)的降維。最后利用LVQ神經(jīng)網(wǎng)絡(luò)對(duì)已經(jīng)降維的數(shù)據(jù)進(jìn)行學(xué)習(xí),并得到學(xué)習(xí)結(jié)果,最后利用學(xué)習(xí)得到的權(quán)值矩陣對(duì)新的樣本進(jìn)行識(shí)別,判斷專(zhuān)業(yè)發(fā)展水平。
關(guān)鍵詞:主成分分析;學(xué)習(xí)矢量量化網(wǎng)絡(luò);專(zhuān)業(yè)可持續(xù)發(fā)展
中圖分類(lèi)號(hào):G434? ? ? ? ? ? ?文獻(xiàn)標(biāo)識(shí)碼:A? ? ? ? ? ? ?文章編號(hào):1674-2346(2018)04-0084-08
如何評(píng)價(jià)專(zhuān)業(yè)發(fā)展水平是專(zhuān)業(yè)發(fā)展過(guò)程中的重要問(wèn)題,根據(jù)相關(guān)文獻(xiàn)總結(jié)各類(lèi)院校在進(jìn)行專(zhuān)業(yè)發(fā)展過(guò)程中提出和實(shí)施的各種措施,用指標(biāo)的形式加以固化,進(jìn)而通過(guò)專(zhuān)家評(píng)審、調(diào)查問(wèn)卷、現(xiàn)場(chǎng)調(diào)查、參考相關(guān)調(diào)查結(jié)果等形式對(duì)專(zhuān)業(yè)發(fā)展的各項(xiàng)指標(biāo)進(jìn)行量化。以浙江省高職類(lèi)院校省級(jí)示范專(zhuān)業(yè)和優(yōu)勢(shì)專(zhuān)業(yè)作為合格類(lèi)樣本庫(kù),以其它專(zhuān)業(yè)作為不合格類(lèi)樣本庫(kù),對(duì)比使用min-max、標(biāo)準(zhǔn)正交化2種方法完成數(shù)據(jù)規(guī)約,消除數(shù)據(jù)量綱不同導(dǎo)致的數(shù)據(jù)差異,接著用PCA對(duì)各類(lèi)樣本的指標(biāo)進(jìn)行“解耦”,消除不同數(shù)據(jù)特征之間的線性相關(guān)性,獲取相互不相關(guān)的新的指標(biāo)集,最后利用LVQ網(wǎng)絡(luò)對(duì)這些新的指標(biāo)集樣本進(jìn)行學(xué)習(xí),通過(guò)學(xué)習(xí)得到專(zhuān)業(yè)發(fā)展水平高低的判別模型,從而為指導(dǎo)專(zhuān)業(yè)可持續(xù)發(fā)展提供識(shí)別標(biāo)準(zhǔn)和改進(jìn)依據(jù)。
1? ? 建立評(píng)價(jià)指標(biāo)體系
專(zhuān)業(yè)可持續(xù)發(fā)展總體上可以分為:專(zhuān)業(yè)規(guī)劃、專(zhuān)業(yè)實(shí)施與保障、專(zhuān)業(yè)產(chǎn)出與評(píng)價(jià)3個(gè)方面,[1]而從更加細(xì)致的角度來(lái)看主要分成5個(gè)方面:1)師資隊(duì)伍建設(shè)是學(xué)科專(zhuān)業(yè)建設(shè)的關(guān)鍵。[2]構(gòu)建具有前瞻性眼光、高深造詣的專(zhuān)業(yè)帶頭人隊(duì)伍,在他們帶領(lǐng)下建設(shè)一支知識(shí)結(jié)構(gòu)廣博、年齡結(jié)構(gòu)和職稱結(jié)構(gòu)合理、學(xué)術(shù)水平精深的師資隊(duì)伍是專(zhuān)業(yè)可持續(xù)發(fā)展的人才保證。[3]2)教材體系建設(shè)是專(zhuān)業(yè)可持續(xù)發(fā)展的載體。構(gòu)建知識(shí)融會(huì)貫通,專(zhuān)業(yè)和培養(yǎng)方向明確、模塊結(jié)構(gòu)合理的教材體系是專(zhuān)業(yè)可持續(xù)發(fā)展的物質(zhì)基礎(chǔ)。3)課程改革與實(shí)踐是專(zhuān)業(yè)可持續(xù)發(fā)展的保證。課程改革與實(shí)踐的對(duì)象包括課程改革與實(shí)踐的主體對(duì)象――老師和學(xué)生,同時(shí)也包括客體對(duì)象如:科研成果、教改成果、社會(huì)服務(wù)成果、學(xué)生技能培訓(xùn)成果等。4)信息化建設(shè)是專(zhuān)業(yè)實(shí)施過(guò)程中的靈魂。圍繞專(zhuān)業(yè)發(fā)展的信息化建設(shè),包括資源庫(kù)建設(shè)、精品課程建設(shè)、網(wǎng)絡(luò)課程建設(shè)、視頻教程建設(shè)、頂崗實(shí)習(xí)平臺(tái)建設(shè)、培養(yǎng)方案建設(shè)、培養(yǎng)計(jì)劃建設(shè)等等。這些信息系統(tǒng)的建設(shè)一方面為專(zhuān)業(yè)實(shí)施提供合理的手段,也是知識(shí)、能力傳承的重要載體,合理的教學(xué)信息系統(tǒng)的構(gòu)成能為專(zhuān)業(yè)實(shí)施提供強(qiáng)大的支撐,也為專(zhuān)業(yè)實(shí)施指明方向。5)實(shí)驗(yàn)實(shí)訓(xùn)場(chǎng)地與基地建設(shè)是專(zhuān)業(yè)發(fā)展的根據(jù)與橋梁。它對(duì)改善課程設(shè)置、提高人才培養(yǎng)質(zhì)量、更好的服務(wù)當(dāng)?shù)亟?jīng)濟(jì)社會(huì)發(fā)展,具有重要作用。[4]
綜上所述,將專(zhuān)業(yè)可持續(xù)發(fā)展指標(biāo)以列表形式總結(jié),如表 1所示:
2? ? 相關(guān)理論基礎(chǔ)
2.1? ? PCA算法理論
PCA(Principal Component Analysis)中文名--主成分分析。PCA是投影平方最大化、誤差最小化的一種算法,是模式識(shí)別中常見(jiàn)的線性映射方法,由于PCA算法在降維和特征提取方面的高效性,在模式識(shí)別領(lǐng)域也得到了廣泛的應(yīng)用。其核心思想是將高維空間中的向量,通過(guò)矩陣轉(zhuǎn)換為低維空間的向量,在盡量保持原有數(shù)據(jù)信息的基礎(chǔ)上消除高維空間向量特征的線性相關(guān)性,這樣對(duì)于后繼的神經(jīng)網(wǎng)絡(luò)來(lái)說(shuō),可以減少訓(xùn)練時(shí)間,提高訓(xùn)練效率,增強(qiáng)網(wǎng)絡(luò)的泛化能力。[5]PCA在信號(hào)處理、圖像分析領(lǐng)域也有廣泛的應(yīng)用。PCA算法基礎(chǔ)是K-L變換,當(dāng)樣本中心化以后,K-L變換就變成了PCA。[6]
離散K-L變換:
它是一種基于目標(biāo)統(tǒng)計(jì)特性的最佳正交變換,任意n維隨機(jī)向量 (一個(gè)樣本可以看成是一個(gè)隨機(jī)向量的實(shí)現(xiàn)),存在n維標(biāo)準(zhǔn)正交變換矩陣,其中 ,使得樣本p是這個(gè)標(biāo)準(zhǔn)正交基的線性組合,記為:
兩邊同時(shí)乘以? ? ? ?,并考慮正交基特性得到:
現(xiàn)在假設(shè)用前k項(xiàng)(1≤k則均方誤差為:
將(1)式代入得到:
令? ? ? ? ? ? ? ? ? ? ? ,則截?cái)嗾`差可以簡(jiǎn)記為:
在限制條件下? ? ? ? ? =1,最優(yōu)化上面的e。根據(jù)拉格朗日乘子法構(gòu)造函數(shù):
求偏導(dǎo)令其等于0,即? ? ? ? ? ? ? ? ? ?得到:
即滿足上式時(shí),e取最小值。此時(shí)E(xxT)為自相關(guān)矩陣, j為自相關(guān)矩陣的特征值,uj為特征值 j對(duì)應(yīng)的特征向量。將(3)式代入(2)式,得到:
因此,將自相關(guān)矩陣的特征值由大到小排列,特征值對(duì)應(yīng)的特征向量正交,且取前面k個(gè)向量構(gòu)成了轉(zhuǎn)換矩陣 ,截?cái)嗾`差是后面從k+1開(kāi)始到n的n-k個(gè)特征值的和。
當(dāng)向量x中心化以后,上面的自相關(guān)矩陣就是協(xié)方差矩陣(忽略系數(shù)),此時(shí)就是我們所說(shuō)的PCA算法,理論已經(jīng)證明,雖然構(gòu)成向量x的基有無(wú)窮多個(gè),但是,標(biāo)準(zhǔn)正交基下的截?cái)嗾`差最小。
2.2? ? LVQ神經(jīng)網(wǎng)絡(luò)理論
學(xué)習(xí)矢量量化網(wǎng)絡(luò)(Learning Vector Quantization簡(jiǎn)稱LVQ)是一種自適應(yīng)數(shù)據(jù)分類(lèi)混合網(wǎng)絡(luò),是用數(shù)學(xué)方法對(duì)神經(jīng)系統(tǒng)的橫向抑制功能的模擬,通過(guò)將有監(jiān)督和無(wú)監(jiān)督學(xué)習(xí)結(jié)合起來(lái)提高網(wǎng)絡(luò)對(duì)輸入向量分類(lèi)的正確性。[7]
LVQ神經(jīng)網(wǎng)絡(luò)由3層神經(jīng)元構(gòu)成,即輸入層、隱含層(競(jìng)爭(zhēng)層)和輸出層(線性層)[8],其基本結(jié)構(gòu)如圖1所示。LVQ網(wǎng)絡(luò)的輸入層和隱藏層之間為全連接,而隱藏層和輸出層之間為部分連接。[9]輸入層和競(jìng)爭(zhēng)層之間是無(wú)導(dǎo)師學(xué)習(xí),某個(gè)神經(jīng)元通過(guò)競(jìng)爭(zhēng)及對(duì)其它神經(jīng)元的抑制而獲勝輸出為1,其它神經(jīng)元輸出為0,隱藏層和輸出層之間為有導(dǎo)師學(xué)習(xí),主要完成邏輯“與”的功能,將獲勝神經(jīng)元指派給某個(gè)類(lèi)別。
2.3? ? LVQ訓(xùn)練規(guī)則
1)有m個(gè)輸入向量,? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? 與隱含層神經(jīng)元之間的權(quán)值向量為iW? ,上標(biāo)1表示第1層(隱含層)到競(jìng)爭(zhēng)層的權(quán)值,所以共計(jì)為m個(gè)權(quán)值向量(列向量),記為1W ,2W? ,…,mW? 。初始值取比較小的隨機(jī)值。
2)設(shè)置? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?子類(lèi)i是k類(lèi)的一部分,其它都為0,也就是說(shuō)如果pi屬于類(lèi)k,那么? ? ? ? ? ? ? ? 。
3)隨機(jī)抽取的樣本pj輸入網(wǎng)絡(luò),按照如下公式求其輸出。
n1直接計(jì)算權(quán)值向量和輸入向量的距離,并通過(guò)競(jìng)爭(zhēng),得到a1(只有1個(gè)神經(jīng)元獲勝,結(jié)果為1,其它都為0),然后a1與導(dǎo)師向量權(quán)值矩陣W2相乘,得到類(lèi)別結(jié)果。根據(jù)結(jié)果對(duì)jW1進(jìn)行調(diào)整,因?yàn)檩斎氲南蛄渴莗j,而pj對(duì)應(yīng)的權(quán)值為jW ,所以調(diào)整的是jW 。
4)更新權(quán)值,采用kohonen規(guī)則進(jìn)行更新。如果在a2的輸出中,pj被正確的分類(lèi)了,那么,要使得jW? 向pj靠攏即:
為學(xué)習(xí)速度和遺忘速度,這里取二者相等。
如果在a2的輸出中,pj沒(méi)有被正確的分類(lèi),那么就應(yīng)該使得jW? 遠(yuǎn)離pj,此時(shí)調(diào)整公式為:
然后依次循環(huán)輸入各個(gè)樣本向量。
5)判斷是否收斂。常見(jiàn)的判斷收斂方法有2種:第1種判斷迭代次數(shù)是否達(dá)到預(yù)設(shè)的最大值,若沒(méi)有達(dá)到最大迭代次數(shù),則轉(zhuǎn)到第3步,否則訓(xùn)練結(jié)束;第2種則是在實(shí)際項(xiàng)目中,通過(guò)判斷MSE均方誤差作為循環(huán)終止條件,即前后2次計(jì)算輸入層和隱含層之間的權(quán)值矩陣的均方誤差,只要不大于某個(gè)閾值就可以終止迭代。Matlab則是將這2種方法同時(shí)使用,無(wú)論哪個(gè)先達(dá)到條件,就終止迭代。
3? ? 基于PCA-LVQ模型的建立
3.1? ? 數(shù)據(jù)來(lái)源及樣本集
依據(jù)如表 1所示21項(xiàng)指標(biāo),通過(guò)專(zhuān)家評(píng)審、調(diào)查問(wèn)卷、現(xiàn)場(chǎng)調(diào)查、參考相關(guān)調(diào)查結(jié)果等形式對(duì)專(zhuān)業(yè)發(fā)展的各項(xiàng)指標(biāo)進(jìn)行量化,得到如下數(shù)據(jù)表(表2)。
3.2? ? 構(gòu)建PCA-LVQ網(wǎng)絡(luò)模型新的評(píng)價(jià)樣本集
在采用PCA算法對(duì)原始樣本進(jìn)行轉(zhuǎn)換之前,為消除數(shù)據(jù)量綱不同導(dǎo)致的數(shù)據(jù)差異,對(duì)比使用min-max和標(biāo)準(zhǔn)正交化2種方法完成數(shù)據(jù)規(guī)約,2種方法規(guī)約后調(diào)用matlab的princomp函數(shù)完成PCA轉(zhuǎn)換后的特征值及貢獻(xiàn)度如表3所示,為了方便顯示最終結(jié)果,在源數(shù)據(jù)中將優(yōu)勢(shì)專(zhuān)業(yè)和示范專(zhuān)業(yè)的3個(gè)樣本分別放在1,2,3位置。PCA執(zhí)行結(jié)果如表3所示。
從表3中可以看出:min-max歸一化后的PCA分析結(jié)果表明,前9項(xiàng)特征值貢獻(xiàn)度為93.48%;標(biāo)準(zhǔn)正交化歸一化后的PAC的前9項(xiàng)特征值貢獻(xiàn)度為93.37%。二者基本相同,即前9項(xiàng)可以代表原樣本中的93%左右的信息,后面LVQ的處理就基于前9項(xiàng)數(shù)值進(jìn)行神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)。
PCA降維后的轉(zhuǎn)換矩陣及新的樣本集說(shuō)明如下。
PCA轉(zhuǎn)換后主要關(guān)注3個(gè)方面的內(nèi)容:1)歸一化時(shí)計(jì)算的均值、方差或min以及max值,對(duì)于“行”是樣本,“列”是特征來(lái)說(shuō),這些值都是針對(duì)“列”而言,這些值是后繼規(guī)約化識(shí)別樣本要用到的數(shù)據(jù)。2)根據(jù)特征值貢獻(xiàn)度選擇相應(yīng)的特征向量構(gòu)成的轉(zhuǎn)換矩陣,因?yàn)榍懊孢x擇了前面9個(gè)特征值,所以,轉(zhuǎn)換矩陣選擇由前面9個(gè)向量構(gòu)成的矩陣,這樣,原來(lái)21維的樣本就降維為9維數(shù)據(jù)樣本,這些樣本能反應(yīng)原來(lái)樣本的約93%的信息。3)原來(lái)樣本在新的基空間中的向量矩陣,這是后繼LVQ的輸入向量。
3.3? ? PCA-LVQ網(wǎng)絡(luò)模型的參數(shù)設(shè)置
LVQ神經(jīng)網(wǎng)絡(luò)的輸入層為17個(gè)神經(jīng)元,因?yàn)檫@里初始訓(xùn)練樣本個(gè)數(shù)為17,輸出層2個(gè)神經(jīng)元,代表2個(gè)類(lèi)別,輸入層每個(gè)樣本有9個(gè)向量,決定了輸入層到隱藏層的權(quán)值矩陣是17?,隱藏層到輸出層的權(quán)值矩陣為2?7,隱藏層與輸出層的權(quán)值矩陣在學(xué)習(xí)前由導(dǎo)師數(shù)據(jù)的類(lèi)型設(shè)置如下:
前3列的第1項(xiàng)為1,第2項(xiàng)為0,后面14項(xiàng)的第1項(xiàng)為0,第2項(xiàng)為1,表示前3個(gè)樣本是同一種類(lèi)別(代表優(yōu)勢(shì)專(zhuān)業(yè)和示范專(zhuān)業(yè)類(lèi)別),后面14個(gè)樣本為第二種類(lèi)別(非優(yōu)勢(shì)專(zhuān)業(yè)和非示范專(zhuān)業(yè))。這個(gè)設(shè)置過(guò)程實(shí)際代表了導(dǎo)師樣本的分類(lèi)學(xué)習(xí)。訓(xùn)練的迭代次數(shù)設(shè)置為1000,最小均方誤差MSE設(shè)置為0,訓(xùn)練過(guò)程中先到者為準(zhǔn)。
4? ? 網(wǎng)絡(luò)模型的訓(xùn)練與識(shí)別
4.1? ? 對(duì)比minmax及標(biāo)準(zhǔn)正交化的訓(xùn)練結(jié)果
LVQ神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。
訓(xùn)練結(jié)束時(shí)的迭代次數(shù)與均方誤差如圖3及圖4所示:
在試驗(yàn)中,盡管每次迭代次數(shù)可能都不相同,但是,通過(guò)多次試驗(yàn)可以發(fā)現(xiàn),從總體上,標(biāo)準(zhǔn)正交化后的數(shù)據(jù)進(jìn)行LVQ分類(lèi)學(xué)習(xí)時(shí)的迭代次數(shù)大概在20左右,此時(shí)的MSE達(dá)到了0,也就是說(shuō)對(duì)于學(xué)習(xí)數(shù)據(jù)的分類(lèi)完全符合要求。而min-max的LVQ神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)次數(shù)在10次左右,所以,僅僅就學(xué)習(xí)的收斂速度而言,min-max的學(xué)習(xí)速度要快于標(biāo)準(zhǔn)正交方式。min-max的性能是標(biāo)準(zhǔn)正交化方式的2倍左右。并且最終都學(xué)到了100%的分類(lèi)能力,兩者都能正確的對(duì)導(dǎo)師數(shù)據(jù)進(jìn)行分類(lèi),如所示:
圖5說(shuō)明對(duì)17個(gè)導(dǎo)師樣本進(jìn)行了學(xué)習(xí),前面已經(jīng)說(shuō)過(guò),前3個(gè)樣本是合格類(lèi)樣本,后面14個(gè)樣本是非合格類(lèi)樣本,系統(tǒng)最終能完全將2類(lèi)數(shù)據(jù)分開(kāi)。但是2種方法所獲取的權(quán)值矩陣不一樣,最終將會(huì)展示完全不同的識(shí)別能力。試驗(yàn)中使用的是matlab2014b軟件,這個(gè)軟件版本沒(méi)有像以前版本那樣自動(dòng)對(duì)數(shù)據(jù)進(jìn)行訓(xùn)練、校驗(yàn)和測(cè)試的比例分配,直接將所有數(shù)據(jù)作為訓(xùn)練數(shù)據(jù)。
4.2? ? 識(shí)別
用23個(gè)樣本進(jìn)行識(shí)別,在設(shè)計(jì)樣本識(shí)別過(guò)程中,將訓(xùn)練用的17個(gè)源樣本加入,新添6個(gè)新樣本,其中倒數(shù)第2個(gè)樣本為合格類(lèi)樣本,其它5條為不合格樣本,這里要注意,對(duì)識(shí)別的原始樣本進(jìn)行標(biāo)準(zhǔn)正交化和min-max規(guī)格化的時(shí)候,使用的均值、方差、min值和max值是訓(xùn)練樣本中的值,不能用識(shí)別樣本中的相關(guān)值,采用sim方法進(jìn)行仿真(識(shí)別)。得到的結(jié)果如表4所示(結(jié)果采用了matlab的vec2ind轉(zhuǎn)換并對(duì)結(jié)果進(jìn)行了轉(zhuǎn)置)。
上述數(shù)據(jù)表明,在專(zhuān)業(yè)可持續(xù)發(fā)展分類(lèi)研究項(xiàng)目中,標(biāo)準(zhǔn)正交化歸一法得到的最終識(shí)別率為100%,而通過(guò)min-max規(guī)約后的神經(jīng)網(wǎng)絡(luò)的識(shí)別能力只有60.8%,前者遠(yuǎn)遠(yuǎn)高于后者的識(shí)別能力,造成這種識(shí)別能力巨大差異的主要原因在于待識(shí)別的樣本基本按照正態(tài)分布,而標(biāo)準(zhǔn)正交化歸一法的一個(gè)隱含的前提就是數(shù)據(jù)如果基本符合正態(tài)分布,那么識(shí)別率是非常高的,不過(guò)準(zhǔn)確率一般來(lái)說(shuō)是達(dá)不到100%的,這可能只是一個(gè)巧合而已,另外,樣本數(shù)目不多,也是一個(gè)很重要的原因。反之,如果樣本不符合正態(tài)分布,那么標(biāo)準(zhǔn)正交化歸一法后的LVQ識(shí)別率也不會(huì)非常高,這是實(shí)際項(xiàng)目中應(yīng)該注意的問(wèn)題。
4.3? ? 總結(jié)
LVQ作為一種集監(jiān)督和無(wú)監(jiān)督學(xué)習(xí)為一體的神經(jīng)網(wǎng)絡(luò),理論上對(duì)樣本沒(méi)有提出歸一化要求,其分類(lèi)或者說(shuō)聚類(lèi)能力是比較強(qiáng)的,但是有相關(guān)文獻(xiàn)已經(jīng)證明當(dāng)樣本特征存在較強(qiáng)關(guān)聯(lián)性時(shí),LVQ的功能不能得到有效發(fā)揮,因此,PCA作為一種降維和特種提取算法,剛好是對(duì)LVQ神經(jīng)網(wǎng)絡(luò)的一種有益補(bǔ)充,二者相得益彰。同時(shí),在處理類(lèi)似問(wèn)題時(shí),樣本特征的選取是非常重要的,好的樣本屬性確實(shí)能反應(yīng)樣本的本質(zhì)特征,通過(guò)學(xué)習(xí)獲得的識(shí)別能力就非常強(qiáng)大;反之,則識(shí)別能力就很弱。
另外,從以上數(shù)據(jù)獲取、規(guī)約數(shù)據(jù)、PCA降維、LVQ分類(lèi)和識(shí)別過(guò)程的結(jié)果可以得出結(jié)論:專(zhuān)業(yè)可持續(xù)發(fā)展的21項(xiàng)指標(biāo)的建立是比較符合實(shí)際分類(lèi)標(biāo)準(zhǔn)的,按照21項(xiàng)標(biāo)準(zhǔn)采集的數(shù)據(jù)經(jīng)過(guò)標(biāo)準(zhǔn)正交化數(shù)據(jù)規(guī)約后,通過(guò)PCA消除特征的相關(guān)性,再經(jīng)過(guò)LVQ網(wǎng)絡(luò)的識(shí)別,能夠?qū)W習(xí)到用于識(shí)別的權(quán)值矩陣,依據(jù)這些權(quán)值矩陣和正交化過(guò)程中獲取的均值和方差就能夠以很高的識(shí)別率判斷專(zhuān)業(yè)的發(fā)展水平。權(quán)值矩陣、均值和方差、轉(zhuǎn)換矩陣構(gòu)成了依據(jù)21項(xiàng)指標(biāo)判斷專(zhuān)業(yè)發(fā)展水平的模型。
參考文獻(xiàn)
[1]夏淑華.高職院校專(zhuān)業(yè)可持續(xù)性發(fā)展思路及實(shí)施措施研究[J].學(xué)理論,2015(30):174-175.
[2]黃海,王竹立.中山醫(yī)科大學(xué)教學(xué)資源庫(kù)的構(gòu)建與實(shí)現(xiàn)[J].中國(guó)醫(yī)學(xué)教育技術(shù),2002,16(3):162-165.
[3]嚴(yán)珍珍,蔣志芳.信息與計(jì)算機(jī)科學(xué)專(zhuān)業(yè)可持續(xù)發(fā)展的探索與實(shí)踐[J].高師理科學(xué)刊,2014,34(2):82-85.
[4]鐘耀平.地方本科院校商務(wù)英語(yǔ)專(zhuān)業(yè)課程設(shè)置調(diào)查和分析[J].寧波工程學(xué)院學(xué)報(bào),2017,29(1):122-127.
[5]譚莉,于春梅.基于PCA_LVQ神經(jīng)網(wǎng)絡(luò)的化工過(guò)程故障診斷[J].工業(yè)控制計(jì)算機(jī),2016,29(11):86-87.
[6]謝建龍,汪亞明.基于PCA算法的運(yùn)動(dòng)員動(dòng)作識(shí)別技術(shù)研究[J].工業(yè)控制計(jì)算機(jī),2014,27(4):138-139.
[7]王民.基于LVQ神經(jīng)網(wǎng)絡(luò)的朱鹮個(gè)體辨識(shí)技術(shù)研究[J].信息通信,2015(9):7-8.
[8]趙學(xué)觀,王秀,李翠玲,等.基于主成分分析及LVQ神經(jīng)網(wǎng)絡(luò)的番茄種子品種識(shí)別[J].浙江農(nóng)業(yè)學(xué)報(bào),2016(8):1379-1380.
[9]謝麗蓉,王晉瑞.基于LVQ_GA_BP神經(jīng)網(wǎng)絡(luò)的煤礦瓦斯涌出量預(yù)測(cè)[J].煤礦安全,2017,48(12):154-156.
Study on Comprehensive Classification of the Sustainable Development ofProfession
Based on PCA-LVQ
XIE Ying? ?ZHU Yuan-sheng? ?YAO Xue-cun? ?MA Wei-cong
(Teaching Affairs Office,Zhejiang Fashion Institute of Technology, Ningbo,Zhejiang 315211,China)
Abstract: In this paper,PCA-LVQ networks are applied to the classification and application ofthe sustainable development of profession and 21 indexes of professional development are obtained through various investigation forms.First,the standard orthogonal normalization method and the min-max normalization method are compared to normalize the original samples.Then the PCA algorithm is used to remove the correlation of the sample features and to reduce the dimension of thedata.Finally,LVQ neural network is used to study the dimension reduced data and the learning result is obtained.The weight matrix is used to identify the new samples and judge the level of professional development.
Key words: principal component analysis;learning vector quantization network;sustainable development of profession