陳維民
摘要:在多維分析領(lǐng)域,自組織映射SOM算法是一種無(wú)導(dǎo)師學(xué)習(xí)方法,具有降維,自組織的,可視化等特性,由于SOM算法計(jì)算獲勝神經(jīng)元采用歐式距離的原因,忽略了不同維度對(duì)于相似度的貢獻(xiàn),針對(duì)該不足,該文采用變異系數(shù)對(duì)維度權(quán)重進(jìn)行研究和改進(jìn)SOM算法。實(shí)踐證明:相比沒(méi)有維度權(quán)重的SOM算法,采用帶有指標(biāo)權(quán)重的SOM算法具有更好的準(zhǔn)確率和凝聚度。
關(guān)鍵詞:降維;自組織映射(SOM);變異系數(shù);權(quán)值更新
中圖分類號(hào):TP311 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1009-3044(2017)32-0122-04
Research on SVM Algorithm Based on Variation Coefficient in Multidimensional Analysis
CHEN Wei-min
(North China University of Technology, Beijing 100144, China)
Abstract: In the field of multidimensional analysis, the self-organizing mapping SOM algorithm is a kind of no-tutor learning method, which has the characteristics of dimension reduction, self-organization and visualization. Because the SOM algorithm calculates the distance of the winning neurons using Euclidean distance, This paper uses the coefficient of variation to study the dimension weight and improve the SOM algorithm. It is proved that compared with the SOM algorithm without dimension weight, the SOM algorithm with the index weight has better accuracy and cohesion.
Key words: dimensionality; Self-Organizing Map (SOM); variation coefficient; weight update
進(jìn)入到移動(dòng)互聯(lián)網(wǎng)時(shí)代,信息的產(chǎn)生和流動(dòng)瞬息萬(wàn)變,產(chǎn)生了無(wú)數(shù)復(fù)雜的數(shù)據(jù),如何將數(shù)據(jù)進(jìn)行分析并可視化也面臨新的挑戰(zhàn)。多維分析中,二維或三維的數(shù)據(jù)通常可以采用常規(guī)的可視化方法如折線圖,餅圖等,針對(duì)多維數(shù)據(jù),散點(diǎn)圖,表格透鏡,平行坐標(biāo)等更適合多維數(shù)據(jù)的展示,但是當(dāng)數(shù)據(jù)維度非常高(10維),各類可視化方法都無(wú)法清晰的表示所有的數(shù)據(jù)細(xì)節(jié),因此通常需要采用降維方法把多維數(shù)據(jù)映射至低維。
降維方法在神經(jīng)網(wǎng)絡(luò)領(lǐng)域中,典型的就是自組織神經(jīng)網(wǎng)絡(luò)(Self-organizing feature Map SOM),它是一種具有降維,聚類,可視化的無(wú)監(jiān)督學(xué)習(xí)算法,通過(guò)模擬人腦對(duì)信號(hào)處理的特點(diǎn)而發(fā)展起來(lái)的一種人工神經(jīng)網(wǎng)絡(luò)。SOM算法將高維的數(shù)據(jù)映射到網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)上,通常是正方形或者六邊形來(lái)映射數(shù)據(jù),而網(wǎng)絡(luò)的遠(yuǎn)近用來(lái)表示數(shù)據(jù)的相似程度,達(dá)到了降維并且聚類的效果。
1 當(dāng)前研究現(xiàn)狀
無(wú)監(jiān)督學(xué)習(xí)到發(fā)展到現(xiàn)在還不成熟,SOM算法還存在一些局限性:SOM算法聚類中可能會(huì)出現(xiàn)一些始終不能獲勝的“死神經(jīng)元”和經(jīng)常獲勝的被過(guò)度利用的神經(jīng)元;需要預(yù)先給定網(wǎng)絡(luò)單元數(shù)目及其結(jié)構(gòu)形狀;網(wǎng)絡(luò)連接權(quán)的初始狀態(tài),算法中的參數(shù)選擇對(duì)網(wǎng)絡(luò)的收斂有較大的影響等。
為此,一些學(xué)者提出了不同的改進(jìn)算法,來(lái)克服這些缺點(diǎn)。貝葉斯正則化的SOM聚類算法是將SOM權(quán)值更新公式中加入經(jīng)過(guò)貝葉斯推理得到的懲罰項(xiàng),防止過(guò)度擬合,提高了聚類的凝聚度[1]。TGSOM[2],GCS[3]等算法可以在訓(xùn)練中動(dòng)態(tài)改變神經(jīng)網(wǎng)絡(luò)的形狀和單元數(shù)目。由于SOM算法對(duì)于輸入模式可以自動(dòng)聚類,因此很多學(xué)者將SOM算法與其他算法結(jié)合進(jìn)行研究:基于SOM算法與粒子群優(yōu)化方法(PSO)相結(jié)合的地震分析技術(shù)是先利用SOM算法的拓?fù)浣Y(jié)構(gòu)的特點(diǎn),將地震數(shù)據(jù)進(jìn)行壓縮,然后通過(guò)粒子群的全局尋優(yōu)能力來(lái)優(yōu)化Kmeans聚類的效果,算法即把數(shù)據(jù)進(jìn)行了降維,又得到了較準(zhǔn)確的全局解,兼顧了計(jì)算效率和精度[4];基于SOM-DMB-PAM混合聚類算法首先利用SOM算法對(duì)數(shù)據(jù)進(jìn)行降維,然后使用圍繞中心點(diǎn)的切分(PAM)對(duì)降維后的數(shù)據(jù)聚類并用Davies-Bouldin指標(biāo)標(biāo)定最佳的聚類的個(gè)數(shù)以保證聚類效果,算法對(duì)聚類的個(gè)數(shù)進(jìn)行了優(yōu)化,減少了聚類中個(gè)數(shù)指定的盲目性[5]。但是針對(duì)在SOM計(jì)算神經(jīng)元相似度時(shí),并沒(méi)有考慮維度權(quán)重對(duì)于相似度的影響,這樣就會(huì)導(dǎo)致所有的維度默認(rèn)權(quán)重是一樣的,顯然這是不合理的,有學(xué)者采用加權(quán)歐式距離改進(jìn)kmeans方法[6],也有通過(guò)AHP層次分析法來(lái)進(jìn)行指標(biāo)評(píng)價(jià)[6],但是整個(gè)過(guò)程不是完全的智能化,指標(biāo)評(píng)價(jià)矩陣需要人工建立。
針對(duì)上述問(wèn)題,本文分析SOM算法降維聚類的過(guò)程,提出了基于變異系數(shù)的SOM算法,即在維度進(jìn)行標(biāo)準(zhǔn)化處理的基礎(chǔ)上,增加了變異系數(shù)作為維度的權(quán)重,從而將維度權(quán)重引入到神經(jīng)元相似度計(jì)算中。
2 SOM算法及其改進(jìn)
2.1 相關(guān)知識(shí)
SOM網(wǎng)絡(luò)結(jié)構(gòu)一般有兩層,由輸入層和競(jìng)爭(zhēng)層組成,競(jìng)爭(zhēng)層也就是輸出層,屬于單層神經(jīng)網(wǎng)絡(luò)。輸入層神經(jīng)元數(shù)為n,n為樣本的維數(shù),輸出層為 個(gè)神經(jīng)元組成的網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu),神經(jīng)元與周圍的神經(jīng)元進(jìn)行相連來(lái)表明其網(wǎng)絡(luò)關(guān)系,而輸入層的神經(jīng)元與輸出層的每個(gè)神經(jīng)元之間以權(quán)值w相連接 。endprint
SOM 網(wǎng)絡(luò)能將任意維輸入模式在輸出層映射成一維或二維圖形,并保持其拓?fù)浣Y(jié)構(gòu)不變;網(wǎng)絡(luò)通過(guò)對(duì)輸入模式的反復(fù)學(xué)習(xí)可以使權(quán)重向量空間與輸入模式的概率分布趨于一致,即概率保持性。網(wǎng)絡(luò)的競(jìng)爭(zhēng)層各神經(jīng)元競(jìng)爭(zhēng)對(duì)輸入模式的響應(yīng)機(jī)會(huì),獲勝神經(jīng)元有關(guān)的各權(quán)重朝著更有利于它競(jìng)爭(zhēng)的方向調(diào)整。
SOM算法的具體實(shí)現(xiàn)過(guò)程:
1)神經(jīng)元初始化:將輸出層神經(jīng)元賦小隨機(jī)數(shù)并進(jìn)行歸一化處理,得到[Wj] ,j=1,2,…[m2],[m2]為目標(biāo)輸出神經(jīng)元個(gè)數(shù),學(xué)習(xí)率 賦初始值,迭代次數(shù)賦初始值;
2)接受輸入:從輸入樣本總體中隨機(jī)取得一個(gè)輸入向量[Xi] ,i=1,2,….p,p為樣本的個(gè)數(shù);
3)競(jìng)爭(zhēng)學(xué)習(xí):尋找獲勝神經(jīng)元,使用相似性計(jì)算公式計(jì)算輸入向量[Xi]與所有的神經(jīng)元[Wj],j=1,2,…[m2]的相似性,其中相似性最大的神經(jīng)元為獲勝神經(jīng)元;
4)權(quán)值更新:根據(jù)權(quán)值更新公式將獲勝神經(jīng)元領(lǐng)域范圍內(nèi)的神經(jīng)元的權(quán)值進(jìn)行更新;
5)調(diào)整學(xué)習(xí)率:根據(jù)當(dāng)前的迭代次數(shù)遞減學(xué)習(xí)率;
6)迭代:檢查學(xué)習(xí)率是否衰減到0或者某個(gè)特定的正小數(shù),沒(méi)有滿足就回到第二個(gè)步驟繼續(xù)迭代;
自組織映射SOM算法最主要有兩個(gè)過(guò)程:1)神經(jīng)元通過(guò)競(jìng)爭(zhēng)學(xué)習(xí)得到最佳匹配神經(jīng)元為獲勝神經(jīng)元;2)權(quán)值更新。
競(jìng)爭(zhēng)學(xué)習(xí):輸出層神經(jīng)元的獲勝是通過(guò)計(jì)算輸入層樣本數(shù)據(jù)與競(jìng)爭(zhēng)層神經(jīng)元的相似進(jìn)行計(jì)算的,最大相似度的為獲勝神經(jīng)元,如圖1中輸入樣本的維度為[x1],……[xn],而與1輸出神經(jīng)元與樣本相連的權(quán)值為[w11],……[wn1],因此輸入樣本轉(zhuǎn)化為[Xi={x1,x2....xn}],輸出神經(jīng)元轉(zhuǎn)化為[Wi={wx11,wx21....wxn1}],輸入樣本與輸出神經(jīng)元的相似度計(jì)算就轉(zhuǎn)化為[Wi]與[Xi]的計(jì)算,而獲勝神經(jīng)元就是[Xi]與[Xi],i=1,……m中相似度最大的神經(jīng)元。向量相似度的計(jì)算常用的方式有歐式距離,標(biāo)準(zhǔn)化歐式距離和余弦相似度等。
權(quán)值更新:當(dāng)?shù)玫将@勝神經(jīng)元I后,權(quán)向量應(yīng)該得到相應(yīng)的修改以保證整個(gè)學(xué)習(xí)過(guò)程是收斂的,而且并不僅僅是獲勝神經(jīng)元進(jìn)行調(diào)整,每個(gè)獲勝神經(jīng)元周圍的神經(jīng)元都應(yīng)該進(jìn)行響應(yīng)的修正,因此影響權(quán)值更新的參數(shù)有:迭代次數(shù),神經(jīng)元距離,學(xué)習(xí)率,權(quán)向量更新權(quán)值公式如下:
[wj(n+1)=wj(n)+η(n)λij(n)(xz(n)-wi(n))] (1)
公式(1)中[wj(n)]為當(dāng)前j神經(jīng)元第n次迭代的權(quán)值,[η(n)]是學(xué)習(xí)率,[λij(n)]為領(lǐng)域函數(shù),[(xz(n)-wi(n))]是i獲勝神經(jīng)元與z輸入樣本之間的差距;
公式(1)中[η(n)]是第n次迭代的學(xué)習(xí)率:為了使收斂更快,學(xué)習(xí)率開(kāi)始的時(shí)候應(yīng)該很大,當(dāng)神經(jīng)元權(quán)值調(diào)整到大概位置時(shí),進(jìn)行小學(xué)習(xí)率的調(diào)整,[β]為初始學(xué)習(xí)率,一般為1;
[η(n)=β(1-log(n)log(max))] (2)
公式(1)中[λij(n)]優(yōu)勝領(lǐng)域:根據(jù)生物學(xué)上所啟發(fā)的神經(jīng)網(wǎng)絡(luò)模型,空間上相鄰的神經(jīng)元的相關(guān)性學(xué)習(xí)可以通過(guò)側(cè)反饋與周圍神經(jīng)元的相互作用來(lái)實(shí)現(xiàn),為此圍繞獲勝i神經(jīng)元設(shè)定的一個(gè)領(lǐng)域半徑,對(duì)于優(yōu)勝領(lǐng)域內(nèi)的所有的神經(jīng)元按照距離神經(jīng)元的距離遠(yuǎn)近不同程度調(diào)整神經(jīng)元權(quán)值,同時(shí)優(yōu)勝領(lǐng)域本身隨著迭代次數(shù)的增加,半徑也不斷減少到半徑為0,這樣會(huì)使權(quán)值調(diào)整的過(guò)程是收斂的,常見(jiàn)的領(lǐng)域的形狀有正方形,六邊形或菱形,而對(duì)于其調(diào)整的神經(jīng)元的權(quán)值也與神經(jīng)元之間的間距有關(guān)系的,距離獲勝神經(jīng)元近的神經(jīng)元可以調(diào)整更大的權(quán)值,為此周圍神經(jīng)元與獲勝神經(jīng)元之間的距離是一個(gè)影響因素,對(duì)應(yīng)不同迭代次數(shù)n下的ij神經(jīng)元的領(lǐng)域公式采用高斯函數(shù):
[λij(n)=exp(-d2ij2η(n))] (3)
公式(3)中[dij]是i神經(jīng)元與j神經(jīng)元之間的距離,常用的方法是歐式距離,[η(n)]為學(xué)習(xí)率,高斯函數(shù)中隨著迭代次數(shù)的增加,學(xué)習(xí)率在減少,獲勝神經(jīng)元的優(yōu)勝領(lǐng)域也不斷的縮小。
2.2 基于變異系數(shù)的SOM算法
在傳統(tǒng)SOM算法中,獲勝神經(jīng)元的計(jì)算方式是采用歐式距離最小,也就是默認(rèn)樣本維度的權(quán)重是一樣的[9],然而不同的維度對(duì)于樣本的相似度計(jì)算的貢獻(xiàn)是不一樣的,通常而言針對(duì)兩個(gè)個(gè)體具有n個(gè)維度的特征,即[x={x1,x2,...xn}]與[y={y1,y2,...yn}],度量?jī)蓚€(gè)個(gè)體的相似程度常用方法有歐式距離,標(biāo)準(zhǔn)化歐式距離,余弦相似度等。
歐式距離屬于距離度量,它計(jì)算歐式空間中兩個(gè)個(gè)體的絕對(duì)距離,兩個(gè)個(gè)體越相似其在歐式空間中的距離也就越近,但是計(jì)算的是各維度特征值下的絕對(duì)距離,并沒(méi)有考慮量綱,因而在某些情況下歐式距離會(huì)失效。公式如下:
[dxy=k=1n(xk-yk)2] (4)
余弦相似度屬于相似度度量,比較的是兩個(gè)向量在方向上的相似性,當(dāng)兩個(gè)向量的夾角越小,其夾角余弦也就越大,對(duì)于兩個(gè)向量越相似,但其只能比較個(gè)體之間在維之間的差異,沒(méi)法衡量每個(gè)維數(shù)值的差異。公式如下:
[sim(x,y)=cosθ=x·yx·y] (5)
標(biāo)準(zhǔn)化歐式距離是為了解決歐式距離的缺點(diǎn)的提出的方法,它將個(gè)體的每個(gè)向量都標(biāo)準(zhǔn)化到均值和方差都相等,均值為0,方差為1,那標(biāo)準(zhǔn)化過(guò)程公式如下:
[X?=X-ms] (6)
其中[m]為原向量的均值,[s]為方差,經(jīng)推導(dǎo)得標(biāo)準(zhǔn)化歐式距離公式如下:
[dxy=k=1n(xk-yksk)2] (7)
根據(jù)以上的介紹可以得出歐式距離計(jì)算的是絕對(duì)距離,個(gè)體之間的絕對(duì)差異,余弦相似度從方向上區(qū)分差異,均未考慮到維度的權(quán)值對(duì)相似性計(jì)算的影響[10],標(biāo)準(zhǔn)化歐式距離中方差的倒數(shù)可以算做一種維度的權(quán)值,因此可以算作一種衡量維度權(quán)值的方法。endprint
對(duì)于數(shù)據(jù)的不同維度的權(quán)重,大權(quán)重維度對(duì)于數(shù)據(jù)的相似性越重要,也會(huì)使數(shù)據(jù)的聚類的凝聚性越高,聚類簇間距也就越大,數(shù)據(jù)的離散程度也就越大,因此可以采用數(shù)據(jù)指標(biāo)的離散程度來(lái)表示數(shù)據(jù)指標(biāo)的權(quán)值系數(shù),離散程度越大,單位的差距越大,單位的權(quán)值系數(shù)也越大。
統(tǒng)計(jì)中,我們一般采用平均數(shù)來(lái)客觀表現(xiàn)總體中單一數(shù)據(jù)指標(biāo)的水平,但是平均數(shù)反映的是樣本各指標(biāo)的平均水平,并不能反映指標(biāo)的離散程度,常用的離散程度的計(jì)算方法有標(biāo)準(zhǔn)差和變異系數(shù),但是由于標(biāo)準(zhǔn)差是以算術(shù)平均值為中心,反映的是一個(gè)總體中所有指標(biāo)的離散程度,是絕對(duì)指標(biāo)系數(shù),當(dāng)用其對(duì)不同總體對(duì)比時(shí),缺乏可比性,而變異系數(shù)法是一種客觀賦權(quán)法,在統(tǒng)計(jì)學(xué)中,常用與評(píng)價(jià)數(shù)據(jù)之間的差異。變異系數(shù)越大的指標(biāo),權(quán)重系數(shù)就越大[11],因此可以使用變異系數(shù)來(lái)衡量維度權(quán)重,變異系數(shù)公式如下。
[v=σx] (8)
式(8)中,V代表變異系數(shù),[σ]代表標(biāo)準(zhǔn)差,[x]代表算術(shù)平均值。
2.3 算法實(shí)現(xiàn)
為了利用SOM算法的領(lǐng)域函數(shù)的特性,降維映射一般結(jié)果是在二維的拓?fù)浣Y(jié)構(gòu)中,其拓?fù)浣Y(jié)構(gòu)一般定義的范圍不限于最終聚類的個(gè)數(shù),應(yīng)該首先使用SOM算法對(duì)數(shù)據(jù)進(jìn)行一次“粗聚類”,然后使用其他的方法對(duì)降維后的數(shù)據(jù)進(jìn)行再一次的聚類[12],Kmeans算法簡(jiǎn)單效率高[13],本論文采用Kmeans算法進(jìn)行再次聚類得到聚類結(jié)果,算法流程圖如圖2所示。
基于變異系數(shù)的SOM算法描述:
1)輸出層神經(jīng)元初始化:對(duì)神經(jīng)元權(quán)值賦小隨機(jī)數(shù)。
2)樣本歸一化:由于指標(biāo)的類型不同,其量級(jí)和量綱是由差異的,因此對(duì)指標(biāo)采用指標(biāo)極值標(biāo)準(zhǔn)化法[14]對(duì)樣本無(wú)量綱化處理;
3)樣本輸入:是在接受輸入步驟中對(duì)于取得的輸入模式的不同的維度賦予不同的變異系數(shù):
4)競(jìng)爭(zhēng)學(xué)習(xí),學(xué)習(xí)率調(diào)整;
5)迭代:學(xué)習(xí)率為0或者到某一正整數(shù);
6)Kmeans聚類:使用Kmeans 對(duì)降維后的二維數(shù)據(jù)進(jìn)行聚類;
3 實(shí)驗(yàn)與分析
實(shí)驗(yàn)環(huán)境:操作系統(tǒng)為Windows 7 (64位);處理器為Intel(R) Core(TM) i7-3770 CPU @ 3.40GHz ;內(nèi)存8 G;編程語(yǔ)言JAVA(JDK1.7)。
本文采用iris數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),iris數(shù)據(jù)集有4個(gè)維度,分別為花萼長(zhǎng)度,花萼寬度,花瓣長(zhǎng)度,花瓣寬度, 取自3個(gè)種類,每個(gè)種類取50個(gè)樣本,共150個(gè)樣本,其中花瓣長(zhǎng)度和寬度兩個(gè)維度對(duì)于樣本的區(qū)分度比較大,然后采用“變異系數(shù)”分別進(jìn)行計(jì)算,得到樣本維度權(quán)值系數(shù)為:0.141,0.141,0.467,0.634.從計(jì)算結(jié)果可以看出,花瓣的長(zhǎng)度和寬度的權(quán)值系數(shù)較大,表明用變異系數(shù)的合理性。
為了將SOM算法的聚類結(jié)果進(jìn)行可視化,因此首先使用SOM算法對(duì)數(shù)據(jù)進(jìn)行“粗聚類”,然后針對(duì)聚類的二維的結(jié)果采用Kmeans來(lái)進(jìn)行二次聚類,從而將數(shù)據(jù)可視化,同時(shí)也可以對(duì)SOM算法的聚類效果進(jìn)行有效評(píng)價(jià)[15],評(píng)價(jià)方法采用以下幾個(gè)參數(shù);
準(zhǔn)確率(Precision):正確結(jié)果的數(shù)量除以所有返回結(jié)果的數(shù)量;
類內(nèi)間距:又叫組內(nèi)相關(guān),它描述了同一組中單位的強(qiáng)度如何相似,表明類的凝聚性,常見(jiàn)的計(jì)算方式是組內(nèi)所有點(diǎn)兩兩之間的平均距離;
類間距離:聚類結(jié)果中類與類之間的聚類,常見(jiàn)的測(cè)度方法有組內(nèi)平均連接距離,重心距離,離差平方和法等;
表1是分別使用歐式距離,標(biāo)準(zhǔn)歐式距離,加入變異系數(shù)的的三種SOM算法的測(cè)試結(jié)果,實(shí)驗(yàn)數(shù)據(jù)是不同算法使用Iris數(shù)據(jù)集降維聚類10次取得的平均值,類內(nèi)間距和類間間距是在每一次實(shí)驗(yàn)中計(jì)算的三個(gè)聚類簇之間的類內(nèi)間距和類間間距的平均值。
結(jié)果分析:對(duì)比不同算法下Iris降維聚類結(jié)果,基于變異系數(shù)的SOM算法,從準(zhǔn)確率上,比其他算法準(zhǔn)確率提高了3%,從類間間距來(lái)看,基于變異系數(shù)的SOM算法的聚類簇的類間間距相對(duì)較大,說(shuō)明聚類簇之間的差異性也大,從類內(nèi)間距來(lái)看,基于變異系數(shù)的SOM比其他的算法類內(nèi)間距小,因此聚類簇聚有更高的類內(nèi)相似性,凝聚度也更高。
4 結(jié)束語(yǔ)
本文針對(duì)SOM算法計(jì)算相似度的方法的不足進(jìn)行優(yōu)化,采用了變異系數(shù)作為維度的權(quán)值系數(shù),從而將維度權(quán)重加入到了相似度距離計(jì)算中,同時(shí)針對(duì)SOM算法的應(yīng)用特點(diǎn),將SOM算法與Kmeans結(jié)合,在完全無(wú)監(jiān)督的情況下聚類效果得到了提升。實(shí)驗(yàn)結(jié)果表明,與傳統(tǒng)SOM算法和標(biāo)準(zhǔn)歐式距離SOM算法相比,加入變異系數(shù)的SOM算法的降維聚類的準(zhǔn)確率和聚類凝聚度都有所提高。
參考文獻(xiàn):
[1] 陳萬(wàn)振, 張予瑤, 蘇一丹, 等. 貝葉斯正則化的SOM聚類算法[J]. 計(jì)算機(jī)工程與設(shè)計(jì), 2017(1): 127-131.
[2] 王莉, 王正歐. TGSOM:一種用于數(shù)據(jù)聚類的動(dòng)態(tài)自組織映射神經(jīng)網(wǎng)絡(luò)[J]. 電子與信息學(xué)報(bào), 2003(3): 313-319.
[3] Jung-Hua Wang, Wei-Der Sun. On the Characteristics of Growing Cell Structures(GCS) Neural Network[J]. Neural Processing Letters, 1999(2).
[4] 張, 鄭曉東, 李勁松, 等. 基于SOM和PSO的非監(jiān)督地震相分析技術(shù)[J]. 地球物理學(xué)報(bào), 2015(9): 3412-3423.
[5] 胡曉雪, 趙嵩正, 吳楠. 基于SOM-DB-PAM混合聚類算法的電力客戶細(xì)分[J]. 計(jì)算機(jī)工程, 2015(10): 295-301,308.
[6] 王繼重. 基于Hadoop和Mahout的K-Means算法設(shè)計(jì)與實(shí)現(xiàn)[D]. 大連: 大連海事大學(xué), 2016.
[7] 高飛. 基于計(jì)算智能技術(shù)的精益物流信息化平臺(tái)的研究與實(shí)現(xiàn)[D]. 杭州: 浙江理工大學(xué), 2016.
[8] 劉幫莉, 馬玉鑫, 侍洪波. 基于加權(quán)距離鄰域選取策略的多模態(tài)過(guò)程故障檢測(cè)[J]. 華東理工大學(xué)學(xué)報(bào):自然科學(xué)版, 2015(2): 192-197+215.
[9] 陳大力, 沈巖濤, 謝檳竹, 等. 基于余弦相似度模型的最佳教練遴選算法[J]. 東北大學(xué)學(xué)報(bào):自然科學(xué)版, 2014(12): 1697-1700.
[10] 王星華, 陳卓?jī)?yōu), 彭顯剛. 一種基于雙層聚類分析的負(fù)荷形態(tài)組合識(shí)別方法[J]. 電網(wǎng)技術(shù), 2016(5): 1495-1501.
[11] 王蕓. 基于變異系數(shù)權(quán)重的灰色關(guān)聯(lián)投影法在水質(zhì)評(píng)價(jià)中的應(yīng)用[J]. 地下水, 2010, 32(2): 61-63.
[12] Shen Z, Wei J, Ma K L,et al. Visual cluster exploration of web clickstream data[C]. Visual Analytics Science and Technology. IEEE, 2012: 3-12.
[13] 張發(fā)明. 一種融合SOM與K-means算法的動(dòng)態(tài)信用評(píng)價(jià)方法及應(yīng)用[J]. 運(yùn)籌與管理, 2014(6): 186-192.
[14] 賈鳳梅, 郭盛昌, 柏金鳳, 等. 黑龍江省生態(tài)環(huán)境質(zhì)量動(dòng)態(tài)變化及建議[J]. 湖南農(nóng)業(yè)科學(xué), 2014(4): 60-62.
[15] 陳國(guó)玉. 基于SOM-K-means的天涯BBS水軍帖的聚類分析[D]. 武漢: 華中科技大學(xué), 2013.endprint