朱付保, 謝利杰, 湯萌萌, 朱顥東
(鄭州輕工業(yè)學(xué)院 計(jì)算機(jī)與通信工程學(xué)院, 鄭州 450002)
基于模糊C-Means的改進(jìn)型KNN分類算法
朱付保, 謝利杰, 湯萌萌, 朱顥東*
(鄭州輕工業(yè)學(xué)院 計(jì)算機(jī)與通信工程學(xué)院, 鄭州 450002)
KNN算法是一種思想簡單且容易實(shí)現(xiàn)的分類算法,但在訓(xùn)練集較大以及特征屬性較多時(shí)候,其效率低、時(shí)間開銷大.針對(duì)這一問題,論文提出了基于模糊C-means的改進(jìn)型KNN分類算法,該算法在傳統(tǒng)的KNN分類算法基礎(chǔ)上引入了模糊C-means理論,通過對(duì)樣本數(shù)據(jù)進(jìn)行聚類處理,用形成的子簇代替該子簇所有的樣本集,以減少訓(xùn)練集的數(shù)量,從而減少KNN分類過程的工作量、提高分類效率,使KNN算法更好地應(yīng)用于數(shù)據(jù)挖掘.通過理論分析和實(shí)驗(yàn)結(jié)果表明,論文所提算法在面對(duì)較大數(shù)據(jù)時(shí)能有效提高算法的效率和精確性,滿足處理數(shù)據(jù)的需求.
模糊C-Means; 聚類; KNN分類
隨著信息時(shí)代的發(fā)展,存儲(chǔ)能力的不斷提升,數(shù)據(jù)增長的速度也日益加快.然而存儲(chǔ)數(shù)據(jù)的結(jié)構(gòu)也變得復(fù)雜多樣,如何在有效的時(shí)間內(nèi)完成數(shù)據(jù)的處理成為當(dāng)前關(guān)注的問題之一.為了在數(shù)據(jù)產(chǎn)生后的有效時(shí)間內(nèi)挖掘出隱藏的信息,實(shí)現(xiàn)信息的價(jià)值,因此在數(shù)據(jù)的處理速度方面有更高的要求.
數(shù)據(jù)挖掘中K最近鄰(k-Nearest Neighbor,KNN)分類算法是一個(gè)理論上比較成熟的方法,也是數(shù)據(jù)分析和預(yù)測(cè)常用到的技術(shù).在數(shù)據(jù)量較小的情況下,KNN分類算法能夠快速有效的實(shí)現(xiàn)數(shù)據(jù)的分類.由于KNN需要存放所有的訓(xùn)練樣本,不需要事先建立模型,有新樣本需要分類時(shí)才創(chuàng)建,當(dāng)數(shù)據(jù)量較大結(jié)構(gòu)復(fù)雜時(shí),算法的時(shí)間開銷大,且精確度有所下降,因此運(yùn)用KNN分類算法進(jìn)行數(shù)據(jù)挖掘面臨著困難.不少學(xué)者提出了改進(jìn)的方法,閆永剛等提出了用MapReduce并行編程模型,同時(shí)結(jié)合KNN 算法自身的特點(diǎn),給出了KNN 算法在Hadoop平臺(tái)下的并行化實(shí)現(xiàn),提高KNN算法處理大數(shù)據(jù)集的能力[1].劉應(yīng)東、?;菝竦忍岢隽颂岢鲆环N基于聚類技術(shù)的小樣本集KNN分類算法,算法通過進(jìn)行聚類形成與各類樣本密度相近的新樣本集,在根據(jù)新樣本集的特征對(duì)輸入的未知樣本對(duì)象進(jìn)行分類標(biāo)識(shí)[2].陳海彬、郭金玉等提出了,提出一種基于改進(jìn)K-means 聚類的KNN 故障檢測(cè)方法,其首先通過改進(jìn)K-means 聚類將原始建模數(shù)據(jù)分成C個(gè)類,然后利用KNN 分別對(duì)每個(gè)類建立模型[3].羅賢鋒、祝勝林等提出基于K-Medoids聚類的改進(jìn)KNN算法為提高海量數(shù)據(jù)的分類效率,其利用K-Medoids算法對(duì)文本訓(xùn)練集進(jìn)行聚類,分成相似度較高的簇,根據(jù)待分類文本與簇的相對(duì)位置,對(duì)文本訓(xùn)練集進(jìn)行裁剪[4].這些方法對(duì)于KNN分類算法的執(zhí)行效率及準(zhǔn)確度都有很大提高.但是學(xué)者們對(duì)于模糊C-means降低KNN分類算法的復(fù)雜度研究的相對(duì)較少.KNN分類算法處理大樣本數(shù)據(jù)效率會(huì)大大降低;當(dāng)最近鄰近分類器K很小時(shí),其對(duì)數(shù)據(jù)噪音很敏感,分類的準(zhǔn)確度降低,因此提出了基于模糊C-means的改進(jìn)型KNN分類算法,通過C-means聚類算法對(duì)樣本數(shù)據(jù)進(jìn)行聚類處理,以減少數(shù)據(jù)分類的工作量,同時(shí)減弱無關(guān)屬性對(duì)分類結(jié)果的干擾.
K最近鄰(k-Nearest Neighbor,KNN)分類算法,是一個(gè)理論上比較成熟的數(shù)據(jù)分類方法.
該方法的思路是:存在一個(gè)樣本數(shù)據(jù)集合,也稱為訓(xùn)練樣本集,并且樣本集中每個(gè)數(shù)據(jù)都存在標(biāo)簽,即事先知道樣本集中每一數(shù)據(jù)與所屬分類的對(duì)應(yīng)關(guān)系.輸入新的待分類的新樣本數(shù)據(jù)時(shí),新的樣本數(shù)據(jù)的每個(gè)特征屬性將和訓(xùn)練樣本集數(shù)據(jù)集中的對(duì)應(yīng)特征值進(jìn)行比較,然后分類算法來提取樣本集中特征最相似數(shù)據(jù)(最鄰近)的分類標(biāo)簽.在進(jìn)行分類時(shí),大多情況只選擇樣本數(shù)據(jù)集的前K個(gè)相似度最高的數(shù)據(jù),然后選擇K個(gè)最相似數(shù)據(jù)集中出現(xiàn)次數(shù)最多的分類作為新的數(shù)據(jù)集分類.
KNN分類算法最初由Cover和Hart提出用于解決文本分類的問題[5].算法是為了將輸入的測(cè)試數(shù)據(jù)點(diǎn)X分類為與該點(diǎn)最接近的K個(gè)鄰近特征分類中出現(xiàn)最多的那個(gè)類別[6].K近鄰算法是一種從測(cè)試數(shù)據(jù)點(diǎn)X開始,經(jīng)過不斷的擴(kuò)展范圍區(qū)域,一直把K個(gè)訓(xùn)練樣本點(diǎn)都包含進(jìn)去才停止,在歸類的過程中,該算法會(huì)把測(cè)試樣本點(diǎn)X歸為距離最近的K個(gè)訓(xùn)練樣本點(diǎn)中出現(xiàn)頻率最大的類別.其中測(cè)試樣本與訓(xùn)練樣本的相似度一般使用歐式距離測(cè)量.
如果將K的取值固定下來,并且訓(xùn)練樣本個(gè)數(shù)能夠趨于無窮大,那么得到所有的K個(gè)鄰近都將收斂于X.如同最近鄰規(guī)則一樣,K個(gè)近鄰的標(biāo)記都是隨機(jī)變量,概率pwi|x,i=1,2,…,K都是相互獨(dú)立的.假設(shè)pwm|x是較大的那個(gè)后驗(yàn)概率,那么根據(jù)貝葉斯分類規(guī)則,則選取類別wm.而最近鄰規(guī)則是以概率pwm|x來選取類別,根據(jù)K近鄰規(guī)則,只有當(dāng)K個(gè)最近鄰中的大多數(shù)的標(biāo)記記為wm,才判定為類別wm[7-8].做出這樣斷定的概率為:
(1)
通常K值越大,選擇類別wm概率也越大.
傳統(tǒng)聚類分析算法把待識(shí)別的樣本對(duì)象嚴(yán)格的劃分到對(duì)應(yīng)的類中,只有“是或否”兩種歸類,按這種算法劃分的界限是分明的.但是對(duì)于現(xiàn)實(shí)應(yīng)用中,其樣本屬性并沒有嚴(yán)格的屬性,它們?cè)谛螒B(tài)和屬性等方面存在中介性,可能同時(shí)滿足兩種對(duì)立的特性,因此傳統(tǒng)的聚類分析算法無法解決這類問題.
為了更好的解決聚類問題,Dunn利用Ruspini提出的模糊劃分的概念,將其推廣應(yīng)用到了模糊聚類上,后來Bezdek又將Dunn的工作推廣到基于模糊度m的一般C-means形式,提出了模糊C均值聚類(FCM),這是一種根據(jù)傳統(tǒng)的聚類的改進(jìn)算法,其目標(biāo)函數(shù)定義如同C-means聚類算法,該算法基于數(shù)據(jù)樣本集的隸屬度,不同于傳統(tǒng)的聚類嚴(yán)格的把樣本單純的歸于某一類中.但是其權(quán)重矩陣W不在是二元矩陣,而是應(yīng)用了模糊理論的概念,以其歸屬程度表示屬于各聚類的程度.
模糊C-means聚類把n個(gè)樣本集合Xi(i=1,2,3,…,n)分成對(duì)應(yīng)的k個(gè)模糊組,計(jì)算出各組對(duì)應(yīng)的聚類中心,使按價(jià)值函數(shù)求出的非相似性系數(shù)最小.模糊C-means聚類算法引用了模糊劃分的概念,為了確定其屬于各個(gè)組的程度,要求算法給每個(gè)樣本數(shù)據(jù)點(diǎn)用0到1之間的值來表示隸屬度[9-10].但是一個(gè)數(shù)據(jù)樣本集的隸屬度總和相加等于1.
(2)
其中,模糊C-means聚類的樣本集合Xi(i=1,2,3,…,n)目標(biāo)函數(shù)公式為:
(3)
模糊C-means聚類算法的具體實(shí)現(xiàn)步驟如下:
1)首先用[0,1]間的隨機(jī)數(shù)來初始化樣本集的隸屬度,生成隸屬矩陣M,使其滿足隸屬度總和相加等于1的條件.
3)根據(jù)價(jià)值函數(shù)公式計(jì)算出其對(duì)應(yīng)的價(jià)值函數(shù).如果計(jì)算出的價(jià)值函數(shù)小于規(guī)定的閾值或者相對(duì)上次價(jià)值函數(shù)值的改變量小于某個(gè)閥值,則算法停止[11-13].
首先把樣本集合經(jīng)過處理分成對(duì)應(yīng)的K個(gè)模糊分組,其分組的理論是根據(jù)樣本集的隸屬度為依據(jù),將其中的模糊子集A中的所有樣本X,為其定義一個(gè)數(shù)值μA(x)∈[0,1]來作為樣本X對(duì)A集合的隸屬度,從而來確定聚類分組的數(shù)目,再根據(jù)劃分的組進(jìn)一步確定每個(gè)分組對(duì)應(yīng)的聚類中心vi(i=1,…,k),進(jìn)而初始化加權(quán)指數(shù)m.其次根據(jù)聚類處理后形成的子簇?cái)?shù)據(jù)分類,在子簇?cái)?shù)據(jù)中按照KNN算法,在子簇集合中找出與測(cè)試樣本相對(duì)接近的所有樣本集合,然后根據(jù)得到的最鄰近列表樣本的多數(shù)類進(jìn)行分類.
算法的實(shí)現(xiàn)基本流程圖如圖1所示.
圖1 本文算法流程圖Fig.1 Flow chart of the proposed algorithm
根據(jù)模糊分組理論,本文算法具體描述如下:
輸入:樣本集D=x1,x2,…,xn,其x1,x2,…,xn為樣本集D的屬性集,C=c1,c2,…,cm是簇?cái)?shù)為K的類別屬性.
輸出:樣本屬性值x的所屬類別號(hào).
1) 待分類的樣本集x1,x2,…,xn進(jìn)行初始化,其中?xi∈R1≤i≤n,設(shè)置分類的種類數(shù)值為k,即劃分成k個(gè)模糊分組.設(shè)置樣本集xi的隸屬度,滿足所有樣本的隸屬度(權(quán)重)的和為1,生成隸屬矩陣M.
2) 根據(jù)模糊聚類中心求解公式,求出各個(gè)分組的中心點(diǎn)vi(i=1,…,k).
3) 根據(jù)價(jià)值函數(shù)公式計(jì)算出其對(duì)應(yīng)的價(jià)值函數(shù),判斷是否收斂,如果不滿足收斂條件則重新構(gòu)造出新的矩陣M,再返回2).
4) 根據(jù)劃分的分組形成的子簇來代替該子簇的樣本集合,對(duì)子簇中的樣本用x,y的形式表示,則具有n個(gè)屬性的樣本為x1,x2…xn,y,y是樣本的類標(biāo)號(hào).
5) 依次計(jì)算出每個(gè)測(cè)試樣本t=x',y'與每個(gè)訓(xùn)練樣本x,y之間的距離d.
6) 按照距離的遞增依次排序.
7) 取出與測(cè)試樣本點(diǎn)距離最小的k個(gè)點(diǎn).
8) 根據(jù)取出的點(diǎn),確定這K個(gè)點(diǎn)所在類別出現(xiàn)的頻率.
9) 根據(jù)計(jì)算的頻率值,返回K個(gè)點(diǎn)中頻率最高的類別作為當(dāng)前點(diǎn)的預(yù)測(cè)分類.
為了驗(yàn)證文中改進(jìn)算法的有效性,以某房地產(chǎn)公司2012年至2016年房屋銷售管理的數(shù)據(jù)為例進(jìn)行實(shí)驗(yàn)對(duì)比,其中數(shù)據(jù)包含客戶信息、房屋信息、銷售人員信息等.實(shí)驗(yàn)的硬件環(huán)境為Intel i7處理器,主頻為3.6 GHz,內(nèi)存為 4 GB;實(shí)驗(yàn)的軟件環(huán)境為Microsoft Windows 7 操作系統(tǒng),Microsoft SQL Server 2005數(shù)據(jù)庫,Eclipse Luna 4.4.2,jdk7.0;算法實(shí)現(xiàn)的語言為java.
本文實(shí)驗(yàn)主要選取房地產(chǎn)公司2012年~2016年銷售信息作為實(shí)驗(yàn)的數(shù)據(jù)集合.各數(shù)據(jù)集的詳細(xì)信息如表1和表2所示.
表1 實(shí)驗(yàn)數(shù)據(jù)集
表2 部分客戶信息
為驗(yàn)證改進(jìn)算法的有效性,實(shí)驗(yàn)設(shè)計(jì)了兩組實(shí)驗(yàn)進(jìn)行對(duì)比.本實(shí)驗(yàn)選取基于K-means的KNN分類算法、基于K-Medoids的KNN算法和本文改進(jìn)算法(基于模糊C-means的KNN分類算法)作比較.本文為改進(jìn)算法了實(shí)現(xiàn)數(shù)據(jù)的分類,根據(jù)需要分類數(shù)據(jù)的業(yè)務(wù)背景,簡化實(shí)驗(yàn)復(fù)雜度,設(shè)定了實(shí)驗(yàn)K值為定值2(是否購買),用以分類來預(yù)測(cè)訪客戶購房行為.算法的性能評(píng)估從算法的執(zhí)行效率和分類結(jié)果的準(zhǔn)確度兩個(gè)方面來衡量,執(zhí)行效率方面比較兩種算法在同一實(shí)驗(yàn)環(huán)境下處理同一組數(shù)據(jù)集的時(shí)間.
第一組實(shí)驗(yàn)選取了數(shù)據(jù)集最大的2015年作為數(shù)據(jù)模型.對(duì)2015年的數(shù)據(jù)集實(shí)驗(yàn)測(cè)試結(jié)果對(duì)比如圖2和圖3所示.
圖2 各算法在2015年數(shù)據(jù)集上的運(yùn)行時(shí)間比較結(jié)果Fig.2 Comparative results of the running time of algorithms on the 2015 data set
圖3 各算法在2015年的數(shù)據(jù)集上的分類準(zhǔn)確度比較結(jié)果Fig.3 Comparative results of the classification accuracy of algorithms on the 2015 data set
第二組實(shí)驗(yàn)使用了2012年~2016年的全部數(shù)據(jù)集.在各個(gè)數(shù)據(jù)集上進(jìn)行分類算法的對(duì)比實(shí)驗(yàn)測(cè)試結(jié)果如表3.
表3 實(shí)驗(yàn)測(cè)試結(jié)果
根據(jù)上述對(duì)5組數(shù)據(jù)分別用兩種算法測(cè)試,其對(duì)比結(jié)果如圖4和圖5所示.
圖4 各算法在各數(shù)據(jù)集上的運(yùn)行時(shí)間比較結(jié)果Fig.4 Comparative results of the running time of algorithms on the data sets
圖5 各算法在各數(shù)據(jù)集上的分類準(zhǔn)確度比較結(jié)果Fig.5 Comparative results of the classification accuracy of algorithms on the data sets
本文改進(jìn)算法與基于K-means的KNN分類算法、基于K-Medoids的KNN算法相比,其主要區(qū)別在于本文算法融入了模糊分組理論,使得每一個(gè)輸入的樣本數(shù)據(jù)不再僅隸屬于特定的聚類,而是以其隸屬程度來表示,對(duì)樣本集進(jìn)行聚類,減少分類過程中的算法的計(jì)算量,提高了算法執(zhí)行的效率,充分的發(fā)揮了該算法處理大樣本集、高維度數(shù)據(jù)的優(yōu)勢(shì).
從圖2~圖5中的實(shí)驗(yàn)對(duì)比結(jié)果來看,對(duì)于第一組實(shí)驗(yàn)采用2015年數(shù)據(jù)集,隨著實(shí)驗(yàn)樣本量的增大,本文提出的改進(jìn)算法比基于K-means的KNN分類算法、基于K-Medoids的KNN算法執(zhí)行效率和分類的準(zhǔn)確率高.對(duì)第二組實(shí)驗(yàn)用了2012年至2016年的五個(gè)數(shù)據(jù)集,本文提出的改進(jìn)算法在執(zhí)行效率方面大都略優(yōu)于其他兩種分類算法,同樣在分類的準(zhǔn)確率方面也高.但對(duì)于小樣本集,如第一組實(shí)驗(yàn)中的小樣本集和第二組實(shí)驗(yàn)中的2016年數(shù)據(jù)集,本算法所執(zhí)行的效率略低于基于K-means的KNN分類算法,主要是由于本文算法在執(zhí)行的過程中進(jìn)行模糊分組聚類需要耗費(fèi)一部分時(shí)間,在樣本量小的情況下,雖然能夠減少分類樣本的數(shù)據(jù)量,但是這種時(shí)間的減少在整體效果上體現(xiàn)不明顯,另一方面改進(jìn)算法準(zhǔn)確率高于基于K-means的KNN分類算法.對(duì)于2015年的較大數(shù)據(jù)集處理上,本算法不僅能在準(zhǔn)確率上有所提高,而且在執(zhí)行分類能力方面高于基于K-means的KNN分類算法.結(jié)果表明,相同條件下,基于模糊C-means的KNN分類算法比基于K-means的KNN分類算法運(yùn)行時(shí)間短,在執(zhí)行大樣本集分類時(shí)效率方面優(yōu)于基于K-means的KNN分類算法,且算法分類準(zhǔn)確率更高;本文改進(jìn)后的算法與基于K-Medoids的KNN算法相比較執(zhí)行效率略高,由于基于K-Medoids的KNN算法需要得逐步計(jì)算直到類收斂,消耗一部分時(shí)間.通過兩組實(shí)驗(yàn)對(duì)比,本文提出的改進(jìn)算法對(duì)比之前兩種算法在分類性能均有所提高.
本文針對(duì)KNN分類算法在處理數(shù)據(jù)量大、維度高的樣本效率低的問題,提出了一種基于模糊C-means的KNN分類算法,利用樣本集隸屬程度的特性,對(duì)樣本集進(jìn)行聚類,然后根據(jù)聚類形成的子簇來代替該子簇的所有樣本集,從而減少對(duì)樣本集進(jìn)行分類處理的數(shù)據(jù)量,提高算法的運(yùn)算效率.通過對(duì)不同的數(shù)據(jù)集進(jìn)行測(cè)試表明,本文提出的算法有利于提高大樣本集的分類的效率,降低運(yùn)算時(shí)間的消耗,同時(shí)也提高了分類結(jié)果的準(zhǔn)確率.
[1] 閆永剛, 馬廷淮, 王 建. KNN分類算法的MapReduce并行化實(shí)現(xiàn)[J]. 南京航空航天大學(xué)學(xué)報(bào), 2013,45(4):550-555.
[2] 劉應(yīng)東, ?;菝? 基于k-最近鄰圖的小樣本KNN分類算法[J]. 計(jì)算機(jī)工程, 2011,37(9):198-200.
[3] 陳海彬, 郭金玉, 謝彥紅. 基于改進(jìn)K-means聚類的kNN故障檢測(cè)研究[J]. 沈陽化工大學(xué)學(xué)報(bào), 2013,27(1):69-73.
[4] 羅賢鋒, 祝勝林, 陳澤健, 等. 基于K-Medoids聚類的改進(jìn)KNN文本分類算法[J]. 計(jì)算機(jī)工程與設(shè)計(jì), 2014,35(11):3864-3867,3937.
[5] 耿麗娟, 李星毅. 用于大數(shù)據(jù)分類的KNN算法研究[J]. 計(jì)算機(jī)應(yīng)用研究, 2014,31(5):1342-1344,1373.
[6] BHATTACHARYA G, GHOSH K, CHOWDHURY A S. An affinity-based new local distance function and similarity measure for KNN algorithm [J]. Pattern Recognition Letters, 2012,33(3):356-363.
[7] SU M Y. Using clustering to improve the KNN-based classifiers for online anomaly network traffic identification [J]. Journal of Network & Computer Applications, 2011,34(2):722-730.
[8] 夏竹青. 基于不均衡數(shù)據(jù)集和決策樹的入侵檢測(cè)分類算法的研究[D]. 安徽:合肥工業(yè)大學(xué), 2010.
[9] GAO Y, GAO F. Edited AdaBoost by weighted kNN [J]. Neurocomputing, 2010,73(18):3079-3088.
[10] 王永貴, 李鴻緒, 宋 曉. MapReduce模型下的模糊C均值算法研究[J]. 計(jì)算機(jī)工程, 2014,40(10):47-51.
[11] 文傳軍, 汪慶淼, 詹永照. 均衡模糊C均值聚類算法[J]. 計(jì)算機(jī)科學(xué), 2014,41(8):250-253.
[12] 周世波, 徐維祥, 柴 田. 基于數(shù)據(jù)加權(quán)策略的模糊C均值聚類算法[J]. 系統(tǒng)工程與電子技術(shù), 2014,36(11):2314-2319.
[13] HAVENS T C, BEZDEK J C, LECKIE C, et al. Fuzzy C-means algorithms for very large data [J]. IEEE Transactions on Fuzzy Systems, 2012,20(6):1130-1146.
ImprovedKNNclassificationalgorithmbasedonFuzzyC-Means
ZHU Fubao, XIE Lijie, TANG Mengmeng, ZHU Haodong
(School of Computer and Communication Engineering, Zhengzhou University of Light Industry, Zhengzhou 450002, China)
KNN algorithm is a classification algorithm that is simple and easy to implement, but when the training set is rather big and features are more, its efficiency is low with which takes more time. To solve this problem, an improved KNN classification algorithm was proposed based on Fuzzy C-Means. The improved algorithm introduces the theory of Fuzzy C-Means based on the traditional KNN classification algorithm. Through processing the sample data clustering, the formation of sub clusters substitutes all the sample set of the sub cluster, which helps reduce the number of training set. Thereby the workload of the KNN classification process is reduced, with the classification efficiency improved and the KNN algorithm better applied in data mining. The theoretical analysis and experimental results show that this method is able to significantly improve the efficiency and accuracy of the algorithm when dealing with large data, meeting the demand of processing data.
Fuzzy C-Means; clustering; KNN classification
2017-02-22.
河南省科技攻關(guān)項(xiàng)目(162102210146;162102310579);河南省教育廳科學(xué)技術(shù)研究重點(diǎn)項(xiàng)目(13A52036); 河南省高等學(xué)校青年骨干教師資助計(jì)劃項(xiàng)目(2014GGJS-084); 鄭州輕工業(yè)學(xué)院校級(jí)青年骨干教師培養(yǎng)對(duì)象資助計(jì)劃項(xiàng)目(XGGJS02); 鄭州輕工業(yè)學(xué)院博士科研基金資助項(xiàng)目(2010BSJJ038).
*通訊聯(lián)系人. E-mail: zhuhaodong80@163.com.
10.19603/j.cnki.1000-1190.2017.06.005
1000-1190(2017)06-0754-06
TP311.13
A