謝 科
(阿壩師范高等??茖W(xué)校計(jì)算機(jī)科學(xué)系,中國(guó) 汶川 623002)
融合協(xié)同訓(xùn)練和兩層主動(dòng)學(xué)習(xí)策略的SVM分類方法
謝 科*
(阿壩師范高等??茖W(xué)校計(jì)算機(jī)科學(xué)系,中國(guó) 汶川 623002)
針對(duì)當(dāng)前主動(dòng)學(xué)習(xí)策略直接用于SVM分類器時(shí)存在的泛化能力不強(qiáng)的問題,結(jié)合協(xié)同訓(xùn)練思想,提出了兩層主動(dòng)學(xué)習(xí)策略(TLAC),并用于SVM深層挖掘未標(biāo)記樣本數(shù)據(jù)的分布知識(shí).實(shí)驗(yàn)表明,該TLAC策略能夠合理的指定TSVM算法中的正樣本數(shù),在典型指標(biāo)測(cè)試中都表現(xiàn)出了一定的優(yōu)越性.
協(xié)同訓(xùn)練;主動(dòng)學(xué)習(xí);貝葉斯網(wǎng)絡(luò);支持向量機(jī)
在傳統(tǒng)的學(xué)習(xí)機(jī)技術(shù)中,學(xué)習(xí)器的學(xué)習(xí)主要針對(duì)帶有標(biāo)記的樣本數(shù)據(jù),而且通過模擬建立的模型主要用于對(duì)有標(biāo)記的樣本數(shù)據(jù)集進(jìn)行數(shù)據(jù)的預(yù)測(cè)和推斷,并在分類問題中標(biāo)記出樣本數(shù)據(jù)的類別.由于目前數(shù)據(jù)收集技術(shù)的快速發(fā)展和逐步提高,在收集數(shù)據(jù)時(shí)對(duì)未標(biāo)記樣本數(shù)據(jù)的收集十分容易,而在獲取大量有標(biāo)記的樣本數(shù)據(jù)時(shí)比較困難,這是因?yàn)樵讷@取有標(biāo)記樣本數(shù)據(jù)時(shí)需要耗費(fèi)大量的人力、財(cái)力、物力等資源.而利用少量有標(biāo)記樣本數(shù)據(jù)訓(xùn)練出的學(xué)習(xí)器往往泛化能力并不強(qiáng).那么如何在有標(biāo)記樣本數(shù)據(jù)較少的情況下,通過利用大量的不帶標(biāo)記樣本數(shù)據(jù)來改善學(xué)習(xí)器的性能已經(jīng)成為目前機(jī)器學(xué)習(xí)研究的熱點(diǎn)之一.
文獻(xiàn)[1]首次將主動(dòng)學(xué)習(xí)策略用于支持向量機(jī)(Support Vector Machine,SVM)算法中,文中利用主動(dòng)學(xué)習(xí)策略選取SVM分類器最有可能預(yù)測(cè)的樣本,根據(jù)這些樣本盡可能地簡(jiǎn)約SVM分類器超平面所在的版本空間,從而得到最有可能近似正確劃分所有樣本的超平面.實(shí)驗(yàn)分析也指出對(duì)直推支持向量機(jī)(Transducive Support Vector Machine, TSVM)采用文中所提的主動(dòng)查詢策略在某些情況下不如隨機(jī)查詢效果好.文獻(xiàn)[2]利用主動(dòng)學(xué)習(xí)策略并結(jié)合高斯隨機(jī)場(chǎng)和諧波函數(shù)對(duì)學(xué)習(xí)器進(jìn)行半監(jiān)督形式的學(xué)習(xí),該策略首先通過樣本數(shù)據(jù)訓(xùn)練建立一個(gè)圖,圖中建立的每個(gè)節(jié)點(diǎn)都代表一個(gè)(有標(biāo)記或未標(biāo)記)樣本數(shù)據(jù),然后通過求解對(duì)應(yīng)的函數(shù)最優(yōu)值,進(jìn)一步獲取未標(biāo)記樣本數(shù)據(jù)的最優(yōu)標(biāo)記.該文在最后的實(shí)驗(yàn)分析中指出如果利用結(jié)構(gòu)風(fēng)險(xiǎn)最小化準(zhǔn)則去主動(dòng)查詢訓(xùn)練SVM,所得到的精度甚至不如直接在SVM上隨機(jī)查詢所得的訓(xùn)練精度.文獻(xiàn)[3]提出的基于SVM的主動(dòng)學(xué)習(xí)方法,采用版本空間和邊緣方法選取樣本的標(biāo)記,其主要思想是反復(fù)選擇離分類超平面最近的未標(biāo)記樣本標(biāo)注直至達(dá)到設(shè)定閾值停止.文獻(xiàn)[4]則對(duì)文中提出的方法進(jìn)行改進(jìn),提出了一種基于不確定選樣和確定選擇相結(jié)合的主動(dòng)學(xué)習(xí)方法,并應(yīng)用于淺層語義分析的任務(wù).
基于上述文獻(xiàn)分析,目前基于SVM的學(xué)習(xí)存在下面兩個(gè)問題:(1)對(duì)于錯(cuò)誤樣本標(biāo)記敏感,如果初始的SVM分類超平面位置不好,需要很長(zhǎng)時(shí)間才能移動(dòng)到合理的位置,甚至受錯(cuò)誤標(biāo)記影響較大時(shí),分類超平面會(huì)一直停留在不合理的位置:(2)基于SVM的主動(dòng)學(xué)習(xí)在查詢的中后期,查詢的點(diǎn)大部分位于SVM分類超平面附近,使得算法的泛化能力不強(qiáng).
2.1 直推支持向量機(jī)設(shè)計(jì)
文獻(xiàn)[5] 提出了直推支持向量機(jī)算法,在TSVM算法對(duì)樣本數(shù)據(jù)進(jìn)行訓(xùn)練的過程中,該訓(xùn)練過程通過不斷地修改超平面并實(shí)時(shí)對(duì)該超平面兩側(cè)的某些未標(biāo)記實(shí)例進(jìn)行標(biāo)記處理,通過不斷訓(xùn)練獲取一個(gè)數(shù)據(jù)相對(duì)稀疏的區(qū)域并把這些標(biāo)記實(shí)例劃分為超平面.
(1)
使用TSVM算法訓(xùn)練獲取的學(xué)習(xí)器比只使用標(biāo)記樣本數(shù)據(jù)訓(xùn)練獲取到的學(xué)習(xí)器,在性能上有顯著的提高.但TSVM算法的主要缺陷是該算法執(zhí)行之前需要指定待訓(xùn)練數(shù)據(jù)的未標(biāo)記樣本數(shù)據(jù)中的正標(biāo)簽樣本數(shù)N.如果標(biāo)記樣本較少或者樣本標(biāo)記嚴(yán)重不平衡,就會(huì)導(dǎo)致學(xué)習(xí)器性能的迅速下降.為此,文獻(xiàn)[6~7]分別就此問題對(duì)TSVM算法做了改進(jìn).但是這些改進(jìn)算法還是基于一些假設(shè)進(jìn)行的,沒有從根本上利用未標(biāo)記樣本的潛在分布.TSVM算法流程可以分為SVM訓(xùn)練和TSVM迭代過程.如果將主動(dòng)學(xué)習(xí)策略應(yīng)用于TSVM上,也將出現(xiàn)錯(cuò)誤樣本標(biāo)記敏感和泛化能力不強(qiáng)的問題.
2.2 主動(dòng)貝葉斯網(wǎng)絡(luò)分類器的構(gòu)建
(2)
這里σ(xj)表示結(jié)點(diǎn)Nj除類別結(jié)點(diǎn)C之外的所有父結(jié)點(diǎn),xj表示實(shí)例x第j個(gè)特征的取值.根據(jù)文獻(xiàn)[9],類概率采用無信息先驗(yàn)均勻分布計(jì)算,類后驗(yàn)概率p(xj|ci;σ(xj))用共軛分布計(jì)算.
貝葉斯網(wǎng)絡(luò)學(xué)習(xí)包括結(jié)構(gòu)學(xué)習(xí)和參數(shù)學(xué)習(xí),其學(xué)習(xí)的目標(biāo)是找到和樣本數(shù)據(jù)集合D匹配度最好的貝葉斯網(wǎng)絡(luò)結(jié)構(gòu),參數(shù)學(xué)習(xí)的目標(biāo)是給定網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)S和訓(xùn)練樣本集D,利用先驗(yàn)知識(shí),確定貝葉斯網(wǎng)絡(luò)模型各結(jié)點(diǎn)處的條件概率密度,記為:p(θ|D,S)[10].
在本文中假定結(jié)構(gòu)已知,主要討論參數(shù)學(xué)習(xí)的情況.
2.3 主動(dòng)學(xué)習(xí)策略設(shè)計(jì)
主動(dòng)學(xué)習(xí)方法是選擇最有利于分類器性能的樣本來訓(xùn)練分類器,它不但能夠通過選擇高質(zhì)量的樣本來訓(xùn)練分類器,并且大大地減少了用于訓(xùn)練的樣本數(shù)量[11].給定網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)S和先驗(yàn)分布p(θ),根據(jù)某主動(dòng)學(xué)習(xí)策略從未標(biāo)記樣本集中選擇一實(shí)例xi,標(biāo)記并加入標(biāo)記樣本集中.更新分布p(θ)為p′(θ),然后再尋找下一實(shí)例.令參數(shù)向量θ=(θ1,θ2,…,θr)服從分布Dirichlet(α1,a2,…,ar),ar表示觀測(cè)數(shù)據(jù)之前的先驗(yàn)知識(shí)或?qū)<医?jīng)驗(yàn).如果查詢一實(shí)例xi,則p′(θ)服從分布Dirichlet(α1,…,ai+1,…,ar).
HR(θ‖θ′)=∑i∑jHR(Pθ(xi|σj)‖Pθ′(xi|σj))Pθ(σj),
(3)
(4)
其中θ為條件概率分布Pθ(xi|σj)的參數(shù)集,σj為Xi的父節(jié)點(diǎn)集. 在此假定參數(shù)是獨(dú)立的,我們利用共軛分布來計(jì)算后驗(yàn)概率.由參數(shù)獨(dú)立性可知,p(θ)=∏i∏jp(θXi|σ(j)).令參數(shù)向量θ=(θ1,θ2,…,θr)服從Dirichlet分布,如果樣本的屬性值出現(xiàn)nk次,根據(jù)共軛分布的定義,它的后驗(yàn)分布也服從分布Dirichlet(α1+n1,…,ar+nr),其中(α1,α2,…,αr)為超參數(shù).由此可得下式:
(5)
從未標(biāo)記樣本中查詢時(shí),每次選取期望后驗(yàn)風(fēng)險(xiǎn)值最大的樣本實(shí)例,將之標(biāo)記并加入已標(biāo)記樣本中.以此不斷迭代直至達(dá)到設(shè)定的條件時(shí)停止.
下面給出基于兩層分類器的主動(dòng)學(xué)習(xí)算法(TLAC):
輸入:標(biāo)記樣本集L,未標(biāo)記樣本集U,空集P;輸出:TSVM的分類值.
步驟:
1) 用貝葉斯網(wǎng)絡(luò)分類器訓(xùn)練標(biāo)記樣本集L(最少包括正負(fù)例各一);
2) 計(jì)算未標(biāo)記樣本集U中的每個(gè)樣本的期望后驗(yàn)風(fēng)險(xiǎn)值,選取值最大的一個(gè)樣本;
3) 用當(dāng)前的分類器標(biāo)注該樣本,并把它加入到L中,再?gòu)腢中移走;
4) 將該樣本放入P中,并獲取它的樣本標(biāo)記;
5) 重新從步驟1開始執(zhí)行,并反復(fù)這一循環(huán),直到達(dá)到設(shè)定的停止準(zhǔn)則或未標(biāo)記樣本用盡;
6) 計(jì)算P集中正樣本的數(shù)目并記為N;
7) 將P集中樣本當(dāng)作未標(biāo)記樣本,和標(biāo)記樣本集L一起訓(xùn)練TSVM分類器,輸出所有樣本的分類值.
2.4 算法分析
本文提出的TLAC算法中先用了貝葉斯網(wǎng)絡(luò)算法對(duì)未標(biāo)記數(shù)據(jù)進(jìn)行標(biāo)記,然后把這些標(biāo)記了的數(shù)據(jù)結(jié)合TSVM算法進(jìn)行迭代訓(xùn)練,這個(gè)過程類似于co-training思想.兩個(gè)不同偏置的分類器可能將同一個(gè)實(shí)例標(biāo)記成不同的標(biāo)記值.
定義1 令A(yù)表示貝葉斯算法,B表示支持向量機(jī)算法,C為訓(xùn)練樣本的真實(shí)分類器(泛化錯(cuò)誤為0).d(A,B)表示兩個(gè)分類器之間的偏置差異,d(B,C)表示與真實(shí)分類器之間的偏置之差,即d(B,C)=Prx∈D[B(x)≠C(x)].
定義2 根據(jù)定義1,有d(A,B1),其中B1表示含有標(biāo)記的樣本,A表示利用未帶標(biāo)記的樣本集訓(xùn)練而出的標(biāo)簽值.根據(jù)文獻(xiàn)[13]關(guān)于協(xié)同分類算法性能的證明,對(duì)于給定的泛化錯(cuò)誤ε1,下面的公式以不低于1-δ的概率成立:Pr[d(B1,C)≥ε]≤δ.
基于貝葉斯的主動(dòng)學(xué)習(xí)策略能均勻地從未標(biāo)記樣本的分布中查詢實(shí)例,可以避免SVM主動(dòng)學(xué)習(xí)超平面移動(dòng)的問題.算法中關(guān)于TSVM中正樣本數(shù)N的估計(jì)是根據(jù)貝葉斯方法從未標(biāo)記樣本中訓(xùn)練所得,基本和分布的真實(shí)正樣本數(shù)目相符.在定義1和定義2中從理論上揭示了貝葉斯網(wǎng)絡(luò)分類器含有支持向量機(jī)分類器未知的信息,可以提高TSVM算法的性能.
TLAC算法是基于Joachims 的SVMLight 軟件實(shí)現(xiàn)的,其中SVM參數(shù)中核函數(shù)選擇RBF核函數(shù).下面將用UCI標(biāo)準(zhǔn)數(shù)據(jù)集[14]對(duì)算法的性能進(jìn)行測(cè)試,采用文獻(xiàn)[15]中的方法對(duì)數(shù)據(jù)進(jìn)行約簡(jiǎn).由于UCI標(biāo)準(zhǔn)數(shù)據(jù)集所包含的數(shù)據(jù)集類別以及數(shù)據(jù)量較大,考慮到實(shí)驗(yàn)中各對(duì)比算法的特點(diǎn),作者只選擇部分?jǐn)?shù)據(jù)集來驗(yàn)證文中算法,具體所選數(shù)據(jù)集如表1所示.
表1 所選UCI數(shù)據(jù)集
從表1可以看出,在實(shí)驗(yàn)中,從a2a和splice數(shù)據(jù)集中各選取了100個(gè)已標(biāo)記樣本,從Heart 、Diabetes和Inonsphere這3類數(shù)據(jù)集中分別選取了10個(gè)樣本,其中正負(fù)樣本數(shù)相等.由于在Dirichlet分布中超參數(shù)表示先驗(yàn)知識(shí),因此,在實(shí)驗(yàn)中根據(jù)所選數(shù)據(jù)集的分布特點(diǎn),令a2a和splice數(shù)據(jù)集的先驗(yàn)分布p(θ)服從Dir(50,50),而令其他3類數(shù)據(jù)集直接服從分布Dir(5,5).本實(shí)驗(yàn)采用3個(gè)指標(biāo)來評(píng)價(jià)結(jié)果:Recall,Precision,Accuracy.假設(shè)數(shù)據(jù)集樣本總數(shù)為N,令N=A+B+C+D.變量定義見表2所示.
表2 混淆矩陣
并定義如下:
Recall=A/(A+C)*100%,
Precision=A/(A+B)*100%,
Accuracy=(A+D)/N*100%.
具體實(shí)驗(yàn)結(jié)果如圖1所示:
圖1 UCI數(shù)據(jù)集測(cè)試結(jié)果Fig.1 Test results on UCI data sets
因?yàn)閿?shù)據(jù)集中的標(biāo)記樣本是在數(shù)據(jù)集中隨機(jī)選取的,如果初始分類超平面處在不合理的位置,利用TSVM訓(xùn)練得到的準(zhǔn)確率也可能不太好.從圖1可以看出,在處理1類和3類時(shí),我們的算法準(zhǔn)確率更高,這是因?yàn)門SVM在初始估計(jì)的正樣本數(shù)和真實(shí)值之間相差較大.但是1類和3類的召回率有所下降,這是因?yàn)檫@兩類維數(shù)較高,由于高維特征空間映射時(shí)可能導(dǎo)致樣本相對(duì)位置改變,從而影響分類器的決策.4類的樣本分布不均勻?qū)е铝司扔兴陆担?/p>
針對(duì)當(dāng)前TSVM算法存在的問題和主動(dòng)學(xué)習(xí)策略用于SVM分類器的缺陷,本文提出了一種基于貝葉斯的主動(dòng)學(xué)習(xí)選取樣本策略用于TSVM算法中,在一定程度上解決了TSVM算法指定正樣本的問題,同時(shí)也使主動(dòng)學(xué)習(xí)策略能在全局分布上進(jìn)行查詢樣本,進(jìn)而使SVM分類器的超平面移動(dòng)到合理的位置.由于貝葉斯分類器也有其固有的假設(shè)性缺陷,本文的后續(xù)工作是進(jìn)一步改進(jìn)主動(dòng)學(xué)習(xí)策略,挖掘未標(biāo)記數(shù)據(jù)的潛在分布知識(shí),并用真實(shí)數(shù)據(jù)集加以測(cè)試.
[1] 袁 勛,吳秀清,洪日昌. 基于主動(dòng)學(xué)習(xí)SVM分類器的視頻分類[J]. 中國(guó)科學(xué)技術(shù)大學(xué)學(xué)報(bào), 2009,39(5):473-478.
[2] 趙英剛,陳 奇,何欽銘.一種基于支持向量機(jī)的直推式學(xué)習(xí)算法[J].江南大學(xué)學(xué)報(bào):自然科學(xué)版, 2006,26(8):441-444.
[3] 陳耀東,王 挺,陳火旺.半監(jiān)督學(xué)習(xí)和主動(dòng)學(xué)習(xí)相結(jié)合的淺層次語義分析[J].中文信息學(xué)報(bào), 2008,22(2):70-75.
[3] CHEN Y D, WANG T, CHEN H W. Combining semi-supervised learning and active learning for shallow semantic parsing[J]. J Chin Infor Proc, 2008,22(2):70-75.
[4] 劉端陽,邱衛(wèi)杰. 基于SVM期望間隔的多標(biāo)簽分類的主動(dòng)學(xué)習(xí)[J].計(jì)算機(jī)科學(xué), 2011,38(4): 230-233.
[5] 劉端陽,邱衛(wèi)杰. 基于加權(quán)SVM主動(dòng)學(xué)習(xí)的多標(biāo)簽分類[J].計(jì)算機(jī)工程, 2011,37(8):181-183.
[6] 趙衛(wèi)中,馬慧芳,李志清. 一種結(jié)合主動(dòng)學(xué)習(xí)的半監(jiān)督文檔聚類算法[J]. 軟件學(xué)報(bào), 2012,23(6):1486-1499.
[7] 白龍飛, 王文劍, 郭虎升. 一種新的支持向量機(jī)主動(dòng)學(xué)習(xí)策略[J]. 南京大學(xué)學(xué)報(bào):自然科學(xué)版, 2012,48(2):182-189.
[8] 楊穎濤,王躍鋼,鄧衛(wèi)強(qiáng),等. 基于共軛先驗(yàn)分布的貝葉斯網(wǎng)絡(luò)分類模型[J].控制與決策, 2012,27(9):1393-1397.
[9] 王中鋒,王志海. 基于條件對(duì)數(shù)似然函數(shù)導(dǎo)數(shù)的貝葉斯網(wǎng)絡(luò)分類器優(yōu)化算法[J]. 計(jì)算機(jī)學(xué)報(bào), 2012,35(2):364-374.
[10] 曾杰鵬, 廖 芹, 谷志元. 基于結(jié)構(gòu)繼承的貝葉斯網(wǎng)結(jié)構(gòu)學(xué)習(xí)優(yōu)化設(shè)計(jì)[J]. 計(jì)算機(jī)工程與設(shè)計(jì), 2012,33(7):2782-2786.
[11] 張曉宇. 基于動(dòng)態(tài)可行域劃分的SVM主動(dòng)學(xué)習(xí)[J].計(jì)算機(jī)科學(xué), 2012,39(7):175-178.
[12] 吳偉寧,劉 揚(yáng),郭茂祖. 基于采樣策略的主動(dòng)學(xué)習(xí)算法研究進(jìn)展[J]. 計(jì)算機(jī)研究與發(fā)展, 2012,19(6):1162-1173.
[13] 戴上平,姬盈利,王 華. 基于多群協(xié)同人工魚群算法的分類規(guī)則提取算法[J]. 計(jì)算機(jī)應(yīng)用研究, 2012,29(5):1666-1669.
[14] MERZ C, MURPHY P, AHA W. UCI Repository of machine learning databases[D].Irvine: Department of Information and Computer Science, University of California, 1997.
[15] 謝 科. 基于可分辨矩陣的屬性集依賴度計(jì)算方法[J]. 湖南師范大學(xué)自然科學(xué)學(xué)報(bào), 2012,35(6):13-16.
(編輯 沈小玲)
重要啟事
·優(yōu)先數(shù)字出版· “優(yōu)先數(shù)字出版”是以紙質(zhì)版期刊錄用稿件為出版內(nèi)容,先于紙質(zhì)期刊出版日期出版的數(shù)字期刊出版方式.
為了縮短稿件的發(fā)表周期,提高作者學(xué)術(shù)成果的認(rèn)可、傳播和利用價(jià)值,我刊與中國(guó)學(xué)術(shù)期刊(光盤版)電子雜志社簽訂了優(yōu)先數(shù)字出版協(xié)議,自2012年1月1日起在中國(guó)知網(wǎng)(CNKI)對(duì)本刊擬錄用的學(xué)術(shù)論文實(shí)行單篇優(yōu)先數(shù)字出版.凡被我刊錄用的稿件一經(jīng)優(yōu)先數(shù)字出版,讀者即可在中國(guó)知網(wǎng)(CNKI)全文數(shù)據(jù)庫(kù)進(jìn)行檢索和下載,廣大讀者對(duì)我刊論文的查詢、閱讀、引用與傳播也將更加便捷.
從2012年起,凡向本刊投稿的作者,如無特別申明,均被視為作者授權(quán)本刊編輯部在紙質(zhì)期刊出版前,可以在中國(guó)學(xué)術(shù)期刊(光盤版)電子雜志社主辦的“中國(guó)知網(wǎng)”(www.cnki.net)上優(yōu)先數(shù)字出版;也被視為作者同意并授權(quán)我刊與其他電子雜志社簽訂的協(xié)議,并許可他們?cè)谌蚍秶鷥?nèi)使用該文的信息網(wǎng)絡(luò)傳播權(quán)、數(shù)字化復(fù)制權(quán)、數(shù)字化匯編權(quán)、發(fā)行權(quán)及翻譯權(quán),并不再額外支付稿酬.
·電子稿件系統(tǒng)· 從2012年1月起,湖南師范大學(xué)期刊社所屬的3個(gè)學(xué)報(bào)全部正式啟用電子稿件系統(tǒng).投稿網(wǎng)址分別為《湖南師范大學(xué)自然科學(xué)學(xué)報(bào)》:http://zkxb.hunnu.edu.cn;《湖南師范大學(xué)教育科學(xué)學(xué)報(bào)》:http://jkb.hunnu.edu.cn;《湖南師范大學(xué)社會(huì)科學(xué)學(xué)報(bào)》:http://skb.hunnu.edu.cn.
本刊編輯部
SVM Classification Method Combined Co-Training with TLAC Strategy
XIEKe*
(Department of Computer Science, Aba Teachers College, Wenchuan 623002, China)
To deal with the poor generalization problem when active learning strategy is directly using in SVM classifier, a two-level active learning strategy(TLAC) is proposed by using the idea of co-training, and applied in deep mining the distribution knowledge of unlabled samples. The experimental results show that TLAC strategy can determine the positive labeled sample numbers reasonably and demonstrate its superiority in typical indicator test.
co-training; active learning; Bayesian network; SVM
2012-11-26
四川省教育廳資助項(xiàng)目(122B168);阿壩師專校級(jí)重點(diǎn)科研資助項(xiàng)目(ASB13-15)
*
,E-mail12257776@qq.com
TP315
A
1000-2537(2014)01-0090-05