国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于注意力機(jī)制的卷積 雙向長(zhǎng)短期記憶模型跨領(lǐng)域情感分類方法

2019-10-23 12:23龔琴雷曼王紀(jì)超王保群
計(jì)算機(jī)應(yīng)用 2019年8期
關(guān)鍵詞:遷移學(xué)習(xí)注意力機(jī)制

龔琴 雷曼 王紀(jì)超 王保群

摘 要:針對(duì)現(xiàn)有跨領(lǐng)域情感分類方法中文本表示特征忽略了重要單詞的情感信息,且在遷移過(guò)程中存在負(fù)遷移的問(wèn)題,提出一種基于注意力機(jī)制的卷積 雙向長(zhǎng)短期記憶(AC-BiLSTM)模型的知識(shí)遷移方法。首先,利用低維稠密的詞向量對(duì)文本進(jìn)行向量表示;其次,采用卷積操作獲取局部上下文特征之后,通過(guò)雙向長(zhǎng)短期記憶(BiLSTM)網(wǎng)絡(luò)充分考慮特征之間的長(zhǎng)期依賴關(guān)系;然后,通過(guò)引入注意力機(jī)制考慮不同詞匯對(duì)文本的貢獻(xiàn)程度,同時(shí)為了避免遷移過(guò)程中出現(xiàn)負(fù)遷移現(xiàn)象,在目標(biāo)函數(shù)中引入正則項(xiàng)約束;最后,將在源領(lǐng)域產(chǎn)品評(píng)論訓(xùn)練得到的模型參數(shù)遷移到目標(biāo)領(lǐng)域產(chǎn)品評(píng)論中,并在少量目標(biāo)領(lǐng)域有標(biāo)注數(shù)據(jù)上進(jìn)行微調(diào)。實(shí)驗(yàn)結(jié)果表明,與AE-SCL-SR方法和對(duì)抗記憶網(wǎng)絡(luò)(AMN)方法相比,AC-BiLSTM方法的平均準(zhǔn)確率分別提高了6.5%和2.2%,AC-BiLSTM方法可以有效地提高跨領(lǐng)域情感分類性能。

關(guān)鍵詞:情感分類;跨領(lǐng)域;遷移學(xué)習(xí);注意力機(jī)制;長(zhǎng)短期記憶網(wǎng)絡(luò)

中圖分類號(hào):?TP181; TP389.1

文獻(xiàn)標(biāo)志碼:A

Cross-domain sentiment classification method of convolution-bi-directional long short-term memory based on attention mechanism

AC-BiLSTM model

GONG Qin*, LEI Man, WANG Jichao, WANG Baoqun

School of Communication and Information Engineering, Chongqing University of Posts and Telecommunications, Chongqing 400065, China

Abstract:?Concerning the problems that the text representation features in the existing cross-domain sentiment classification method ignore the sentiment information of important words and there is negative transfer during transfer process, a Convolution-Bi-directional Long Short-Term Memory based on Attention mechanism (AC-BiLSTM) model was proposed to realize knowledge transfer. Firstly, the vector representation of text was obtained by low-dimensional dense word vectors. Secondly, after local context features being obtained by convolution operation, the long dependence relationship between the features was fully considered by Bi-directional Long Short-Term Memory (BiLSTM) network. Then, the contribution degrees of different words to the text were considered by introducing attention mechanism, and a regular term constraint was introduced into the objective function in order to avoid the negative transfer phenomenon in transfer process. Finally, the model parameters trained on source domain product reviews were transferred to target domain product reviews, and the labeled data in a small number of target domains were fine-tuned. Experimental results show that compared with AE-SCL-SR (AutoEncoder Structural Correspondence Learning with Similarity Regularization) method and Adversarial Memory Network (AMN) method, AC-BiLSTM method has average accuracy increased by 6.5% and 2.2% respectively, which demonstrates that AC-BiLSTM method can effectively improve cross-domain sentiment classification performance.

Key words:?sentiment classification; cross-domain; transfer learning; attention mechanism; Long Short-Term Memory (LSTM) network

0 引言

隨著互聯(lián)網(wǎng)的蓬勃發(fā)展,互聯(lián)網(wǎng)信息呈現(xiàn)爆炸式增長(zhǎng),京東、天貓、淘寶、亞馬遜等大型電子商務(wù)網(wǎng)站迅速發(fā)展,網(wǎng)上購(gòu)物也因此受到了越來(lái)越多人的青睞。為了提高用戶滿意度,網(wǎng)絡(luò)商家通常允許用戶對(duì)其所購(gòu)買的商品進(jìn)行評(píng)價(jià),這導(dǎo)致商品評(píng)價(jià)數(shù)量與日俱增。挖掘并分析評(píng)論文本中的情感傾向,不僅可以優(yōu)化用戶的購(gòu)買決策,而且能夠幫助生產(chǎn)商和銷售商通過(guò)反饋信息來(lái)改進(jìn)產(chǎn)品,從而提高市場(chǎng)競(jìng)爭(zhēng)力,因此,情感分析(Sentiment Analysis, SA)[1]應(yīng)運(yùn)而生。

情感分析,又稱為意見挖掘,它是利用自然語(yǔ)言處理(Natural Language Processing, NLP)、文本分析、機(jī)器學(xué)習(xí)等技術(shù)自動(dòng)分析商品評(píng)論的文本內(nèi)容,挖掘出消費(fèi)者對(duì)該商品的褒貶態(tài)度和意見[2]。然而,當(dāng)訓(xùn)練集和測(cè)試集不屬于同一領(lǐng)域時(shí),典型的有監(jiān)督情感分類方法的效果就變得很差。這是由于訓(xùn)練集里有強(qiáng)烈情感傾向性的詞語(yǔ)在測(cè)試集里呈現(xiàn)微弱的情感傾向性,由此產(chǎn)生了跨領(lǐng)域情感分類(Cross-Domain Sentiment Classification, CDSC)問(wèn)題。隨著評(píng)論文本的不斷增加、新興領(lǐng)域的不斷涌現(xiàn),需要大量的人力來(lái)標(biāo)注訓(xùn)練集,這是費(fèi)時(shí)費(fèi)力的,因此研究跨領(lǐng)域的情感分類具有十分重要的研究?jī)r(jià)值。

跨領(lǐng)域情感分類的研究主要集中于從一個(gè)或多個(gè)源領(lǐng)域訓(xùn)練得到分類器并且應(yīng)用在不同的目標(biāo)領(lǐng)域進(jìn)行訓(xùn)練。當(dāng)前存在的技術(shù)主要包含兩類:1)通過(guò)目標(biāo)領(lǐng)域中少量標(biāo)注數(shù)據(jù)來(lái)輔助訓(xùn)練;2)目標(biāo)領(lǐng)域均是未標(biāo)注數(shù)據(jù)。本文主要針對(duì)第一類進(jìn)行研究。

近年來(lái),遷移學(xué)習(xí)已經(jīng)在學(xué)術(shù)界和工業(yè)界引起了廣泛的關(guān)注和研究。其中,領(lǐng)域自適應(yīng)(Domain Adaptation, DA)是遷移學(xué)習(xí)中的一種代表性方法,通過(guò)利用信息豐富的源領(lǐng)域樣本來(lái)提升目標(biāo)領(lǐng)域模型的性能。然而在領(lǐng)域自適應(yīng)實(shí)際應(yīng)用中常常存在概念漂移[3]和特征漂移[4]的問(wèn)題。比如,不同領(lǐng)域特征分布差異太大將會(huì)導(dǎo)致情感分類模型在跨領(lǐng)域應(yīng)用中分類效果下降,同時(shí)在不同領(lǐng)域下相同的特征可能代表相反的情感。

為了解決跨領(lǐng)域所存在的概念漂移(特征漂移)問(wèn)題,本文選擇亞馬遜網(wǎng)站中4個(gè)領(lǐng)域產(chǎn)品評(píng)論作為實(shí)驗(yàn)數(shù)據(jù),以情感分析作為研究任務(wù),提出一種基于注意力機(jī)制的卷積 雙向長(zhǎng)短期記憶模型(Convolution-Bi-directional Long Short-Term Memory based on Attention mechanism, AC-BiLSTM)以實(shí)現(xiàn)不同領(lǐng)域環(huán)境下的知識(shí)遷移。

1 相關(guān)工作

情感分類是自然語(yǔ)言處理領(lǐng)域的一個(gè)研究熱點(diǎn),受到了學(xué)術(shù)界和工業(yè)界的高度關(guān)注。文獻(xiàn)[5-6]總結(jié)了以往的情感分類研究技術(shù)及其所使用的數(shù)據(jù)集。然而這些研究主要集中在單一領(lǐng)域,隨著數(shù)據(jù)量的快速增長(zhǎng),要想在跨領(lǐng)域環(huán)境下構(gòu)建一個(gè)具有魯棒性和普遍性的情感分類器變得十分困難,這激勵(lì)研究者去分析跨領(lǐng)域數(shù)據(jù)的情感極性,即跨領(lǐng)域情感分類。

以往展開的大多數(shù)研究都是采用特征遷移[7]來(lái)實(shí)現(xiàn),它致力于解決源領(lǐng)域與目標(biāo)領(lǐng)域特征空間存在差異的問(wèn)題,主要通過(guò)把各個(gè)領(lǐng)域的數(shù)據(jù)映射到同一空間下,使源領(lǐng)域與目標(biāo)領(lǐng)域具有相同的分布,并利用源領(lǐng)域中的訓(xùn)練數(shù)據(jù)來(lái)解決目標(biāo)領(lǐng)域的學(xué)習(xí)問(wèn)題[8]。其中,Blitzer等[9]提出的結(jié)構(gòu)對(duì)應(yīng)學(xué)習(xí)(Structural Correspondence Learning, SCL)模型是經(jīng)典的方法,該模型利用源領(lǐng)域和目標(biāo)領(lǐng)域部分樞紐特征,構(gòu)造樞紐特征與非樞紐特征的關(guān)聯(lián)模型,在此基礎(chǔ)上,構(gòu)造基于樞紐特征和非樞紐特征的特征空間,用于情感分類任務(wù);Pan等[10]提出譜特征對(duì)齊(Spectral Feature Alignment, SFA),首先構(gòu)造領(lǐng)域樞紐特征與非樞紐特征的二分圖,然后在二分圖上利用譜聚類獲取新的特征表達(dá),最后在新的特征上構(gòu)造分類器;文獻(xiàn)[11]使用主成分分析法(Principal Component Analysis, PCA)進(jìn)行特征選擇,然后用樸素貝葉斯(Naive Bayes, NB)進(jìn)行情感分類;文獻(xiàn)[12]采用半監(jiān)督方式,結(jié)合改進(jìn)的最大熵(Maximum Entropy, ME)模型與二分圖聚類模型,針對(duì)情感詞分類取得了相對(duì)較好的準(zhǔn)確率;文獻(xiàn)[13]中提出一種基于短文本特征擴(kuò)展的遷移學(xué)習(xí)模型——CATL-PCO(Correlation Analysis Transfer Learning-Probability Co-Occurrence)以解決古代詩(shī)歌這類短文本的情感分析問(wèn)題。然而這些方法使用專家設(shè)計(jì)的規(guī)則或者n-gram進(jìn)行句子的特征提取,通常未考慮到上下文之間的關(guān)系和重要單詞的情感信息,因此不能較好地表示跨領(lǐng)域大規(guī)模數(shù)據(jù)。

隨著深度學(xué)習(xí)研究工作的開展,深度學(xué)習(xí)被廣泛應(yīng)用于圖像分類、語(yǔ)音識(shí)別和自然語(yǔ)言處理等領(lǐng)域[14-15]。近年來(lái),有研究者提出將深度學(xué)習(xí)用來(lái)學(xué)習(xí)跨領(lǐng)域場(chǎng)景下情感分類的公有特征和共享參數(shù)的方法,這些方法取得了顯著的成就。Glorot等[16]利用堆疊降噪自編碼器(Stacked Denoising Autoencoder, SDA)對(duì)多個(gè)領(lǐng)域的未標(biāo)注數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,結(jié)合源領(lǐng)域的標(biāo)注數(shù)據(jù)和預(yù)訓(xùn)練模型來(lái)訓(xùn)練情感分類模型;Chen等[17]提出邊緣降噪自動(dòng)編碼器(marginalized SDA, mSDA),它保留了強(qiáng)大的特征學(xué)習(xí)能力并且解決了高昂的計(jì)算成本和SDA的可擴(kuò)展性問(wèn)題;隨后,許多SDA的擴(kuò)展方法被提出以提高跨領(lǐng)域情感分類的性能[18-19]。然而這些方法缺乏可解釋性,即無(wú)法證明網(wǎng)絡(luò)是否充分學(xué)習(xí)到了樞紐特征。

為了提高深度學(xué)習(xí)的可解釋能力,Ganin等[20]提出域?qū)股窠?jīng)網(wǎng)絡(luò)(Domain Adversarial Neural Network, DANN)來(lái)解決跨領(lǐng)域情感分類問(wèn)題;文獻(xiàn)[21]中提出AE-SCL-SR(AutoEncoder Structural Correspondence Learning with Similarity Regularization)算法,結(jié)合自編碼和結(jié)構(gòu)對(duì)應(yīng)學(xué)習(xí)的優(yōu)勢(shì)來(lái)提高跨領(lǐng)域情感分類的性能;Li等[22]提出對(duì)抗記憶網(wǎng)絡(luò)(Adversarial Memory Network, AMN)模型,利用注意力機(jī)制來(lái)自動(dòng)捕獲樞紐特征從而實(shí)現(xiàn)跨領(lǐng)域情感分類。

2 AC-BiLSTM模型跨領(lǐng)域情感分類方法

2.1 問(wèn)題定義

為了解決跨領(lǐng)域情感分類問(wèn)題,本文給出問(wèn)題定義:給定已標(biāo)記情感的源領(lǐng)域DS={(XSi,γSi)}nS n的下標(biāo)是小寫s,還是大寫S?應(yīng)該為大寫S吧?與其他處的書寫保持一致。 i=1和無(wú)標(biāo)記情感的目標(biāo)領(lǐng)域DT={(XTj)}nTj=1。其中,nS和nT分別表示源領(lǐng)域DS 此處的s,應(yīng)為大寫S吧? 和目標(biāo)領(lǐng)域DT的評(píng)論數(shù)量,XSi和XTj分別表示源領(lǐng)域DS和目標(biāo)領(lǐng)域DT的第i和j條評(píng)論,γSi為XSi對(duì)應(yīng)的情感標(biāo)簽,γSi∈{+1,-1},+1和-1分別為正向情感標(biāo)簽和負(fù)向情感標(biāo)簽。本文研究的目標(biāo)是利用源領(lǐng)域DS的有標(biāo)簽評(píng)論XSi訓(xùn)練一個(gè)分類器來(lái)預(yù)測(cè)目標(biāo)領(lǐng)域DT的無(wú)標(biāo)簽評(píng)論XTj的情感標(biāo)簽γTj。

2.2 相關(guān)概念

互聯(lián)網(wǎng)上商品評(píng)論文本中的特征可分為兩類:1)樞紐特征。源領(lǐng)域和目標(biāo)領(lǐng)域中的公共特征,表示兩個(gè)領(lǐng)域的一些公共知識(shí)。2)非樞紐特征。在某一領(lǐng)域多次出現(xiàn)而在另一個(gè)領(lǐng)域很少出現(xiàn)或不出現(xiàn)的特征。例如,“great”或“terrible”等特征在不同領(lǐng)域中表達(dá)的情感相似,在亞馬遜網(wǎng)站的商品評(píng)論中,在源領(lǐng)域和目標(biāo)領(lǐng)域都高頻出現(xiàn),這些特征被稱為樞紐特征。表1給出了亞馬遜網(wǎng)站商品評(píng)論中,Books和Kitchen兩個(gè)領(lǐng)域的評(píng)論。

2.3 AC-BiLSTM模型

AC-BiLSTM模型如圖1所示。該模型主要包含5個(gè)步驟:

步驟1? 采用詞向量進(jìn)行文本表示;

步驟2? 利用卷積操作獲取局部特征;

步驟3? 利用BiLSTM模型充分考慮到特征之間的長(zhǎng)期依賴關(guān)系;

步驟4? 引入注意力機(jī)制表示不同特征的重要性;

步驟5? 利用分類器進(jìn)行情感分類。

作為詞向量嵌入層,通過(guò)Word2Vec[23]預(yù)訓(xùn)練的低維稠密的詞向量對(duì)詞向量嵌入層的權(quán)重進(jìn)行初始化,并采用均勻分布U(-0.01,0.01)對(duì)未登錄詞進(jìn)行向量初始化。嵌入層矩陣形式為 x ∈ R n×k,一條評(píng)論可以向量化為:

x1:n= x 1⊕ x 2⊕…⊕ x n (1)

其中:n為一條評(píng)論的長(zhǎng)度,k為詞向量的維度, x i為句子中第i個(gè)詞的向量表示,⊕為連接運(yùn)算符。

卷積層? 卷積核的作用在于通過(guò)窗口滑動(dòng)得到輸入數(shù)據(jù)的局部特征,卷積濾波器 m ∈ R h×k是指對(duì)窗口為h的k維詞向量進(jìn)行卷積操作。一條評(píng)論中第i個(gè)詞的新的特征表示如下:

si=f( m T· x i:i+h-1+ b ) (2)

其中: m T和 b 分別為權(quán)值和閾值, f為非線性激活函數(shù)ReLU(Rectified Linear Unit)。評(píng)論的特征表達(dá)為:

S =[s1,s2,…,sn-h+1];? S ∈ R n-h+1 (3)

該層的輸出 y i∈ R p由每個(gè)特征映射的第i維連接而成,如下所示:

y i= S i1⊕ S i2⊕…⊕ S ip (4)

LSTM模型由三個(gè)門(輸入門 i t、遺忘門 f t、輸出門 o t)和一個(gè)記憶單元( c t)構(gòu)成,通過(guò)這三個(gè)門對(duì)內(nèi)部記憶進(jìn)行選擇性的輸入、輸出和遺忘操作,能夠有效地克服梯度爆炸或梯度消失缺陷。LSTM可表示為:

i t=σ( W iy y t+ W ih h t-1+ b i) (5)

f t=σ( W fy y t+ W fh h t-1+ b f) (6)

o t=σ( W oy y t+ W oh h t-1+ b o) (7)

c t= f t⊙ c t-1+ i t⊙ tanh( W cy y t+ W ch h t-1+ b c) (8)

h t= o t⊙ tanh( c t) (9)

其中: h t為t時(shí)刻的隱藏狀態(tài);σ為激活函數(shù)Sigmoid; y t為t時(shí)刻的輸入詞向量; W 和 b 分別為權(quán)值和閾值,均為模型訓(xùn)練參數(shù);⊙為逐點(diǎn)乘積。

雖然LSTM能夠解決長(zhǎng)期依賴的問(wèn)題,但是它并沒有利用文本的下文信息,因此本文采用BiLSTM模型同時(shí)考慮文本的上下文信息,其工作原理為:通過(guò)兩個(gè)LSTM來(lái)得到時(shí)序相反的隱藏層狀態(tài)并將其通過(guò)連接方式得到同一個(gè)輸出,前向LSTM和后向LSTM分別獲取輸入序列的上文信息和下文信息,BiLSTM模型能夠有效地提高準(zhǔn)確率。BiLSTM在t時(shí)刻的隱藏狀態(tài) H t包含前向的 h forwardt和后向的 h backwardt,如下所示:

h forwardt=LSTMforward( h t-1, x t, c t-1) (10)

h backwardt=LSTMbackward( h t-1, x t, c t-1) (11)

H t=[ h forwardt, h backwardt] (12)

將BiLSTM的輸出 H t當(dāng)作文本的特征向量。

對(duì)于情感分類任務(wù)而言,句子中的情感詞在整個(gè)句子的情感傾向性判別上具有十分關(guān)鍵的作用,因此,提出AC-BiLSTM模型,通過(guò)引入注意力機(jī)制[24]計(jì)算出文本中每個(gè)單詞的注意力權(quán)重,使得情感詞所在時(shí)刻的隱藏狀態(tài)對(duì)情感分類有更大的貢獻(xiàn)。

在AC-BiLSTM模型中,首先在每個(gè)時(shí)刻都將得到一個(gè)表示該時(shí)刻隱藏狀態(tài) H t所占的注意力權(quán)重αt,最后通過(guò)加權(quán)累加得到用于情感分類的隱藏狀態(tài) v ,可表示為:

u t=tanh( W att H t+ b att) (13)

αt= exp( u Tt u w) ∑ t? exp ( u Tt u w)

(14)

v =∑ t αt h??? ^?? t (15)

其中: u t為 H t的隱藏單元; u w為上下文向量,被隨機(jī)初始化并在訓(xùn)練中不斷學(xué)習(xí)更新; W att和 b att均為注意機(jī)制參數(shù);αt∈[0,1]為 H t的權(quán)重且∑ t αt=1。

最后,將注意力機(jī)制輸出 v 輸入到softmax函數(shù)進(jìn)行情感分類,分類結(jié)果為:

=softmax( w s v + b s) (16)

本文采用交叉熵作為損失函數(shù)。交叉熵?fù)p失函數(shù)公式如下:

Loss=-∑ i yi log? i+λ‖θ‖2 (17)

其中:yi為實(shí)際類別; i為預(yù)測(cè)類別;λ‖θ‖2為正則項(xiàng),防止發(fā)生過(guò)擬合現(xiàn)象同時(shí)避免負(fù)遷移。

AC-BiLSTM模型在源領(lǐng)域數(shù)據(jù)進(jìn)行訓(xùn)練,訓(xùn)練好的模型表示為NS。為了實(shí)現(xiàn)遷移,本文還構(gòu)造了另一個(gè)模型NT,這兩個(gè)模型神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)一致。首先將在NS訓(xùn)練好的參數(shù)對(duì)NT對(duì)應(yīng)層進(jìn)行初始化;然后凍結(jié)NT的詞向量層,NT其余層的參數(shù)在目標(biāo)領(lǐng)域含有少量標(biāo)注的數(shù)據(jù)上進(jìn)行微調(diào);最后將訓(xùn)練好的NT模型用來(lái)對(duì)目標(biāo)領(lǐng)域進(jìn)行預(yù)測(cè)。跨領(lǐng)域情感分類框架如圖2所示。

3 實(shí)驗(yàn)結(jié)果及分析

3.1 數(shù)據(jù)集及參數(shù)設(shè)置

本文進(jìn)行仿真實(shí)驗(yàn)所采用的數(shù)據(jù)集是賓夕法尼亞大學(xué)Blitzer等[9]收集的多領(lǐng)域情感數(shù)據(jù)集,具體包括:Books(B)、DVD(D)、Electronics(E)和Kitchen(K)4個(gè)領(lǐng)域。其中,每個(gè)領(lǐng)域包含正、負(fù)評(píng)論各1000條,另外還包含大量的未標(biāo)注數(shù)據(jù)。分別將各領(lǐng)域正負(fù)評(píng)論通過(guò)五折交叉驗(yàn)證劃分為訓(xùn)練集和驗(yàn)證集。多領(lǐng)域情感數(shù)據(jù)集的統(tǒng)計(jì)信息如表2所示。

為了訓(xùn)練一個(gè)較好的模型,模型參數(shù)的設(shè)置十分重要,表3是本文方法的參數(shù)設(shè)置。

3.2 評(píng)價(jià)指標(biāo)

本文主要通過(guò)準(zhǔn)確率(Accuracy)來(lái)評(píng)估情感分類的性能。計(jì)算公式如下所示:

Accuracy= 1 N ∑ N i=1 ?| yi= i |

(18)

其中: i表示xi的預(yù)測(cè)標(biāo)簽,yi則表示xi的實(shí)際標(biāo)簽,N表示測(cè)試集的大小。

3.3 實(shí)驗(yàn)分析

將本文提出的AC-BiLSTM模型的跨領(lǐng)域情感分類方法與以下8種方法進(jìn)行比較來(lái)驗(yàn)證所提方法的有效性。

1)NoTransf(No Transfer):源領(lǐng)域訓(xùn)練的分類器直接用于目標(biāo)領(lǐng)域。

2)SCL-MI(Structural Correspondence Learning Mutual Information)[7]:首先采用互信息(Mutual Information, MI)構(gòu)造出樞紐特征,最后分別計(jì)算源領(lǐng)域、目標(biāo)領(lǐng)域樞紐特征與非樞紐特征之間的相關(guān)性。

3)SFA(Spectral Feature Alignment)[10]:首先基于共現(xiàn)關(guān)系構(gòu)建領(lǐng)域特定詞匯和通用詞匯的二分圖,然后在二分圖上進(jìn)行譜聚類獲取新的特征表示,最后在新的特征上構(gòu)造分類器。

4)SS-FE(Feature Ensemble Sample Selection)[11]:使用主成分分析法進(jìn)行特征選擇,然后用樸素貝葉斯算法進(jìn)行情感分類。

5)DANN(Domain Adversarial Neural Network)[20]:利用域?qū)股窠?jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)跨領(lǐng)域情感分類。

6)DAmSDA(Domain Adversarial Stacked Denoising Autoencoders)[20]:它是DANN的一種改進(jìn)方法,從邊緣堆疊去噪自編碼中獲得特征表達(dá)。

7)AE-SCL-SR(AutoEncoder SCL with Similarity Regularization)[21]:結(jié)合自編碼和結(jié)構(gòu)對(duì)應(yīng)學(xué)習(xí)的優(yōu)勢(shì)來(lái)提高跨領(lǐng)域情感分類的性能。

8)AMN(Adversarial Memory Network)[22]:利用對(duì)抗記憶網(wǎng)絡(luò)實(shí)現(xiàn)跨領(lǐng)域情感分類。

表4是上述各種方法的分類準(zhǔn)確率對(duì)比結(jié)果。可以看出,本文提出的AC-BiLSTM模型在各個(gè)情感分析任務(wù)中的準(zhǔn)確率均是最高的,平均準(zhǔn)確率達(dá)到了83.3%。與NoTransf方法相比,AC-BiLSTM模型的平均分類準(zhǔn)確率提升了13.6%,原因在于NoTransf方法容易受到文本稀疏性的影響,所以平均分類準(zhǔn)確率相對(duì)較低;

與SCL-MI、SFA和SS-FE方法相比,AC-BiLSTM模型的平均分類準(zhǔn)確率分別提升了12.1%、6%和7.3%,因?yàn)镾CL-MI、SFA和SS-FE的性能取決于樞紐的特征選擇方式,這將不能準(zhǔn)確地捕獲樞紐特征,因此它們的平均分類準(zhǔn)確率相對(duì)很低;

與DANN、DAmSDA和AE-SCL-SR方法相比,AC-BiLSTM模型的平均準(zhǔn)確率分別提高了11.4%、9.3%和6.5%;

與分類效果較佳的AMN方法相比,AC-BiLSTM的平均分類準(zhǔn)確率提升了2.2%。

從表4的對(duì)比結(jié)果可以看出,在跨領(lǐng)域情感分類中,Kitchen和Electronics領(lǐng)域之間的準(zhǔn)確率相對(duì)其他領(lǐng)域來(lái)說(shuō)較高,這說(shuō)明Kitchen和Electronics特征分布最相似,領(lǐng)域自適應(yīng)效果最佳。同時(shí),從各個(gè)方法的平均分類準(zhǔn)確率可以看出遷移學(xué)習(xí)的效果均優(yōu)于沒有進(jìn)行遷移的情況,這說(shuō)明遷移學(xué)習(xí)能夠有效地提高分類準(zhǔn)確率。

由表4還可以看出,與NoTransf方法相比,AC-BiLSTM模型在12個(gè)跨領(lǐng)域情感分類任務(wù)中分別提升了15.2%、16%、15.6%、10.3%、12.5%、12.8%、17%、17.1%、6.4%、13.7%、16.7%、11.7%,特別是D → E這個(gè)分類任務(wù)中,提升了17.1%。

本文方法優(yōu)于其他對(duì)比方法的原因在于:NS模型能夠自動(dòng)學(xué)習(xí)有助于情感分類任務(wù)的特征表示,并且源領(lǐng)域和目標(biāo)領(lǐng)域可以共享該特征;將NS中遷移過(guò)來(lái)的參數(shù)在少量目標(biāo)領(lǐng)域數(shù)據(jù)上進(jìn)行微調(diào)能夠強(qiáng)化NT模型去學(xué)習(xí)對(duì)目標(biāo)領(lǐng)域分類任務(wù)有利的特征,從而提高預(yù)測(cè)精度;卷積操作能夠有效捕獲局部上下文特征,BiLSTM能夠考慮特征之間的語(yǔ)義長(zhǎng)短期依賴關(guān)系;通過(guò)引入注意力機(jī)制,充分考慮到不同詞匯對(duì)文本的貢獻(xiàn)程度,這將進(jìn)一步提高分類精度。

圖3表示準(zhǔn)確率和交叉熵?fù)p失值隨著迭代次數(shù)增加而變化的曲線??梢钥闯觯疚奶岢龅哪P途哂袑?duì)領(lǐng)域自適應(yīng)的充分性,同時(shí)在交叉熵?fù)p失值和分類準(zhǔn)確率之間存在較強(qiáng)的相關(guān)性,隨著迭代次數(shù)的增加,準(zhǔn)確率整體呈現(xiàn)上升趨勢(shì),而交叉熵?fù)p失值整體呈現(xiàn)下降趨勢(shì)。

4 結(jié)語(yǔ)

本文提出了一種AC-BiLSTM模型來(lái)進(jìn)行跨領(lǐng)域情感分析研究。該模型通過(guò)引入注意力機(jī)制充分考慮到重要單詞的情感信息,同時(shí)為了避免發(fā)生負(fù)遷移現(xiàn)象,在目標(biāo)函數(shù)中加入了正則項(xiàng)約束。在公開的大規(guī)模產(chǎn)品評(píng)價(jià)數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,所提出的AC-BiLSTM模型可以有效地提高跨領(lǐng)域情感分類的性能。從整體上來(lái)看,本文方法在各個(gè)領(lǐng)域下的準(zhǔn)確率均優(yōu)于對(duì)比方法。

本文方法的局限性在于語(yǔ)料庫(kù)的選擇主要局限于英文。在后續(xù)研究中,將利用中文語(yǔ)料庫(kù)來(lái)驗(yàn)證模型,并在領(lǐng)域跨度更大的環(huán)境(例如電子產(chǎn)品與餐飲類評(píng)論)中進(jìn)一步驗(yàn)證模型的效果;同時(shí),下一步還需要將該模型應(yīng)用到實(shí)際工程中。

參考文獻(xiàn) (References)

[1]?AGARWAL B, MITTAL N, BANSAL P, et al. Sentiment analysis using common-sense and context information [J]. Computational Intelligence and Neuroscience, 2015, 2015(78): Article No. 30.

[2]?陳龍,管子玉,何金紅,等.情感分類研究進(jìn)展[J].計(jì)算機(jī)研究與發(fā)展,2017,54(6):1150-1170. (CHEN L, GUAN Z Y, HE J H, et al. A survey on sentiment classification [J]. Journal of Computer Research and Development, 2017, 54(6): 1150-1170.)

[3]?GAMA J, LIOBAITE I, BIFET A, et al. A survey on concept drift adaptation [J]. ACM Computing Surveys, 2014, 46(4): Article No. 44.

[4]?BARDDAL J P, GOMES H M, ENEMBRECK F, et al. A survey on feature drift adaptation: definition, benchmark, challenges and future directions [J]. Journal of Systems and Software, 2017, 127(52): 278-294.

[5]?MOHAMED HUSSEIN D M E D. A survey on sentiment analysis challenges [J]. Journal of King Saud University — Engineering Sciences, 2018, 30(4): 330-338.

[6]?RAVI K, RAVI V. A survey on opinion mining and sentiment analysis: tasks, approaches and applications [J]. Knowledge-Based Systems, 2015, 89(17): 14-46.

[7]??BLIZER J, DREDZE M, PEREIRA F. Biographies, bollywood, ?boom-boxes and blenders: domain adaptation for sentiment classification [C]// Proceedings of the 45th Annual Meeting of the Association of Computational Linguistics. Stroudsburg, PA: ACL, 2007: 440-447.

[8]?莊福振,羅平,何清,等.遷移學(xué)習(xí)研究進(jìn)展[J].軟件學(xué)報(bào),2015,26(1):26-39. (ZHUANG F Z, LUO P, HE Q, et al. Survey on transfer learning research [J]. Journal of Software, 2015, 26(1): 26-39.)

[9]?BLITZER J, McDONALD R, PEREIRA F. Domain adaptation with structural correspondence learning [C]// Proceedings of the 2006 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2006: 120-128.

[10]?PAN S J, NI X, SUN J T, et al. Cross-domain sentiment classification via spectral feature alignment [C]// Proceedings of the 19th International Conference on World Wide Web. New York: ACM, 2010: 751-760.

[11]?XIA R, ZONG C, HU X, et al. Feature ensemble plus sample selection: domain adaptation for sentiment classification [J]. IEEE Intelligent Systems, 2013, 28(3): 10-18.

[12]?DESHMUKH J S, TRIPATHY A K. Entropy based classifier for cross-domain opinion mining [J]. Applied Computing and Informatics, 2018, 14(1): 55-64.

[13]?吳斌,吉佳,孟琳,等.基于遷移學(xué)習(xí)的唐詩(shī)宋詞情感分析[J].電子學(xué)報(bào),2016,44(11):2780-2787. (WU B, JI J, MENG L, et al. Transfer learning based sentiment analysis for poetry of the Tang dynasty and Song dynasty [J]. Acta Electronica Sinica, 2016, 44(11): 2780-2787.

[14]?QIN B, LIU T, TANG D. Deep learning for sentiment analysis: successful approaches and future challenges [J]. Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery, 2015, 5(6): 292-303.

[15]?SCHMIDHUBER J. Deep learning in neural networks: an overview [J]. Neural Networks, 2015, 61(27): 85-117.

[16]??GLOROT X, BORDES A, BENGIO Y. Domain adaptation for? large-scale sentiment classification: a deep learning approach [C]// Proceedings of the 28th International Conference on Machine Learning. New York: ACM, 2011: 513-520.

[17]?CHEN M, XU Z, WEINBERGER K Q, et al. Marginalized denoising autoencoders for domain adaptation [C]// Proceedings of the 29th International Conference on Machine Learning. New York: ACM, 2012: 1627-1634.

[18]?CLINCHANT S, CSURKA G, CHIDLOVSKII B. A domain adaptation regularization for denoising autoencoders [C]// Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2016: 26-31.

[19]?PENG Y, WANG S, LU B L. Marginalized denoising autoencoder via graph regularization for domain adaptation [C]// Proceedings of the 2013 International Conference on Neural Information Processing, LNCS 8227. Berlin: Springer, 2013: 156-163.

[20]?GANIN Y, USTINOVA E, AJAKAN H, et al. Domain-adversarial training of neural networks [J]. Journal of Machine Learning Research, 2015, 17(1): 2096-2030.

[21]?ZISER Y, REICHART R. Neural structural correspondence learning for domain adaptation [C]// Proceedings of the 21st Conference on Computational Natural Language Learning. Stroudsburg, PA: ACL, 2017: 400-410.

[22]?LI Z, ZHANG Y, WEI Y, et al. End-to-end adversarial memory network for cross-domain sentiment classification [C]// Proceedings of the 2017 International Joint Conference on Artificial Intelligence. Menlo Park, CA: AAAI Press, 2017: 2237-2243.

[23]?MIKOLOV T, CHEN K, CORRADO G, et al. Efficient estimation of word representations in vector space [C]// Proceedings of the 2013 International Conference on Learning Representations. Stroudsburg, PA: ACL, 2013: 1-12.

[24]?BAHDANA D, CHO K, BENGIO Y. Neural machine translation by jointly learning to align and translate [C]// Proceedings of the 3rd International Conference on Learning Representations. San Diego, CA: [s.n.], 2015: 1-15.

猜你喜歡
遷移學(xué)習(xí)注意力機(jī)制
面向短文本的網(wǎng)絡(luò)輿情話題
基于自注意力與動(dòng)態(tài)路由的文本建模方法
基于深度學(xué)習(xí)的問(wèn)題回答技術(shù)研究
基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
基于注意力機(jī)制的雙向LSTM模型在中文商品評(píng)論情感分類中的研究
遷移學(xué)習(xí)研究綜述
InsunKBQA:一個(gè)基于知識(shí)庫(kù)的問(wèn)答系統(tǒng)
從認(rèn)知角度探討大學(xué)英語(yǔ)網(wǎng)絡(luò)教學(xué)模式
奇異值分解與移移學(xué)習(xí)在電機(jī)故障診斷中的應(yīng)用
一種基于遷移極速學(xué)習(xí)機(jī)的人體行為識(shí)別模型
湟源县| 商南县| 封开县| 贵溪市| 兴国县| 保德县| 和田市| 云和县| 南阳市| 元江| 岳西县| 韶关市| 镇康县| 大同县| 海门市| 荥阳市| 岳西县| 黄石市| 宣威市| 天等县| 洪江市| 长寿区| 遂平县| 临邑县| 柳林县| 河东区| 萨迦县| 扶绥县| 光泽县| 新平| 渝北区| 张北县| 桂阳县| 班玛县| 睢宁县| 长垣县| 平遥县| 七台河市| 沙洋县| 大足县| 湘乡市|