国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于知識話題模型的文本蘊涵識別

2015-06-09 23:45:58盛雅琦馮文賀劉茂福
中文信息學(xué)報 2015年6期
關(guān)鍵詞:蘊涵語義特征

任 函,盛雅琦,馮文賀,劉茂福

(1. 湖北工業(yè)大學(xué) 計算機學(xué)院,湖北 武漢 430068;2. 武漢大學(xué) 計算機學(xué)院,湖北 武漢 430072;3. 武漢科技大學(xué) 計算機科學(xué)與技術(shù)學(xué)院,湖北 武漢 430065;4. 武漢大學(xué) 湖北省語言與智能信息處理研究基地,湖北 武漢 430072)

?

基于知識話題模型的文本蘊涵識別

任 函1,4,盛雅琦2,4,馮文賀2,4,劉茂福3,4

(1. 湖北工業(yè)大學(xué) 計算機學(xué)院,湖北 武漢 430068;2. 武漢大學(xué) 計算機學(xué)院,湖北 武漢 430072;3. 武漢科技大學(xué) 計算機科學(xué)與技術(shù)學(xué)院,湖北 武漢 430065;4. 武漢大學(xué) 湖北省語言與智能信息處理研究基地,湖北 武漢 430072)

該文分析了現(xiàn)有基于分類策略的文本蘊涵識別方法的問題,并提出了一種基于知識話題模型的文本蘊涵分類識別方法。 其假設(shè)是: 文本可看作是語義關(guān)系的組合,這些語義關(guān)系構(gòu)成若干話題;若即若文本T蘊涵假設(shè)H,說明 T 和 H 具有相似的話題分布,反之說明T 和 H 不具有相似的話題分布。基于此,我們將 T 和 H 的蘊涵識別問題轉(zhuǎn)化為相關(guān)話題的生成過程,同時將文本推理知識融入到抽樣過程,由此建立一個面向文本蘊涵識別的話題模型。實驗結(jié)果表明基于知識話題模型在一定程度上改進了文本蘊涵識別系統(tǒng)的性能。

文本蘊涵識別;話題模型;蘊涵分類;推理知識

1 引言

文本蘊涵識別(Recognizing Textual Entailment)是一個判斷文本之間推理關(guān)系的任務(wù),定義為: 給定一個連貫文本T(Text)和一個假設(shè)H(Hypothesis),如果H的意義可以從T的意義中推斷出來,那么就認為T蘊涵H(即H是T的推斷)[1]。作為一個挑戰(zhàn)任務(wù),文本蘊涵識別能夠廣泛應(yīng)用于各類自然語言處理應(yīng)用,例如,自動問答系統(tǒng)、多文檔自動摘要、信息抽取、信息檢索、機器翻譯及自然語言理解(NLU)領(lǐng)域中的機器閱讀等[2-3]。

在RTE挑戰(zhàn)任務(wù)中,文本蘊涵識別問題可以看作是一個標(biāo)準(zhǔn)的二分類問題[4],即將需要識別的“文本—假設(shè)”對利用分類器進行分類,若假設(shè)與某一句子之間存在蘊涵關(guān)系,則歸為“蘊涵”(Entailment)類;若不存在蘊涵關(guān)系或無法判斷兩者是否存在蘊涵關(guān)系,則歸為“不蘊涵”(No Entailment)類。然而,蘊涵和非蘊涵兩個類都比較龐雜,實例間的相似性難以保證,它們的區(qū)別性特征就不容易確定,所以據(jù)此建立的分類器性能不太理想。為改進分類器的性能,可以采取兩種方法。第一種方法是利用語義相似度特征(如謂詞論元結(jié)構(gòu))評估蘊涵關(guān)系,其假設(shè)為: 語義結(jié)構(gòu)重疊度越高,則T和H越有可能描述了相同的語義關(guān)系。然而這一假設(shè)僅考慮了局部語義關(guān)系是否一致,而缺乏總體語義關(guān)系的判斷能力。并且現(xiàn)有語義分析方法僅能描述非常有限的語義關(guān)系(如謂詞和相關(guān)論元的關(guān)系),使得蘊涵識別系統(tǒng)性能難以得到有效提升;第二種方法是引入合適的背景知識,利用這些知識描述從給定文本假設(shè)對中獲得的推理關(guān)系,從而提高推理性能。然而,大多數(shù)分類方法的主要策略是相似度比較,難以有效利用外部知識識別可推理的關(guān)系。

本文提出一種基于知識話題模型的文本蘊涵識別模型。該模型的假設(shè)為: 若兩個文本片斷具有蘊涵關(guān)系,則它們必然擁有相同或相似的話題。我們利用話題模型評估文本片斷之間的相關(guān)程度,以此作為判斷文本片斷是否具有蘊涵關(guān)系的一個依據(jù)。我們利用文本假設(shè)對建立LDA模型,并利用多種方法評估文檔的話題概率分布的相似性。針對因蘊涵知識缺乏而導(dǎo)致的話題生成錯誤的問題,我們引入背景知識以改進抽樣精度,提高生成話題的性能,從而提高文本語義相關(guān)度的評估性能。實驗表明,在分別采用話題模型和知識話題模型以后,系統(tǒng)的準(zhǔn)確率逐漸提高,說明話題模型與背景知識結(jié)合,能夠有效改進系統(tǒng)的性能。

本文第二部分簡要介紹文本蘊涵相關(guān)工作;第三部分介紹知識話題模型;第四部分介紹了基于話題模型的文本蘊涵識別及基于知識話題模型的文本蘊涵識別的實驗;第五部分對全文工作進行總結(jié)和展望。

2 相關(guān)工作

現(xiàn)有的識別文本蘊涵方法主要可以分為三大類:

一、基于分類策略的文本蘊涵識別。該策略將文本蘊涵形式化為一個兩類(蘊涵和不蘊涵)或三類(蘊涵、矛盾和未知)的分類問題。根據(jù)已標(biāo)注的訓(xùn)練實例,學(xué)習(xí)其中的特征并建立分類器。該方法主要抽取蘊涵對(T-H 對)的詞匯特征,如詞匯對齊特征、基于同義詞林語義相似度特征、反義詞特征等;句法結(jié)構(gòu)特征,如依存圖對齊特征、謂詞-論元結(jié)構(gòu)特征等;然后用類似支持向量機分類器進行分類。如基于 FrameNet框架關(guān)系的文本蘊涵識別[5],識別矛盾文本[6],用支持向量機和字符串相似識別蘊涵[7],基于事件語義特征的中文文本蘊含識別[8],基于知網(wǎng)的文本推理[9]等。但就分類策略而言,其問題在于蘊涵和非蘊涵兩個類都比較龐雜,實例間的相似性難以保證,它們的區(qū)別性特征就不容易確定,所以據(jù)此建立的分類器性能不太理想。

二、基于轉(zhuǎn)換策略的文本蘊涵識別。主要根據(jù)蘊涵規(guī)則,或者編輯距離來判斷文本蘊涵。如Kouylekov和Magnini[10]在任務(wù)RTE-1中應(yīng)用編輯距離來識別文本蘊涵,Kouylekov[11]等人提出一個基于編輯距離識別文本蘊涵的開源框架Edit Distance Textual Entailment Suite(EDITS)。然而這些編輯操作難以體現(xiàn)語義層面的轉(zhuǎn)換,因此對于比較復(fù)雜的語義蘊涵關(guān)系難以準(zhǔn)確識別;另一類方法利用自動抽取的推理規(guī)則來識別文本蘊涵,如復(fù)述規(guī)則DIRT[12],全局學(xué)習(xí)蘊涵規(guī)則[13],兩層模型學(xué)習(xí)上下文相關(guān)推理[14]等。然而,目前規(guī)則自動獲取的性能還有待提高,其中一個重要的原因就是規(guī)則的歧義性。例如,對于推理模板r:“X 打 Y”,以下兩條規(guī)則都蘊含于它。

r1: X 玩 Y

r2: X 買 Y

當(dāng)X為“我”,Y為“球”時,r與r1具有推理關(guān)系;而當(dāng)X為“我”,Y為“醬油”時,r與r2具有推理關(guān)系。顯然,這兩個模板所代表的意思完全不同。 出現(xiàn)該問題的原因是動作“打”具有多義性。該問題可以用以下兩種方式解決: 一是對蘊涵規(guī)則標(biāo)注更多語義信息,然而目前缺乏相關(guān)資源和研究;二是在進行推理時選擇合適的規(guī)則,然而做到這點并不容易,因為推理規(guī)則大多數(shù)是句法的轉(zhuǎn)換,不帶有語義信息,因此我們很難去判斷究竟應(yīng)該選擇哪條規(guī)則才能使轉(zhuǎn)換后的意義保持一致。

三、基于深度分析和語義推理策略的文本蘊含識別。這種方法主要是采用傳統(tǒng)的邏輯推理、自然邏輯推理、本體推理或語義特征等獲得推理知識。其難點在于大量知識往往難以有效獲取,沒有足夠的知識,對于深度推理及分析來說是比較困難的。

3 知識話題模型

本文提出一種基于話題模型的文本蘊涵識別方法,其假設(shè)是: 文本可看作是語義關(guān)系的組合,這些語義關(guān)系構(gòu)成若干話題。若T能推理出H,說明T和H具有相似的話題分布;反之說明T和H不具有相似的話題分布?;诖耍覀儗⑻N涵識別問題轉(zhuǎn)化為話題的生成過程,由此建立一個面向文本蘊涵識別的話題模型。

另一方面,簡單話題模型無法處理詞義、句法結(jié)構(gòu)等知識,而文本蘊涵識別需要利用各種外部知識,如詞義關(guān)系、推理規(guī)則等,因此,如何在模型中應(yīng)用外部推理知識,就成為面向文本蘊涵識別的話題建模的一個重要問題。Rubin等將標(biāo)簽頻率作為先驗知識應(yīng)用于話題模型,以改進多文檔摘要的性能,并指出先驗知識可以提高簡單話題模型的性能[15];Chen 提出一種在多領(lǐng)域上進行話題建模的LTM模型,通過在不同領(lǐng)域中抽取各自的話題,對不同領(lǐng)域的話題進行融合,獲得多領(lǐng)域之間的關(guān)聯(lián)詞匯對,并在Gibbs抽樣過程中引入先驗知識,來修正抽樣結(jié)果[16]。受此啟發(fā),我們提出了一種基于知識話題模型的文本蘊涵識別方法,在Gibbs抽樣過程中引入詞義關(guān)系和推理規(guī)則,以改進抽樣結(jié)果。

3.1 KLDA模型

知識話題模型(Knowledge-Based Topic Model, KBTM)利用先驗知識指導(dǎo)話題建模,為話題生成提供了一種有監(jiān)督的學(xué)習(xí)方法,能夠在一定程度上改善話題生成的性能[17]。我們對標(biāo)準(zhǔn)LDA話題模型進行修改,稱之為KLDA話題模型。其構(gòu)建算法流程如算法1所示。

KLDA 模型算法流程描述如下: 首先對外部知識庫進行知識挖掘,產(chǎn)生算法中所需要的先驗知識,即得到一個基于外部知識的詞匯關(guān)聯(lián)矩陣E;其次,對于第i(∈[1,N])次 Gibbs 抽樣(N為Gibbs抽樣的迭代次數(shù)),計算在第i-1次Gibbs抽樣后話題中的所有單詞,得到每個話題中的所有單詞;再用之前計算得到的先驗知識對 Gibbs 抽樣進行修正。

3.2 知識挖掘

文本蘊涵需要用到的外部知識,主要有外部的詞語同義詞、詞語上下位關(guān)系、推理關(guān)系等。我們使用WordNet詞典和蘊涵規(guī)則集DIRT計算詞匯相關(guān)度,并建立詞匯關(guān)聯(lián)矩陣。算法描述如下所示。

知識挖掘算法的基本過程如下: 對于詞匯表中的每對單詞,通過外部資源計算詞匯的語義相似度,更新相似度矩陣E。通過該算法,我們可以得到一個基于外部知識庫的詞義相似度矩陣。

首先給出兩個單詞的詞語相關(guān)度的計算公式,定義如式(1)和(2)所示。

公式(1)表明,如果詞w和w′相同,則它們的相似度為1,否則利用WordNet和DIRT計算兩個詞的相似度。若以上條件均不滿足,則兩個詞的相似度為0。avg(Lin(w,w′),DIRT(w,w′))計算方法如式(2)所示。

公式(2)計算的是w,w′在WordNet和DIRT中的平均相似度,#n表示w,w′在知識庫出現(xiàn)的個數(shù),若w,w′出現(xiàn)在WordNet和DIRT中,則#n為2;若w,w′在WordNet出現(xiàn),則#n取值為1;若w或w′未出現(xiàn)在任何資源中,則公式值為0。

Lin(w,w′)計算方法為: 若w和w′屬于WordNet,則計算兩個詞語之間的Leacock-Chodorow相似度[18]。DIRT(w,w′)計算方法為: 若DIRT規(guī)則包含w和w′的關(guān)系,則認為兩個詞的DIRT相似度為1,否則為0。例如,對于buy和acquire,存在規(guī)則“XbuyY”→“XacquireY”,則認為兩個詞的DIRT相似度為1。

3.3 Gibbs抽樣

KLDA模型中的Gibbs抽樣過程利用外部先驗知識修正LDA模型抽樣的精度問題。其主要的思想是,在抽樣過程中,每一個單詞w的興趣抽樣分布與需要分配的話題中詞語有關(guān)。我們可以通過比較單詞w與話題中詞語的相關(guān)度,來衡量單詞w是否可以分配到話題桶中。

我們對標(biāo)準(zhǔn)Gibbs抽樣公式[19]進行修改,引入先驗外部知識,具體公式見式(3)。

修改后的Gibbs抽樣算法基本過程如下: 在每次抽樣之前,計算每個主題中所包含的單詞,即統(tǒng)計主題中詞頻計數(shù)大于0的所有詞語。對于第m篇文檔的第n個單詞,把它分配到主題k的概率是由詞頻和外部知識共同決定的,即還受到該詞與主題中所有詞的相關(guān)度決定。然后重新對單詞進行主題的劃分。當(dāng)?shù)諗亢?,輸出模型的參?shù)。

4 實驗

文本設(shè)計了兩個實驗,一是基于LDA模型的文本蘊涵識別系統(tǒng);二是基于KLDA的文本蘊涵識別系統(tǒng),分別利用RTE-8數(shù)據(jù)集進行測試。

文本蘊涵識別系統(tǒng)框架采用我們在RTE-5中使用的系統(tǒng)[20]。系統(tǒng)首先對文本進行預(yù)處理,包括詞根還原、詞性標(biāo)注、句法分析、語義分析和命名實體識別,然后基于預(yù)處理結(jié)果構(gòu)建四類特征,包括字串特征、結(jié)構(gòu)特征、語言學(xué)特征和基于LDA的語義相關(guān)度特征。其中,我們采用前三類特征中的部分特征作為本系統(tǒng)中的特征;同時,我們利用話題模型計算語義相關(guān)度特征。在學(xué)習(xí)階段,文本-假設(shè)對利用這些特征生成特征向量,放入分類器進行學(xué)習(xí)。

4.1 任務(wù)及數(shù)據(jù)集介紹

實驗選取RTE-8測評任務(wù)進行測試,RTE-8測評針對教育NLP領(lǐng)域中的學(xué)生答案進行分析,通過判斷學(xué)生答案是否蘊涵標(biāo)準(zhǔn)答案來判別學(xué)生答案是否正確。它的測評主任務(wù)分為五分類(5-way task),三分類(3-way task)和二分類(2-way task)三個子任務(wù)。每個子任務(wù)的數(shù)據(jù)集,給出了一個問題Q(Question),和該問題的標(biāo)準(zhǔn)答案RA(Reference Answer)以及學(xué)生答案A(Answer),任務(wù)中把學(xué)生答案A當(dāng)做T(Text),把問題的標(biāo)準(zhǔn)答案當(dāng)做H(Hypothesis),然后對該蘊涵對(T,H)進行蘊涵判斷。從而判斷學(xué)生答案是否正確。本文主要做二分類任務(wù)。

本實驗使用的數(shù)據(jù)集分兩部分: 一是Beetle數(shù)據(jù)集,該數(shù)據(jù)集是從BEETLE II教育輔導(dǎo)系統(tǒng)中獲取的標(biāo)注語料,數(shù)據(jù)集包括高中電學(xué)知識;二是Science Entailments語料庫(SciEntsBank),該語料庫中包含了16個不同科學(xué)領(lǐng)域的知識,如物理學(xué)、生命科學(xué)等。提供三個測試集,第一個測試集為Unseen answers(UA)測試集,在該測試集中,提供的問題和標(biāo)準(zhǔn)答案與訓(xùn)練集相同,但學(xué)生答案不同;第二個測試集為Unseen questions (UQ)測試集,該測試集中問題、標(biāo)準(zhǔn)答案以及學(xué)生答案均與訓(xùn)練集不同,但和訓(xùn)練集處于同一領(lǐng)域范圍;第三個測試集為Unseen domains (UD),測試集隨機選取三個與訓(xùn)練集不同的領(lǐng)域,從選取的領(lǐng)域中獲得問題、標(biāo)準(zhǔn)答案和學(xué)生答案。例1中的句子來自SciEntsBank語料庫中的2-way訓(xùn)練集,其中SA1標(biāo)記為correct,SA2,SA3標(biāo)記為incorrect。

例1

Question:You used several methods to separate and identify the substances in mock rocks. How did you separate the salt from the water?

RA:The water was evaporated, leaving the salt.

SA1:Let the water evaporate and the salt is left behind.

SA2:You just get water and the smashed mock rock and put the smashed rock and water together.

SA3:I do not know.

Beetle語料庫中訓(xùn)練集、Unseen answers(UA)測試集、Unseen questions(UQ)測試集分別有3 941對、439對、819對文本,SciEntsBank語料庫中訓(xùn)練集、Unseen answers(UA)測試集、Unseen questions(UQ)測試集、Unseen domains(UD)測試集分別有4 969對、540對、733對、4 562對文本。

4.2 實驗結(jié)果

本文分別在SciEntsBank和Beetle數(shù)據(jù)集上做了實驗,在SciEntsBank數(shù)據(jù)集上,把訓(xùn)練樣本和測試樣本總共10 804對文本對作為KLDA的數(shù)據(jù)集,同樣在beetle數(shù)據(jù)集上,共有5 199對文本對作為KLDA的數(shù)據(jù)集。設(shè)定α的初始值為50除以主題數(shù),β初始值為0.1,松弛變量η取值在0.1-0.9之間變化,取主題數(shù)k在20—100之間進行變化,迭代次數(shù)設(shè)為2 000,訓(xùn)練KLDA模型,最終分別得到了訓(xùn)練集和測試集文本T和假設(shè)H的主題分布;接著,分別計算訓(xùn)練集和測試集中文本T和假設(shè)H主題的KL距離;最后,把計算得到的KL距離值作為一維特征加入系統(tǒng)中訓(xùn)練。KLDA模型主題數(shù)對實驗結(jié)果的影響如圖1所示,圖中展示的是在SciEntsBank數(shù)據(jù)集上的實驗效果。從圖1中可以看出,話題數(shù)對系統(tǒng)實驗最終結(jié)果的影響并不是很大,分析原因,是由于本實驗把主題相似度作為一個特征,與其他特征融合到系統(tǒng)中,所以主題數(shù)對結(jié)果影響并不會很大。

圖1 主題數(shù)對正確率的影響

松弛變量η對實驗結(jié)果的影響如圖2所示。圖中展示的是在主題數(shù)k=20的條件下,在SciEnts-Bank數(shù)據(jù)集上的實驗效果。從圖中可以看出,松弛變量η設(shè)的越大,也就是外部知識的權(quán)重越大,實驗效果越好,這符合本文的實驗預(yù)期。

系統(tǒng)整體實驗測評結(jié)果如表1~表3所示?;鶞?zhǔn)系統(tǒng)baseline在sys-lda基礎(chǔ)上去掉了話題模型特征。各表中SoftCardinality-run1、ETS-run1和CU-run1展示的是參賽隊伍前三名的結(jié)果,Mean顯示的是全部參賽隊伍平均性能,Lexical overlap baseline顯示的是RTE-8中基于詞匯重疊的基準(zhǔn)系統(tǒng)。

表2 系統(tǒng)加權(quán)F1評測

從表1可以看出基于KLDA的文本蘊涵識別系統(tǒng)在Beetle和ScientsBank數(shù)據(jù)集上,總體正確率達到71.4%,在所有參賽隊伍中排名第二,尤其是在Beetle的UA數(shù)據(jù)集上,正確率達到了80.2%,在所有參賽隊伍中排名第二;在Beetle的UQ數(shù)據(jù)集上sys-klda系統(tǒng)正確率比第一名隊伍高出1%,說明知識話題模型的部分性能優(yōu)于RTE-8最優(yōu)參賽隊伍的系統(tǒng)性能。

基于話題模型的系統(tǒng)在Beetle和SciEntsBank數(shù)據(jù)集上的總體正確率分別高于基準(zhǔn)系統(tǒng)0.8%和0.8%,兩個數(shù)據(jù)集的總體宏平均和加權(quán)宏平均也有所提高,說明基于話題模型的特征能夠提供有效的相關(guān)性度量,從而改進文本蘊涵系統(tǒng)的識別性能。另一方面,基于知識話題模型的系統(tǒng)在Beetle和SciEntsBank數(shù)據(jù)集上的總體正確率分別高于基于話題模型的系統(tǒng)0.8%和0.4%,兩個數(shù)據(jù)集的總體宏平均和加權(quán)宏平均也有所提高,說明外部推理知識能夠有效提高話題模型的準(zhǔn)確率。還有一方面,在分別采用話題模型和知識話題模型以后,系統(tǒng)的準(zhǔn)確率逐漸提高,說明話題模型與現(xiàn)有特征相結(jié)合,能夠穩(wěn)步提高系統(tǒng)的性能。

表3 系統(tǒng)宏平均評測

5 總結(jié)

本文提出一個基于知識話題模型的文本蘊涵識別系統(tǒng)。該模型通過話題模型建立詞匯相關(guān)性評估特征,用于改進基于分類的文本蘊涵識別系統(tǒng)的性能。為改進話題模型構(gòu)建缺乏知識指導(dǎo)的問題,本文提出通過在抽樣過程中引入文本蘊涵所需的背景知識,來修正抽樣的結(jié)果的方法,以提高話題生成的精度。實驗表明,知識話題模型能夠有效改進基于分類的文本蘊涵識別系統(tǒng)的性能。

本文引入了外部推理和詞義知識,在一定程度上對話題模型的產(chǎn)生起到修正作用。但是該模型的時間復(fù)雜度較高,如何減少時間復(fù)雜度是今后研究的一個要點;其次,如何在引入更多的外部知識,如語義結(jié)構(gòu)變換規(guī)則,以進一步提高話題生成性能,也是今后研究的另一個主要問題。

[1] Dagan I, Glickman O, Magnini B. The PASCAL recognising textual entailment challenge[C]//Proceedings of the Machine Learning Challenges, Evaluating Predictive Uncertainty, Visual Object Classification, and Recognising Tectual Entailment. Springer Berlin Heidelberg, 2006: 177-190.

[2] Androutsopoulos I, Malakasiotis P. A Survey of Paraphrasing and Textul Entailment Methods[J]. Journal of Artificial Intelligence Research, 2010, 38(1): 135-187.

[3] Dagan I, Dolan B. Recognizing textual entailment: Rational, evaluation and approaches[J]. Natural Language Engineering, 2009, 15(4): i-xvii.

[4] O Dzikovska M, D Nielsen R, Brew C, et al. SemEval-2013 Task 7: The Joint Student Response Analysis and 8th Recognizing Textual Entailment Challenge[C]//Proceedings of Second Joint Conference on Lexical and Computational Semantics. 2013: 263-274.

[5] 張鵬,李國臣,李茹等. 基于FrameNet框架關(guān)系的文本蘊含識別[J]. 中文信息學(xué)報,2012,26(2): 46-50.

[6] De Marneffe M C, Rafferty A N, Manning C D. Finding Contradictions in Text[C]//Proceedings of the ACL. 2008, 8: 1039-1047.

[7] Malakasiotis P, Androutsopoulos I. Learning textual entailment using SVMs and string similarity measures[C]//Proceedings of the ACL-PASCAL Workshop on Textual Entailment and Paraphrasing. Association for Computational Linguistics, 2007: 42-47.

[8] 劉茂福,李妍,姬東鴻.基于事件語義特征的中文文本蘊含識別[J]. 中文信息學(xué)報,2013,27(5): 129-136.

[9] 石晶,戴國忠.基于知網(wǎng)的文本推理[J]. 中文信息學(xué)報,2006,20(1): 76-84.

[10] Kouylekov M, Magnini B. Recognizing textual entailment with tree edit distance algorithms[C]//Proceedings of the First Challenge Workshop Recognising Textual Entailment. 2005: 17-20.

[11] Kouylekov M, Negri M. An open-source package for recognizing textual entailment[C]//Proceedings of the ACL 2010 System Demonstrations. Association for Computational Linguistics, 2010: 42-47.

[12] Lin D, Pantel P. Discovery of inference rules for question-answering[J]. Natural Language Engineering, 2001, 7(4): 343-360.

[13] Berant J, Dagan I, Goldberger J. Global learning of typed entailment rules[C]//Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies-Volume 1. Association for Computational Linguistics, 2011: 610-619.

[14] Melamud O, Berant J, Dagan I, et al. A Two Level Model for Context Sensitive Inference Rules[C]//Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics. 2013:1331-1340.

[15] T N Rubin, A Chambers, P Smyth, et al. Statistical topic models for multi-label document classification[M]. Arxiv preprint arXiv, 2011:1107.2462.

[16] Chen Z, Liu B. Topic Modeling using Topics from Many Domains, Lifelong Learning and Big Data[C]//Proceedings of the 31st International Conference on Machine Learning (ICML-14). 2014: 703-711.

[17] Chang J, Boyd-Graber J, Chong W, et al. Reading Tea Leaves: How Humans Interpret Topic Models[C]//Proceedings of the 23rh Annual Conference on Neural Information Processing Systems. Vancouver, Canada.2009.

[18] Leacock C, Chodorow M. Combing Local Context and WordNet Similarity for Word Sense Identification[C]//Proceedings of the Electronic Lexical Database, MIT Press, 1998:265-283.

[19] Blei D M, Ng A Y, Jordan M I. Latent dirichlet allocation[J]. The Journal of machine Learning research, 2003, 3: 993-1022.

[20] Ren H, Ji D, Wan J. WHU at TAC 2009: A Tri-categorization Approach to Textual Entailment Recognition[C]//Proceedings of the Fifth PASCAL Challenges Workshop on Recognizing Textual Entailment. Gaithersburg, Maryland, USA, 2009.

Recognizing Textual Entailment Based on Knowledge Topic Models

REN Han1,4,SHENG Yaqi2,4,F(xiàn)ENG Wenhe2,4,LIU Maofu3,4

(1. School of Computer Science, Hubei University of Technology, Wuhan, Hubei 430068, China; 2. School of Computer Science, Wuhan University, Wuhan, Hubei 430072, China; 3. College of Computer Science and Technology, Wuhan University of Science and Technology, Wuhan, Hubei 430065, China; 4. Hubei Research Base of Language and Intelligence Information Processing, Wuhan University, Wuhan, Hubei 430072, China)

This paper analyzes the defects in current entailment recognition approaches based on classification strategy and proposes a novel approach to recognizing textual entailment based on a knowledge topic model. The assumption in this approach is, if two texts have an entailment relation, they should share a same or similar topic distribution. The approach builds an LDA model to estimate semantic similarities between each text and hypothesis, which provides the evidences for judging entailment relation. We also employ three knowledge bases to improve the precision of Gibbs sampling. Experiments show that knowledge topic model improves the performance of textual entailment recognition systems.

recognizing textual entailment; topic model; entailment classification;inference knowledge

任函(1980—),博士,主要研究領(lǐng)域為自然語言處理。E-mail:hanren@whu.edu.cn盛雅琦(1991—),通信作者,碩士,主要研究領(lǐng)域為自然語言處理。E-mail:shmilysyq@whu.edu.cn馮文賀(1976—),博士,博士后(在站),主要研究領(lǐng)域為理論語言學(xué)、計算語言學(xué)。E-mail:wenhefeng@gmail.com

1003-0077(2015)06-0119-08

2015-06-05 定稿日期: 2015-08-05

國家自然科學(xué)基金(61402341,61173062,61373108);國家社會科學(xué)基金重大項目(11&ZD189);中國博士后科學(xué)基金(2013M540594)

TP391

A

猜你喜歡
蘊涵語義特征
偉大建黨精神蘊涵的哲學(xué)思想
語言與語義
如何表達“特征”
不忠誠的四個特征
我的超級老爸
抓住特征巧觀察
多重模糊蘊涵與生成模糊蘊涵的新方法
“上”與“下”語義的不對稱性及其認知闡釋
關(guān)于Fuzzy蘊涵代數(shù)的模糊MP濾子
認知范疇模糊與語義模糊
光泽县| 尉犁县| 金寨县| 长沙县| 北安市| 泽普县| 荣成市| 临洮县| 邹城市| 白银市| 贵溪市| 峨山| 原阳县| 杂多县| 衡水市| 泽州县| 黄山市| 十堰市| 新郑市| 灌云县| 稷山县| 田阳县| 育儿| 乐都县| 兴宁市| 大洼县| 和政县| 洪湖市| 扶余县| 伽师县| 泉州市| 南溪县| 佛教| 泗阳县| 佛山市| 合阳县| 孟连| 曲松县| 福贡县| 宣威市| 华宁县|