国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于Bi—LSTM—CRF網(wǎng)絡(luò)的語(yǔ)義槽識(shí)別

2018-01-15 09:59徐梓翔車(chē)萬(wàn)翔劉挺
關(guān)鍵詞:語(yǔ)料指令語(yǔ)句

徐梓翔+車(chē)萬(wàn)翔+劉挺

摘要: 關(guān)鍵詞: 中圖分類(lèi)號(hào): 文獻(xiàn)標(biāo)志碼: A文章編號(hào): 2095-2163(2017)06-0091-04

Abstract: The main purpose of natural language understanding is to transform natural language to structural representation. One of the methods of natural language understanding is slot filling. In the slot filling task, the input is natural language and the output is slots which is predefined based on the specified intent, such as from location, to location in flight intent. So the paper treats slot filling task as sequence labeling task, then makes experiments with Bi-LSTM-CRF model on slot filling task. The result shows that Bi-LSTM-CRF model has the significant improvement comparing with traditional statistical methods like CRF. Concretely, F1 is used to evaluate the model results.

0引言

隨著人工智能浪潮的興起,智能聊天機(jī)器人成為人們研究的熱門(mén),人們希望機(jī)器像人一樣思考,與人類(lèi)對(duì)話,并成為人類(lèi)的幫手。完成這些的首要工作是語(yǔ)義理解。通過(guò)語(yǔ)義理解,可以使聊天機(jī)器人清晰理解人們的意圖,并成為人類(lèi)的助手,幫助人們做一系列事情,如訂機(jī)票、查詢天氣等等。

任務(wù)的主要目標(biāo)是:運(yùn)用自然語(yǔ)言處理的相關(guān)方法,對(duì)用戶發(fā)出的命令型語(yǔ)句進(jìn)行識(shí)別和解析,轉(zhuǎn)化成結(jié)構(gòu)化的語(yǔ)義表示,并執(zhí)行相應(yīng)命令。圖1就是對(duì)用戶發(fā)出的命令型語(yǔ)句進(jìn)行解析和執(zhí)行的方法流程。

用戶發(fā)出的指令型語(yǔ)句主要可提煉表述為如下特點(diǎn):

1)屬于某一個(gè)具體的指令領(lǐng)域,例如出行類(lèi)、音樂(lè)類(lèi)。

2)具有指令型特點(diǎn),即有具體的指令行為或者目的。例子如下:

① 出行-交通-機(jī)票類(lèi):幫助查詢一下明天從北京去上海的機(jī)票。

② 娛樂(lè)-音樂(lè)類(lèi):播放周杰倫的歌曲。

③ 生活類(lèi):明天早上8點(diǎn)叫醒我。

本文的目標(biāo)是從這些指令型的語(yǔ)句中,解析出語(yǔ)義結(jié)構(gòu),從而能夠正確執(zhí)行指令。主要的思路如下:

步驟1定義指令的領(lǐng)域,為每個(gè)領(lǐng)域定義語(yǔ)義槽。即如表1所示,可以定義如下領(lǐng)域。

形式化地講,在語(yǔ)義槽標(biāo)注任務(wù)中,任務(wù)的輸入是經(jīng)過(guò)分詞后的句子L,輸出是每個(gè)詞的槽類(lèi)型S。在統(tǒng)計(jì)學(xué)模型中,該任務(wù)通常被建模為:給定詞序列L,任務(wù)的目標(biāo)是尋找一種槽標(biāo)注S,使得后驗(yàn)概率PS|L最大。使用貝葉斯公式,就可以得到:S^=argmaxSPS|L=argmaxSPL|SPS(1)目標(biāo)函數(shù)即被轉(zhuǎn)換為,給定L和S時(shí),最大化聯(lián)合概率PL|SPS=PL, S。

2基于Bi-LSTM-CRF網(wǎng)絡(luò)的語(yǔ)義槽抽取方法

長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)(Long Short Term Memory,LSTM)是一種循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks,RNN)的特殊類(lèi)型,可以學(xué)習(xí)長(zhǎng)期依賴(lài)信息。比起傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò),主要有兩個(gè)改動(dòng)的部分。其一,是引入了cell細(xì)胞;其二,是加入了gate的機(jī)制。

Input Gate是輸入門(mén),輸入的參數(shù)是當(dāng)前位置的輸入信息和上一個(gè)隱層神經(jīng)元傳過(guò)來(lái)的信息,其作用就是用來(lái)決定輸入信息,留下需要的,削減沒(méi)用的。

Forget Gate是遺忘門(mén),這是用來(lái)決定上一層的隱層神經(jīng)元傳過(guò)來(lái)的信息需要保留多少,需要?jiǎng)h除多少。

Output Gate是輸出門(mén),用來(lái)決定最后生成的輸出信息哪些重要,哪些不重要。

從上面的描述可以看到,對(duì)于之前傳統(tǒng)的RNN,因?yàn)檫@個(gè)模型共享一套參數(shù),因此不能決定哪個(gè)位置的信息更重要,哪個(gè)位置的信息不重要,所以在學(xué)習(xí)的時(shí)候比較困難,而LSTM引入了這種機(jī)制之后就能夠更容易保留研究所需要的重要信息。而且能夠在一定程度上消減了梯度消失的問(wèn)題。

本文最終采用的模型結(jié)構(gòu)示意如圖3所示。

在LSTM模型的基礎(chǔ)上,本文采用了雙向LSTM和CRF層結(jié)構(gòu),如圖3所示。對(duì)其可得闡釋解析如下。

1)使用雙向LSTM。在序列標(biāo)注任務(wù)中,通常需要同時(shí)考慮歷史和未來(lái)的上下文信息。然而,LSTM的隱層單元只記錄了歷史信息,對(duì)于未來(lái)信息一無(wú)所知,雙向LSTM模型可用來(lái)解決該問(wèn)題。Bi-LSTM的基本思想是,使用兩個(gè)LSTM模型,一個(gè)模型的輸入是序列從左往右的順序,另一個(gè)模型的輸入是序列從右往左的順序。最后,將兩個(gè)LSTM模型的隱層單元輸出進(jìn)行拼接,作為整體網(wǎng)絡(luò)隱層的輸出。

3評(píng)價(jià)指標(biāo)與實(shí)驗(yàn)結(jié)果

3.1實(shí)驗(yàn)語(yǔ)料準(zhǔn)備

本文使用ATIS語(yǔ)料作為實(shí)驗(yàn)的數(shù)據(jù)集。該數(shù)據(jù)集存儲(chǔ)的都是英文機(jī)票語(yǔ)料。這個(gè)數(shù)據(jù)集包括了128種不同的標(biāo)簽,ATIS-2和ATIS-3的4 978句選作訓(xùn)練語(yǔ)料,隨機(jī)抽取其中80%共3 983句作為訓(xùn)練集,剩下20%共995句作為開(kāi)發(fā)集;同時(shí),使用ATIS-3 Nov93和Dec94數(shù)據(jù)集的893句作為測(cè)試集。

3.2評(píng)價(jià)指標(biāo)endprint

由F1值可以看出,使用Bi-LSTM模型相比使用CRF的baseline,在開(kāi)發(fā)集和測(cè)試集上,結(jié)果都有顯著提高;Bi-LSTM-CRF的模型相比Bi-LSTM在開(kāi)發(fā)集和測(cè)試集上結(jié)果都有一定提高,在這幾種方法中取得了最好的效果。最終展現(xiàn)即如圖4所示。通過(guò)實(shí)驗(yàn)結(jié)果可以看出,Bi-LSTM使用CRF相比使用Viterbi Loss,學(xué)習(xí)的收斂速度更快。圖4中的loss進(jìn)行了歸一化處理。

4結(jié)束語(yǔ)

自然語(yǔ)言理解任務(wù)的主要目標(biāo)是運(yùn)用自然語(yǔ)言處理的相關(guān)方法,對(duì)用戶發(fā)出的命令型語(yǔ)句進(jìn)行解析和執(zhí)行,轉(zhuǎn)化成結(jié)構(gòu)化的語(yǔ)義表示,并執(zhí)行相應(yīng)命令。本文重點(diǎn)研究了基于語(yǔ)義槽抽取的自然語(yǔ)言理解方法。在基于語(yǔ)義槽抽取的自然語(yǔ)言理解任務(wù)中,任務(wù)的輸入是用戶的指令型語(yǔ)句,輸出為指令的語(yǔ)義槽實(shí)體標(biāo)注序列,如出發(fā)日期、出發(fā)地點(diǎn)等,故可將語(yǔ)義槽抽取任務(wù)看作類(lèi)似于命名實(shí)體識(shí)別任務(wù),以序列標(biāo)注任務(wù)的方法解決。本文探討研發(fā)了基于Bi-LSTM-CRF模型的語(yǔ)義槽抽取方法,并在英文語(yǔ)料ATIS上進(jìn)行了實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明,基于Bi-LSTM-CRF網(wǎng)絡(luò)的方法相比于CRF的基準(zhǔn)方法,結(jié)果得到了大幅度的提升。

參考文獻(xiàn):

[1] QUIRK C, MOONEY R, GALLEY M. Language to code: Learning semantic parsers for if-this-then-that recipes[C]// Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics (ACL-15). Beijing, China:ACL, 2015:878-888.

[2] LI Dong, LAPATA M. Language to logical form with neural attention[J]. arXiv preprint arXiv:1601.01280, 2016.

[3] WONG Y W, MOONEY R J. Learning for semantic parsing with statistical machine translation[C]// Proceedings of the main conference on Human Language Technology Conference of the North American Chapter of the Association of Computational Linguistics. NewYork:ACM, 2006:439-446.

[4] WONGY W, MOONEY R J. Learning synchronous grammars for semantic parsing with lambda calculus[C]// Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics. Prague, Czech Republic:ACL, 2007,45(1):960-967.

[5] MILLER S, STALLARD D, BOBROW R, et al. A fully statistical approach to natural language interfaces[C]//Proceedings of the 34th annual meeting on Association for Computational Linguistics. Santa Cruz, California: ACM, 1996:55-61.

[6] ZELLE J M, MOONEY R J. Learning to parse database queries using inductive logic programming[C]// Proceedings of the thirteenth national conference on artificial intelligence. Portalnd, OR:AAAI,1996:1050-1055.

[7] ARTZI Y, ZETTLEMOYER L. Bootstrapping semantic parsers from conversations[C]//Proceedings of the conference on empirical methods in natural language processing. Edinburgh, United Kingdom: ACM, 2011:421-432.

[8] ZETTLEMOYER L S, COLLINS M. Learning to map sentences to logical form: Structured classification with probabilistic categorial grammars[J]. arXiv preprint arXiv:1207.1420 ,2012.

[9] ZETTLEMOYER L S, COLLINS M. Online learning of relaxed CCG grammars for parsing to logical form[C]//Proceedings of the 2007 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning. Prague, Czech Republic:DBLP,2007:678-687.

[10]ZETTLEMOYER L S, COLLINS M. Learning contextdependent mappings from sentences to logical form[C]// Proceedings of the Joint Conference of the 47th Annual Meeting of the ACL and the 4th International Joint Conference on Natural Language Processing of the AFNLP: Volume 2-Volume 2. Suntec, Singapore: ACM, 2009:976-984.endprint

猜你喜歡
語(yǔ)料指令語(yǔ)句
一樣,不一樣
《單一形狀固定循環(huán)指令G90車(chē)外圓仿真》教案設(shè)計(jì)
可比語(yǔ)料庫(kù)構(gòu)建與可比度計(jì)算研究綜述
新機(jī)研制中總裝裝配指令策劃研究
中古漢語(yǔ)分期研究所涉及的語(yǔ)料問(wèn)題
如何使用第二外語(yǔ)學(xué)習(xí)者語(yǔ)料
基本算法語(yǔ)句
我喜歡
作文語(yǔ)句實(shí)錄
英語(yǔ)教學(xué)中真實(shí)語(yǔ)料的運(yùn)用
巨鹿县| 集安市| 池州市| 廊坊市| 赤城县| 城口县| 五大连池市| 乐清市| 涪陵区| 南涧| 教育| 徐水县| 崇义县| 华亭县| 开原市| 山东省| 上思县| 城口县| 平江县| 浦城县| 乌兰察布市| 库伦旗| 新闻| 珠海市| 盐城市| 雷波县| 瑞安市| 红河县| 嘉兴市| 垫江县| 孟村| 宿迁市| 龙里县| 宣武区| 乐昌市| 曲周县| 繁昌县| 长岛县| 兴化市| 博湖县| 晴隆县|