国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

多樣性文本生成方法研究

2021-11-22 10:09徐楊
現(xiàn)代計(jì)算機(jī) 2021年7期
關(guān)鍵詞:解碼器解碼編碼

徐楊

(四川大學(xué)計(jì)算機(jī)學(xué)院,成都610065)

0 引言

目前各種智能應(yīng)用出現(xiàn)在不同領(lǐng)域,例如:?jiǎn)柎鹣到y(tǒng)、對(duì)話系統(tǒng)等,這些應(yīng)用幾乎都涉及文本生成任務(wù),該任務(wù)是自然語(yǔ)言處理領(lǐng)域的研究熱點(diǎn)之一。文本生成旨在通過(guò)機(jī)器自動(dòng)生成符合語(yǔ)法規(guī)范、滿(mǎn)足特定任務(wù)目標(biāo)的文本,例如:在問(wèn)答系統(tǒng)中機(jī)器根據(jù)源文本及問(wèn)題查詢(xún),生成簡(jiǎn)潔且相關(guān)的答案;在對(duì)話系統(tǒng)中機(jī)器利用對(duì)話歷史產(chǎn)生對(duì)當(dāng)前對(duì)話的回復(fù)。然而,隨著智能應(yīng)用的發(fā)展,人機(jī)交互體驗(yàn)更加受到重視,為了增加智能應(yīng)用的趣味性與可互動(dòng)性,生成的文本要求表現(xiàn)多樣性。例如:針對(duì)某些相似對(duì)話,聊天機(jī)器人如果只能產(chǎn)生特定的回答,將顯得枯燥無(wú)味,不利于聊天持續(xù)進(jìn)行。因此,多樣性文本生成是文本生成研究的重點(diǎn)問(wèn)題之一。目前多樣性文本生成研究以神經(jīng)網(wǎng)絡(luò)的方法為主,利用Seq2Seq(Sequence-to-Sequence)模型對(duì)源文本編碼,然后再解碼產(chǎn)生目標(biāo)文本。本文第一部分對(duì)多樣性文本生成任務(wù)中面臨的問(wèn)題及其主要原因進(jìn)行介紹與分析,第二部分重點(diǎn)介紹現(xiàn)階段各類(lèi)解決多樣性文本生成問(wèn)題的相關(guān)工作,尤其是變分自編碼方法。

1 問(wèn)題描述及原因分析

1.1 問(wèn)題描述

多樣性文本生成任務(wù)要求機(jī)器根據(jù)給定的文本信息自動(dòng)生成符合語(yǔ)法規(guī)范的、多樣的、相關(guān)的文本。Seq2Seq 模型在眾多文本生成任務(wù)[1-3]中均取得顯著效果,但該模型對(duì)輸入的相同源文本只能產(chǎn)生固定的輸出文本。例如:在聊天機(jī)器人中,向機(jī)器發(fā)送相同或相似的對(duì)話,機(jī)器只能產(chǎn)生固定的回復(fù),這使機(jī)器顯得呆板、枯燥。此外,模型還傾向于產(chǎn)生數(shù)據(jù)集中較高頻的通用型文本,例如:總產(chǎn)生類(lèi)似“I don’t know.”、“Me too.”的對(duì)話回復(fù)。以上兩方面問(wèn)題顯示了Seq2Seq 模型并不直接適用于多樣性文本生成任務(wù)。

1.2 原因分析

普通的Seq2Seq 模型主要由兩部分構(gòu)成:編碼器與解碼器。首先編碼器接收輸入的源文本信息,將源文本信息編碼為特定的語(yǔ)義向量,然后解碼器利用該語(yǔ)義向量解碼出目標(biāo)文本。通常將一個(gè)單向Recurrent Neural Network(RNN)作為解碼器,每一解碼時(shí)刻生成一個(gè)詞,逐步產(chǎn)生詞序列作為輸出文本。從上述Seq2Seq 模型工作過(guò)程看出:在測(cè)試階段由于模型參數(shù)固定,向模型輸入相同源文本時(shí),編碼器將源文本編碼為相同的語(yǔ)義向量,此時(shí)解碼器只能產(chǎn)生固定的輸出文本。因此,Seq2Seq 模型對(duì)于相同輸入只能得到相同輸出,不能直接產(chǎn)生多樣性文本。另外,在Seq2Seq 模型中廣泛使用最大似然作為優(yōu)化目標(biāo),讓模型在訓(xùn)練過(guò)程中能盡可能地?cái)M合標(biāo)注的目標(biāo)文本。然而,個(gè)別標(biāo)注目標(biāo)文本大量重復(fù)出現(xiàn)在數(shù)據(jù)集中,出現(xiàn)頻率遠(yuǎn)高于其他文本,因此在最大似然優(yōu)化過(guò)程中模型自然會(huì)更加傾向于生成頻率高的文本。

綜合上述分析,導(dǎo)致Seq2Seq 模型生成文本多樣性較差的原因主要是:①模型結(jié)構(gòu)方面,模型只能將輸入源文本編碼為確定的語(yǔ)義向量,經(jīng)解碼后僅能生成相同文本;②優(yōu)化目標(biāo)方面,采用最大似然方法優(yōu)化模型參數(shù),模型傾向于生成較高頻的通用型文本,缺乏多樣性。

2 多樣性文本生成方法

基于前文對(duì)Seq2Seq 模型生成多樣性文本面臨問(wèn)題的分析,現(xiàn)有相關(guān)工作主要從以下兩方面展開(kāi):重新構(gòu)造模型優(yōu)化目標(biāo)函數(shù)、改變Seq2Seq 模型結(jié)構(gòu)。

2.1 重新構(gòu)造優(yōu)化目標(biāo)

Seq2Seq 模型損失函數(shù)通常定義為交叉熵,其損失的計(jì)算要求訓(xùn)練階段生成的文本必須與標(biāo)注文本一致,一旦不一致就懲罰,但實(shí)際上對(duì)于給定的源文本并非只有訓(xùn)練數(shù)據(jù)中的標(biāo)注目標(biāo)文本才能作為輸出,換句話說(shuō),交叉熵?fù)p失函數(shù)的懲罰側(cè)重于字面上的擬合,未進(jìn)一步度量生成文本語(yǔ)義與源文本語(yǔ)義相關(guān)性等,所以出現(xiàn)了一系列重新構(gòu)造優(yōu)化目標(biāo)的工作,其中最大互信息方法被廣泛使用。

Li 等人[4]利用最大互信息替代原最大似然優(yōu)化方法,兩者的主要區(qū)別在于最大化互信息除了考慮到對(duì)標(biāo)注目標(biāo)文本的最大似然優(yōu)化之外,還進(jìn)一步考慮了標(biāo)注目標(biāo)文本自身出現(xiàn)的概率大小,對(duì)于那些高頻的標(biāo)注文本施加更大的懲罰,以緩解模型傾向于生成高頻文本問(wèn)題。然而計(jì)算互信息需要等文本生成結(jié)束,在生成過(guò)程中每個(gè)解碼時(shí)刻都涉及對(duì)詞表采樣,但離散詞表的采樣過(guò)程對(duì)模型參數(shù)是不可導(dǎo)的。為了解決此參數(shù)優(yōu)化問(wèn)題,Li 等人[5]利用強(qiáng)化學(xué)習(xí)延遲回報(bào)特性,借助策略梯度方法將互信息作為回報(bào)的一部分反饋給模型進(jìn)行優(yōu)化。雖然不少工作證明了最大互信息的有效性,但其優(yōu)化過(guò)程也較為復(fù)雜,后續(xù)工作中提出了更為簡(jiǎn)單、有效的啟發(fā)式方法。

Nakamura 等人[6]統(tǒng)計(jì)數(shù)據(jù)集語(yǔ)料后發(fā)現(xiàn)越高頻的詞越容易出現(xiàn)在通用型標(biāo)注文本中,他們?cè)谠冀徊骒負(fù)p失函數(shù)中考慮利用詞自身頻率的倒數(shù)加權(quán),降低了高頻詞占損失的比例,讓模型關(guān)注到更多較低頻的詞。該方法優(yōu)點(diǎn)在于簡(jiǎn)單直觀,但其啟發(fā)式規(guī)則可能會(huì)受不同數(shù)據(jù)集的影響。

除了上述兩大類(lèi)方法,不少工作考慮引入強(qiáng)化學(xué)習(xí)方法,基于各文本生成任務(wù)特點(diǎn)設(shè)計(jì)不同的回報(bào)函數(shù)對(duì)生成文本進(jìn)行評(píng)分,設(shè)計(jì)的回報(bào)函數(shù)避免了交叉熵?fù)p失函數(shù)嚴(yán)格懲罰生成文本字面擬合的問(wèn)題。從原理上看,強(qiáng)化學(xué)習(xí)方法更適合于文本生成任務(wù),但在實(shí)際應(yīng)用中強(qiáng)化學(xué)習(xí)面臨著較多優(yōu)化問(wèn)題,例如:每次決策時(shí)面臨的候選動(dòng)作詞表空間較大,很難有效探索到高質(zhì)量樣本,此外,回報(bào)函數(shù)極大地影響了模型性能,合適的回報(bào)函數(shù)較難確定。

2.2 改進(jìn)Seq2Seq模型結(jié)構(gòu)

當(dāng)Seq2Seq 模型參數(shù)固定時(shí),編碼器只能將輸入的相同源文本編碼為確定的向量表達(dá),最終解碼器生成相同文本。從編碼角度看,編碼器的編碼方式限制了源文本語(yǔ)義表達(dá)的多樣性。為此,變分自編碼(VAE,Variational AutoEncoder)方法[7-9]被引入到文本生成任務(wù)中。與普通Seq2Seq 編碼方式不同,VAE 引入潛變量刻畫(huà)源文本語(yǔ)義分布,利用編碼器將輸入的源文本編碼為語(yǔ)義分布(通常假設(shè)為相互獨(dú)立的多元高斯分布),而不是特定的語(yǔ)義向量。解碼器在生成文本前需從語(yǔ)義分布中采樣出語(yǔ)義向量解碼。語(yǔ)義分布蘊(yùn)含了更具多樣性的語(yǔ)義表達(dá),為解碼器提供了可變的源文本語(yǔ)義向量。因此,變分自編碼方法通過(guò)改進(jìn)Seq2Seq 模型結(jié)構(gòu),注入了更多樣的源文本語(yǔ)義。

Bowman 等人[10]較早將VAE 引入文本生成任務(wù),他們發(fā)現(xiàn)直接將VAE 用于文本生成任務(wù)會(huì)出現(xiàn)KL 損失降為0 問(wèn)題(KL 消失),即:優(yōu)化目標(biāo)中KL 項(xiàng)損失降為0。當(dāng)VAE 優(yōu)化目標(biāo)中的KL 損失降為0 后,VAE模型逐漸退化為普通Seq2Seq 模型,此時(shí)生成文本的多樣性依舊有限。他們還指出原因在于RNN 解碼器在當(dāng)前時(shí)刻會(huì)依賴(lài)之前解碼時(shí)刻及上一時(shí)刻的標(biāo)注詞,這種較強(qiáng)的依賴(lài)關(guān)系使當(dāng)前解碼時(shí)刻更多關(guān)注到之前時(shí)刻的狀態(tài)信息與當(dāng)前時(shí)刻輸入的標(biāo)注詞信息,忽略了引入的潛變量,所以注入到潛變量中的多樣性語(yǔ)義不起作用。Bowman 等人提出了兩個(gè)啟發(fā)式方法改變模型的訓(xùn)練過(guò)程,首先在訓(xùn)練開(kāi)始時(shí)將優(yōu)化目標(biāo)中的KL 損失項(xiàng)權(quán)重置為0,隨著訓(xùn)練進(jìn)行再逐漸增加KL 項(xiàng)權(quán)重至1,然后在解碼過(guò)程中隨機(jī)遮蔽一定比例的標(biāo)注詞,盡量削弱解碼器各解碼時(shí)刻間的依賴(lài)關(guān)系,迫使當(dāng)前解碼時(shí)刻能更多關(guān)注到來(lái)潛變量提供的語(yǔ)義信息。雖然以上兩種啟發(fā)式方法能在一定程度上提高生成文本的多樣性,但實(shí)際效果受超參數(shù)影響較大,例如:當(dāng)遮蔽比率過(guò)大時(shí),模型擬合性能下降;反之則起不到遮蔽效果。此后,不少工作進(jìn)一步針對(duì)VAE 在文本生成中存在的KL 消失問(wèn)題展開(kāi)了進(jìn)一步研究與分析。

Bahuleyan 等人[11]研究發(fā)現(xiàn)當(dāng)直接傳遞源文本信息到RNN 解碼器會(huì)更容易出現(xiàn)KL 消失問(wèn)題,因?yàn)楫?dāng)解碼器能夠直接訪問(wèn)到源文本信息后,會(huì)逐漸繞開(kāi)潛變量,使后續(xù)解碼過(guò)程忽視潛變量。普通的注意力機(jī)制本質(zhì)上是對(duì)源文本信息的一種加權(quán),此時(shí)解碼器通過(guò)注意力機(jī)制得到的上下文向量同樣相當(dāng)于直接訪問(wèn)源文本信息,所以容易出現(xiàn)KL 消失問(wèn)題。Bahuleyan 等人提出了變分注意力機(jī)制緩解解碼器繞過(guò)潛變量的問(wèn)題,將原來(lái)確定的上下文向量轉(zhuǎn)化為潛變量分布,讓解碼器訪問(wèn)源文本信息時(shí)不能繞過(guò)潛變量。

原始VAE 是作為自編碼方法,后續(xù)研究進(jìn)一步提出了針對(duì)給定源文本情況下目標(biāo)文本生成概率的建模方法——條件變分自編碼方法(CVAE,Conditional Variational Autoencoder)[12]。CVAE 與VAE 的主要區(qū)別在于兩者建模過(guò)程中學(xué)習(xí)的分布不同以及模型輸入不同。VAE 模型的輸入只有源文本,而CVAE 需同時(shí)輸入源文本與標(biāo)注目標(biāo)文本,因CVAE 需建模一個(gè)后驗(yàn)分布,并從后驗(yàn)分布中采樣參與解碼器訓(xùn)練。此外,CVAE 還需學(xué)習(xí)一個(gè)條件先驗(yàn)分布,該分布未直接參與解碼器訓(xùn)練過(guò)程。由于CVAE 訓(xùn)練過(guò)程中直接將標(biāo)注目標(biāo)文本作為輸入,而測(cè)試階段沒(méi)有標(biāo)注文本,所以測(cè)試階段無(wú)法直接使用后驗(yàn)分布,而是從條件先驗(yàn)分布中采樣生成文本。因此,CVAE 模型在訓(xùn)練和測(cè)試階段分別從不一致的分布中采樣,使模型性能在測(cè)試階段明顯下降。

之后,不少基于CVAE 的方法被提出來(lái)解決多樣性文本生成問(wèn)題,例如:Zhang 等人[13]為了增強(qiáng)解碼器與潛變量之間的關(guān)聯(lián),引入了一個(gè)標(biāo)簽網(wǎng)絡(luò),學(xué)習(xí)了標(biāo)注目標(biāo)文本的自編碼表達(dá),然后利用均方誤差損失懲罰潛變量與標(biāo)注文本自編碼表達(dá)的距離。雖然該工作在一定程度上提升了生成文本的多樣性,但依然面臨CVAE 訓(xùn)練階段與測(cè)試階段間的非一致性采樣過(guò)程。

上述VAE/CVAE 方法主要改進(jìn)Seq2Seq 模型結(jié)構(gòu),引入潛變量對(duì)源文本語(yǔ)義分布建模,為解碼器提供了更多樣的源語(yǔ)義表達(dá),解決了原編碼器僅能將源文本編碼為確定語(yǔ)義向量的問(wèn)題。變分編碼方法作為目前用于多樣性文本生成任務(wù)的流行方法,提高了生成文本的多樣性,但不可否認(rèn)此類(lèi)方法在優(yōu)化過(guò)程中依舊面臨挑戰(zhàn),現(xiàn)有緩解KL 消失問(wèn)題的方法大多從是問(wèn)題表面出發(fā)的或者啟發(fā)式的,仍缺乏理論上的分析與論證,因此,對(duì)于KL 消失的根本原因還值得深入研究。

3 結(jié)語(yǔ)

本文首先描述了多樣性文本生成任務(wù)的研究背景與意義,然后分析了多樣性文本生成任務(wù)中面臨的問(wèn)題及主要原因(編碼器只能將源文本編碼為確定的語(yǔ)義向量、模型傾向于生成數(shù)據(jù)集中高頻的文本),接著分別以上述兩原因?yàn)榍腥朦c(diǎn),重點(diǎn)介紹了從重新構(gòu)造模型優(yōu)化目標(biāo)、改變Seq2Seq 模型結(jié)構(gòu)兩角度解決多樣性文本生成問(wèn)題的現(xiàn)有工作,其中重點(diǎn)分析了目前基于VAE/CVAE 的相關(guān)工作。VAE/CVAE 引入潛變量對(duì)源語(yǔ)義分布建模,Seq2Seq 方法注入不同的源語(yǔ)義表達(dá),提高了生成文本的多樣性,然而此類(lèi)方法仍面臨優(yōu)化挑戰(zhàn)(KL 消失問(wèn)題)。雖然現(xiàn)有工作提出方法在一定程度上緩解了KL 消失問(wèn)題,但仍缺乏理論上的分析與論證,如何從根本上解決KL 消失問(wèn)題依然是待攻克的難題。

猜你喜歡
解碼器解碼編碼
HEVC對(duì)偶編碼單元?jiǎng)澐謨?yōu)化算法
住院病案首頁(yè)ICD編碼質(zhì)量在DRG付費(fèi)中的應(yīng)用
解碼 四十五度仰望天空
文化解碼
基于Android環(huán)境下的數(shù)據(jù)包校驗(yàn)技術(shù)分析
文化 解碼
文明 解碼
淺談SCOPUS解碼器IRD—2600系列常用操作及故障處理
做一個(gè)二進(jìn)制解碼器
因人而異調(diào)整播放設(shè)置