国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

多注意力機制的藏漢機器翻譯方法研究

2021-06-28 17:10劉賽虎珠杰
電腦知識與技術(shù) 2021年10期
關(guān)鍵詞:機器翻譯藏漢注意力機制

劉賽虎 珠杰

摘要:互聯(lián)互通時代了解和掌握不同語言的區(qū)域文化和信息十分重要,機器翻譯是目前廣泛應(yīng)用的交流媒介。本文以藏漢機器翻譯為研究對象,利用Transformer框架和模型,研究了基于Transformer多注意力機制的藏漢機器翻譯方法。經(jīng)過實驗,評估了多語料融合實驗、語料雙切分實驗對比效果,得到了BLEU值 32.6的實驗結(jié)果。

關(guān)鍵詞:藏漢;Transformer;機器翻譯;注意力機制;多語料

中圖分類號:TP399? ? ? 文獻(xiàn)標(biāo)識碼:A

文章編號:1009-3044(2021)10-0004-04

Abstract: It is very important to understand and master regional culture and information in different languages in the age of interconnection. Machine translation is a widely used communication medium. This paper takes Tibetan-Chinese machine translation as the research object, and uses the Transformer framework and model to study the Tibetan-Chinese machine translation method based on Transformermechanism. Through experiments, the comparison effect of multi-corpus fusion experiment and corpus double-segmentation experiment was evaluated, and the experimental results of BLEU 32.6 were obtained.

Key words: Tibetan-Chinese; Transformer; machine translation; attention mechanism; multilingual corpus

機器翻譯(Machine Translation,MT)是借助機器的高計算能力,自動地將一種自然語言(源語言)翻譯為另外一種自然語言(目標(biāo)語言)[1]。藏文機器翻譯技術(shù)經(jīng)過了數(shù)十年的發(fā)展,已從傳統(tǒng)基于規(guī)則、統(tǒng)計等機器翻譯技術(shù)轉(zhuǎn)變成基于神經(jīng)網(wǎng)絡(luò)架構(gòu)的新技術(shù),藏文機器翻譯技術(shù)發(fā)展可分為基于規(guī)則的藏文機器翻譯、基于統(tǒng)計的藏文機器翻譯、基于神經(jīng)網(wǎng)絡(luò)的藏文機器翻譯3個階段。

早在21世紀(jì)初期就開始了藏文機器翻譯技術(shù),以基于規(guī)則的方法中,才藏太[2]結(jié)合詞項信息和藏文語法規(guī)則,提出了以動詞為中心的二分語法分析技術(shù),基于此技術(shù)開發(fā)的藏文機器翻譯系統(tǒng)具有詞典、公文、科技三個方面翻譯功能,其詞典量達(dá)18.6萬條,經(jīng)評測分析,譯文的可讀性高達(dá)80%。

近年來基于統(tǒng)計方法的藏文機器翻譯技術(shù)也得到了一定的發(fā)展,臧景才等[3]基于短語統(tǒng)計模型利用翻譯訓(xùn)練工具M(jìn)oses實現(xiàn)了藏漢的在線翻譯系統(tǒng)。群諾等[4]提出了對基于中介語言詞語翻譯模型進(jìn)行改進(jìn),融合基于中介語言的統(tǒng)計翻譯模型和直接翻譯模型到現(xiàn)有的訓(xùn)練過程中,改善統(tǒng)計機器翻譯模型訓(xùn)練過程的盲目性、低效性、冗余性和表面性等缺陷的方法。

目前主流的藏文機器翻譯技術(shù)集中在基于神經(jīng)網(wǎng)絡(luò)的方法研究中,仁青東主等[5]采用50萬藏漢平行語料結(jié)合基于雙向RNN的LSTM(長短時記憶網(wǎng)絡(luò))神經(jīng)網(wǎng)絡(luò)模型開發(fā)出的藏漢機器翻譯技術(shù)取得了BLEU值31的效果;李亞超等[6]提出采用遷移學(xué)習(xí)解決藏漢語料稀缺問題的方法,并通過對比短語統(tǒng)計機器翻譯實驗得出該方法可提高3個BLEU值。目前尼瑪扎西團(tuán)隊、東北大學(xué)“小牛翻譯在線開放平臺”以及騰訊公司等開發(fā)的藏漢機器翻譯系統(tǒng)均采用了基于神經(jīng)網(wǎng)絡(luò)的方法。

2017年,Google發(fā)表論文《Attention Is All You Need》[7]正式提出了完全基于注意力機制的Transformer,并在兩項拉丁語系機器翻譯任務(wù)中取得了最高BLEU值41.8的成績,2019年,桑杰端珠[8]采用Transformer模型研究了稀缺資源條件下的藏漢機器翻譯回譯方法,通過93萬藏漢平行語料取得了BLEU值最高為27.6的效果。相較之下藏文機器翻譯效果提升還有很大的進(jìn)步空間,因此本文從Transformer理論架構(gòu)出發(fā),利用多注意力機制,研究多種語料融合、兩種不同藏漢文切分方法下的藏漢機器翻譯效果。

1 Transformer機器翻譯模型

目前主流基于NMT任務(wù)的模型均采用Seq2Seq(編碼器-解碼器)[9]框架,在Seq2Seq下編碼器將表征輸入序列X=(X1,X2,…,Xn)映射到連續(xù)表征Z=(Z1,Z2,…,Zm),解碼器從連續(xù)表征Z生成輸出序列Y=(Y1,Y2,…,Ym)。Transformer框架的設(shè)計是通過注意力機制將序列上下文關(guān)聯(lián),并行處理序列中的單詞。Transformer對比LSTM以及Fairseq不同之處是它完全基于注意力機制,沒有使用RNN或CNN進(jìn)行序列對齊操作。完全基于注意力機制使得Transformer不僅可以做到訓(xùn)練上并行化,并在實際翻譯效果上相較LSTM更勝一籌。

1.1 Transformer注意力模型

Transformer模型中采用了經(jīng)典的Encoder-Decoder架構(gòu),結(jié)構(gòu)相比于其它Attention更加復(fù)雜,初始Transformer采用了由6個Encoder、Decoder層堆疊在一起,單個Encoder和Decoder的內(nèi)部結(jié)構(gòu)如圖1所示。

猜你喜歡
機器翻譯藏漢注意力機制
日常交際用語之藏漢對比分析
藏漢孩子是一家
基于深度學(xué)習(xí)的問題回答技術(shù)研究
基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
InsunKBQA:一個基于知識庫的問答系統(tǒng)
互聯(lián)網(wǎng)+新時代下人機翻譯模式研究
“語聯(lián)網(wǎng)+行業(yè)” 助力中國偉大復(fù)興
基于Android 平臺的藏漢雙語學(xué)習(xí)軟件的研究與實現(xiàn)
基于Android平臺的藏漢詞典的設(shè)計與實現(xiàn)
镶黄旗| 滨海县| 张家港市| 襄樊市| 灯塔市| 韶山市| 神池县| 连城县| 百色市| 临沧市| 绥江县| 施秉县| 三穗县| 西充县| 天柱县| 溆浦县| 堆龙德庆县| 安图县| 浦东新区| 佳木斯市| 河北区| 吐鲁番市| 镇远县| 海阳市| 福鼎市| 崇礼县| 汉寿县| 讷河市| 汶川县| 新疆| 焦作市| 临汾市| 太康县| 台湾省| 乌拉特中旗| 堆龙德庆县| 永嘉县| 瑞安市| 松溪县| 长海县| 泸水县|