国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于圖注意力網(wǎng)絡(luò)的時(shí)序知識(shí)圖譜人機(jī)交互模型

2024-08-23 00:00:00于泳喬少杰陳金勇高林黃江濤劉晨旭韓楠張?zhí)?/span>蔡宏果
無線電工程 2024年7期

摘 要:組織和檢索信息是人機(jī)交互重點(diǎn)關(guān)注的話題之一?;谥R(shí)圖譜(Knowledge Graph,KG) 的智能問答系統(tǒng)通過語義解析用戶問題,檢索知識(shí)并回答問題,已成為一種信息檢索的有效途徑,是人機(jī)交互的典型應(yīng)用。時(shí)序知識(shí)圖譜(Temporal Knowledge Graph,TKG) 問答系統(tǒng)通過語言模型獲取問題中的實(shí)體和時(shí)間戳,并在大型TKG 中檢索答案。TKG問答系統(tǒng)包含2 個(gè)挑戰(zhàn):① 給定問題,需檢索整個(gè)TKG,效率低且易受干擾項(xiàng)的影響;② 難以捕獲問題中隱含的時(shí)間詞和時(shí)間順序信息。提出一種基于圖注意力網(wǎng)絡(luò)的時(shí)間對(duì)比學(xué)習(xí)(Time Contrast Learning,TCL)模型,將源問題與替換時(shí)間詞后的對(duì)比問題同時(shí)訓(xùn)練, 使用圖注意力網(wǎng)絡(luò)更新實(shí)體鄰接子圖的節(jié)點(diǎn)特征, 縮小潛在答案的檢索空間。在CRONQUESTIONS 數(shù)據(jù)集上進(jìn)行大量實(shí)驗(yàn),結(jié)果表明TCL 比其他基準(zhǔn)方法具有更好的性能,相較于最先進(jìn)的基準(zhǔn)方法在Hit@ 1 和Hits@ 10 指標(biāo)上平均提升3. 44% 和2. 02% 。

關(guān)鍵詞:智能問答;時(shí)序知識(shí)圖譜;圖注意力網(wǎng)絡(luò);時(shí)間對(duì)比學(xué)習(xí);語言模型

中圖分類號(hào):TP391. 9 文獻(xiàn)標(biāo)志碼:A 開放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):

文章編號(hào):1003-3106(2024)07-1676-11

0 引言

信息社會(huì)中人們利用計(jì)算機(jī)、手機(jī)等通信設(shè)備進(jìn)行交流,得益于人機(jī)交互領(lǐng)域的快速發(fā)展。人機(jī)交互是計(jì)算機(jī)科學(xué)領(lǐng)域的重要研究方向,其目的是提高計(jì)算機(jī)系統(tǒng)與人類之間的交互效率和用戶體驗(yàn),為人們生活和工作提供更加便捷、高效的技術(shù)支持。

組織和檢索信息是人機(jī)交互的關(guān)注點(diǎn)之一。在計(jì)算機(jī)的早期發(fā)展階段,專家系統(tǒng)、檢索系統(tǒng)作為信息的有效組織方式,可以滿足人們的信息需求。但隨著計(jì)算機(jī)技術(shù)的不斷發(fā)展,以往的信息組織方式已經(jīng)無法滿足人們的需求。智能問答系統(tǒng)是一種基于人工智能技術(shù)的人機(jī)交互應(yīng)用,可以根據(jù)用戶的提問,快速、準(zhǔn)確地給出相應(yīng)的答案或解決方案。這種系統(tǒng)可以幫助人們更加高效地獲取所需的信息,提高信息檢索的效率和準(zhǔn)確性。早期的智能問答系統(tǒng)Baseball[1]利用基于規(guī)則的方法構(gòu)建,通常只能處理特定領(lǐng)域中的限定形式問題。人工智能技術(shù)促進(jìn)了基于知識(shí)圖譜(Knowledge Graph,KG)的智能問答系統(tǒng)的發(fā)展。利用神經(jīng)網(wǎng)絡(luò)訓(xùn)練模型,將KG 作為知識(shí)庫輔助模型推理,相較于基于規(guī)則的問答模型,基于KG 的智能問答系統(tǒng)在回答問題時(shí)更加準(zhǔn)確,不再局限于特定領(lǐng)域和限定形式的問題。

基于KG 的智能問答系統(tǒng)的核心技術(shù)是KG,KG 是一種基于語義的知識(shí)表示方式,通常以圖結(jié)構(gòu)描述實(shí)體、屬性與關(guān)系,以便更好地理解和利用知識(shí)。KG 解決了傳統(tǒng)搜索引擎存在的缺陷,即無法理解搜索內(nèi)容的語義信息,只能根據(jù)關(guān)鍵詞匹配查詢結(jié)果,而KG 可以通過語義理解進(jìn)行知識(shí)的查詢和推理。

傳統(tǒng)KG 中的事實(shí)大多是靜態(tài)的,其內(nèi)部的知識(shí)在任何時(shí)間段都成立,忽略時(shí)間維度的重要性。然而,在現(xiàn)實(shí)中,事實(shí)通常只在一定時(shí)間內(nèi)成立。在傳統(tǒng)KG 的基礎(chǔ)上,融入時(shí)間維度,構(gòu)成了時(shí)序知識(shí)圖譜(Temporal Knowledge Graph,TKG)。TKG 除時(shí)間信息外,還隱含事件之間的發(fā)展規(guī)律,具有廣泛研究?jī)r(jià)值。

TKG 以四元組的形式記錄實(shí)體之間的關(guān)系和關(guān)系存在時(shí)的時(shí)間戳或時(shí)間段。例如,帶時(shí)間戳的四元組(北京,舉辦,2008 年奧運(yùn)會(huì),2008)和帶時(shí)間段的四元組(Drancy,head of government,MauriceNilès,[1959,1997])。TKG 可以更好地回答與時(shí)間相關(guān)的問題,包括推測(cè)某些事件發(fā)生的時(shí)間以及推測(cè)多個(gè)實(shí)體在時(shí)間上的相關(guān)性。

不同于關(guān)注關(guān)系推理的非時(shí)序問答,時(shí)序問答的核心挑戰(zhàn)是正確識(shí)別問題中顯式或隱式提出的時(shí)間信息,并通過對(duì)關(guān)系和時(shí)間戳的聯(lián)合推理來定位相關(guān)知識(shí)獲取正確答案?,F(xiàn)有方法將TKG 應(yīng)用到了問答模型中,使其具有處理時(shí)序問題的能力。然而,模型不具有捕獲給定問題中隱含的時(shí)間詞和時(shí)間順序的能力。而且,模型需要從整個(gè)TKG 檢索候選答案,效率低下且性能較差。

為了解決上述問題,本文提出了時(shí)間對(duì)比學(xué)習(xí)(Time Contrast Learning,TCL)模型,主要貢獻(xiàn)包括:

① 提出一種基于圖注意力網(wǎng)絡(luò)的TCL 模型,使用鄰接圖抽取模塊從TKG 中獲取問題中實(shí)體的鄰接子圖,縮小候選答案的搜索空間,并使用圖注意力網(wǎng)絡(luò)更新鄰接圖中的節(jié)點(diǎn)表示,引導(dǎo)模型更加關(guān)注與問題相關(guān)的實(shí)體和時(shí)間戳,減少與問題不相關(guān)的實(shí)體的干擾,提高了檢索效率。

② 提出TCL 模塊,利用時(shí)間詞對(duì)比詞典將源問題轉(zhuǎn)化為對(duì)比問題,同時(shí)訓(xùn)練源問題與對(duì)比問題,引導(dǎo)模型學(xué)習(xí)源問題與對(duì)比問題中的時(shí)間詞差異,提高了模型對(duì)時(shí)間順序信息的敏感程度。

③ 在CRONQUETIONS 數(shù)據(jù)集上進(jìn)行大量實(shí)驗(yàn),相較于最先進(jìn)的基準(zhǔn)算法Time-aware MultiwayAdaptive(TMA),在一次命中率Hits@ 1 上和前10 次命中率Hits@ 10 兩個(gè)指標(biāo)上平均提升了3. 44% 和2. 01% 。實(shí)驗(yàn)結(jié)果表明本文提出的TCL 模型具有較好的性能。

1 相關(guān)工作

1. 1 TKG 嵌入

由于KG 內(nèi)部的知識(shí)的完備性和正確性不能得到保證,導(dǎo)致其應(yīng)用場(chǎng)景受限。研究者們先后提出Translating Embedding(TransE)[2]、Complex Embedding(ComplEx)[3]、Rotation Embedding(RotatE)[4]等KG嵌入模型,通過將KG 中的實(shí)體和關(guān)系投影到連續(xù)的低維向量空間,從而在方便計(jì)算的同時(shí)保留KG中的結(jié)構(gòu)信息。

Jiang 等[5]使用時(shí)間維度的一致性作為約束,將時(shí)間信息與得分函數(shù)相結(jié)合,將TransE 模型應(yīng)用于TKG,但這種方法學(xué)習(xí)的嵌入沒有明確的時(shí)間感知能力,僅能矯正一些順序邏輯關(guān)系,例如wasBorIn→wonPrize→ diedIn。為了解決這一問題,Dasgupta等[6]提出一種基于超平面的時(shí)間感知KG 嵌入方法(Hyperplanebased Temporally aware Embedding,HyTE)。HyTE 將KG 按照時(shí)間戳分割為多個(gè)子圖,然后將子圖中的實(shí)體和關(guān)系投影到其對(duì)應(yīng)的時(shí)間戳超平面中,直接將時(shí)間信息編碼到嵌入模型中,使得模型可以預(yù)測(cè)不包含時(shí)間范圍的事實(shí)的時(shí)序信息。García-Durán 等[7]提出一種學(xué)習(xí)某時(shí)間節(jié)點(diǎn)的潛在實(shí)體和關(guān)系類型表示法,使用詞元序列表示時(shí)間謂語,使用數(shù)字表示時(shí)間點(diǎn)并訓(xùn)練遞歸神經(jīng)網(wǎng)絡(luò)(Recursive Neural Network,RNN)模型,得到的表示結(jié)果可以應(yīng)用到通用的KG 嵌入模型的得分函數(shù)中。Lacroix 等[8]引入正則化方案來分解4 階張量,提出ComplEx 在時(shí)間維度上的擴(kuò)展(Temporal ComplexEmbedding,TComplEx),該方法很好地適應(yīng)不同數(shù)據(jù)集的時(shí)間表達(dá)形式,如時(shí)間點(diǎn)、開始時(shí)間與結(jié)束時(shí)間的時(shí)間間隔。Goel 等[9]受歷時(shí)詞嵌入的啟發(fā),提出一種歷時(shí)實(shí)體嵌入(Diachronic Embedding,DE)函數(shù),將實(shí)體嵌入定義為函數(shù),為任意給定的時(shí)間戳提供實(shí)體特征。任何靜態(tài)KG 嵌入都可以借助DE 函數(shù)拓展為TKG 嵌入,具有較好的優(yōu)越性。

1. 2 TKG 問答

時(shí)序問答系統(tǒng)主要在閱讀理解的語境下進(jìn)行研究。Jin 等[10]提出一種新的自動(dòng)事件預(yù)測(cè)方法———ForecastQA,幫助人們規(guī)劃未來。該方法將事件預(yù)測(cè)問題轉(zhuǎn)化為多項(xiàng)選擇答題任務(wù),數(shù)據(jù)集中的文章和問題均帶有時(shí)間戳。Ning 等[11]提出一種閱讀理解的數(shù)據(jù)集TORQUE,探尋文本中描述的事件之間的時(shí)間順序關(guān)系。

另一個(gè)重要研究方向是利用知識(shí)庫作為輔助信息,從其中檢索時(shí)序信息,來回答時(shí)序問題。傳統(tǒng)KG問答系統(tǒng)大多采用的是大規(guī)模的靜態(tài)KG 和語言模型相結(jié)合,例如,文獻(xiàn)[12]提出了一種語言模型驅(qū)動(dòng)的KG 問答推理模型QAKGNet,具有優(yōu)越的結(jié)構(gòu)化推理能力。但這些大規(guī)模的靜態(tài)KG 沒有考慮時(shí)間因素對(duì)問答模型預(yù)測(cè)答案時(shí)的影響,使現(xiàn)有方法無法有效、準(zhǔn)確地處理帶有時(shí)間約束的問題[13]。

為了能更準(zhǔn)確地回答用戶的問題,學(xué)者們開始研究時(shí)序問題。Jia 等[14]提出了一個(gè)時(shí)序問答基準(zhǔn)數(shù)據(jù)集TempQuestions,包含1 271 個(gè)時(shí)序問題及其答案,旨在評(píng)估問答系統(tǒng)處理具有時(shí)間信息的復(fù)雜問題的能力,其研究結(jié)果表明,對(duì)復(fù)雜問題需要展開深入研究?;谠摂?shù)據(jù)集,Jia 等[15]提出時(shí)序知識(shí)問答方法TEQUILA 來解決TKG 問答中包含時(shí)間信息的復(fù)雜問題。TEQUILA 利用規(guī)則將帶有時(shí)間信息的復(fù)雜問題分解為簡(jiǎn)單的子問題,并使用子問題的答案集與時(shí)間約束進(jìn)行聯(lián)合推理來獲取答案,可以與KG 問答系統(tǒng)結(jié)合使用。但TEQUILA 使用的規(guī)則模板是專家預(yù)先給定的,限定了處理復(fù)雜問題的能力。在此之后,Jia 等[16]希望提高問答系統(tǒng)回答時(shí)序問題的性能,提出了端到端問答系統(tǒng)Exaqt,該系統(tǒng)首先微調(diào)語言模型(Bidirectional Encoder Representationfrom Transformers,BERT),同時(shí)加入時(shí)間信息,構(gòu)建與問題相關(guān)的實(shí)體鄰接子圖。此外,使用擴(kuò)展的關(guān)系圖卷積網(wǎng)絡(luò)(Relational Graph Convolutional Network,R-GCN)來預(yù)測(cè)答案,實(shí)驗(yàn)表明該方法在解決具有時(shí)間意圖的問題時(shí)具有較好的表現(xiàn)。然而TEQUILA 與Exaqt 所使用的數(shù)據(jù)集包含時(shí)間信息的問題數(shù)量有限,且使用的KG 大都為非TKG,如表1 所示。

TEQUILA 與Exaqt 方法實(shí)驗(yàn)結(jié)果表明,增強(qiáng)時(shí)序信息可顯著提升答案預(yù)測(cè)性能。Saxena 等[17]提出一個(gè)新的大規(guī)模TKG 問答數(shù)據(jù)集CRONQUES-TIONS,該數(shù)據(jù)集含有41 萬個(gè)問題-答案對(duì),且所有的時(shí)間問題和TKG 都具有時(shí)間注釋。同時(shí),基于該數(shù)據(jù)集,提出CRONKGQA 來解決時(shí)序問題,其性能優(yōu)于所有基線方法。該方法改進(jìn)了EmbedKGQA[18],使其可以適用TKG 嵌入。CRONKGQA 首先使用BERT生成實(shí)體問題嵌入和時(shí)間問題嵌入,然后使用TComplEx 得分函數(shù)計(jì)算整個(gè)TKG 中的實(shí)體和時(shí)間得分?jǐn)?shù),將實(shí)體和時(shí)間得分拼接后,使用softmax 函數(shù)計(jì)算答案概率。CRONKGQA 在處理簡(jiǎn)單問題時(shí)具有較好的準(zhǔn)確性,但處理復(fù)雜問題的性能不夠理想。近期,Liu 等[19]提出了一種時(shí)間感知多路自適應(yīng)融合網(wǎng)絡(luò)TMA。TMA 使用多路自適應(yīng)模塊生成問題的特定時(shí)間表示,與預(yù)訓(xùn)練的TKG 嵌入結(jié)合,生成最終的預(yù)測(cè)答案。

2 問題描述

基于KG 的智能問答系統(tǒng)將KG 作為問答系統(tǒng)的知識(shí)庫,通過語言模型理解用戶問句中的語義信息,通過在知識(shí)庫中檢索相關(guān)信息,通過知識(shí)推理獲取正確答案。而傳統(tǒng)的KG 問答系統(tǒng)較難處理時(shí)序問題。本文采用TKG 代替?zhèn)鹘y(tǒng)KG,通過TKG 嵌入模型將其轉(zhuǎn)為低維向量,輔助問答系統(tǒng)利用KG 中隱含的時(shí)間信息,處理時(shí)序問題。

定義1(TKG)TKG G = (ε,R, T,γ),其中,ε 表示G 中實(shí)體的集合,R 表示G 中關(guān)系的集合, T表示G 中時(shí)間戳的集合,γ 表示由前三者組合而成的事實(shí)集合。事實(shí)v 四元組的形式為(s,r,o,t),其中<s,o>∈ε,r∈R,t∈T 。

例1. 已知時(shí)序事實(shí)四元組v = (北京,舉辦,奧運(yùn)會(huì),[2008,2008])。

定義2(TKG 嵌入)TKG 嵌入是指對(duì)于G 中的每個(gè)<s,o>∈ε,r∈R,t∈T ,將其學(xué)習(xí)為低維嵌入向量<us,ur,uo,ut >∈Rd,其中d 表示低維嵌入向量的維度。通過語義相似度來構(gòu)建一個(gè)得分函數(shù)Φ(·)來學(xué)習(xí)這些嵌入。對(duì)于一個(gè)有效的事實(shí)v =(s,r,o,t)∈γ 的Φ(·)得分,要比一個(gè)無效事實(shí)v’= (s’,r’,o’,t’)∈γ 的Φ(·)得分高。得分函數(shù)Φ(·)需要滿足:

Φ(s,r,o,t) > Φ(s’,r’,o’,t’)。(1)

TComplEx 是針對(duì)時(shí)態(tài)KG 的語義匹配算法,是ComplEx 在時(shí)間維度上的擴(kuò)展。它將實(shí)體、關(guān)系和時(shí)間戳嵌入到復(fù)數(shù)空間中,其對(duì)應(yīng)的得分函數(shù)如式(2)所示:

式中:Re 表示取復(fù)數(shù)的實(shí)部,<· >表示多次線性的點(diǎn)積運(yùn)算,uo 表示uo 的共軛復(fù)數(shù),<us,ur,uo,ut >∈Cd,是復(fù)數(shù)嵌入,d 表示復(fù)數(shù)嵌入向量的維度。

關(guān)系r 可能含有時(shí)間信息,也可能不含時(shí)間信息。基于此,提出另一種得分函數(shù)(Temporal andNotTemporal Complex Embedding,TNTComplEx)[8],該得分函數(shù)計(jì)算時(shí)間敏感部分和非時(shí)間敏感部分的得分之和,其計(jì)算公式如下:

式中:uTr表示具有時(shí)間信息的關(guān)系嵌入向量,T 表示轉(zhuǎn)置操作,ur 表示不包含時(shí)間信息的嵌入向量。

定義3(TKG 問答系統(tǒng))TKG 問答任務(wù)是指用戶給定一個(gè)自然語言問題q,問答系統(tǒng)通過理解q 中的語義信息,獲取問題實(shí)體信息,從G 中獲取與問題實(shí)體相關(guān)的四元組信息,通過時(shí)間推理,找到合適的時(shí)間段內(nèi)的四元組信息,并給予用戶準(zhǔn)確的答案。

例2. 已知問題q = “Who was the president of theRoyal Society in London 2012?”,針對(duì)這個(gè)問題,TKG問答系統(tǒng)從問句中提取實(shí)體the president of the RoyalSociety 和時(shí)間戳2012,找到實(shí)體對(duì)應(yīng)的事實(shí)v= (PaulNurse,position held,the president of the Royal Society,[2010,2015]),利用v 中的信息回答問題。

TKG 問答系統(tǒng)所處理的時(shí)序問題,按照推理的復(fù)雜程度可分為簡(jiǎn)單問題和復(fù)雜問題。

定義4(簡(jiǎn)單問題)q 只需要G 中的單個(gè)事實(shí)v便可以回答,回答的答案可能是一個(gè)實(shí)體或一個(gè)時(shí)間戳,具體如例2 所示。按照答案類型可進(jìn)一步將問題劃分為簡(jiǎn)單實(shí)體問題和簡(jiǎn)單時(shí)間問題。

定義5(復(fù)雜問題)q 需要G 中的多個(gè)事實(shí)v 進(jìn)行回答,回答的答案可能是單個(gè)實(shí)體或時(shí)間戳,也可能是實(shí)體集合或時(shí)間戳集合,通常需要進(jìn)行一定的時(shí)間推理來獲得最終的答案。

例3. 已知問題“Which was the last award ThomasYoung got?”,針對(duì)這個(gè)問題需要與Thomas Young 相關(guān)的多個(gè)v,并進(jìn)行一定的時(shí)間推理來獲取目標(biāo)答案。復(fù)雜問題可進(jìn)一步分為Before / After、First /Last、Time Join 三大類,具體舉例如表2 所示。

TKG 問答系統(tǒng)應(yīng)對(duì)q 中隱含的時(shí)間詞和時(shí)間順序信息更為敏感。例如“Which was the last awardThomas Young got?”和“Which was the first awardThomas Young got?”,雖然這2 個(gè)問題只有一個(gè)時(shí)間詞不同,但這2 個(gè)問題的答案并不相同?,F(xiàn)有的TKG 問答工作通常使用預(yù)訓(xùn)練的語言模型理解問題中的語義信息,但這些模型對(duì)自然語言問題中的時(shí)間表達(dá)差異并不敏感,例如last 和first,before 和after 等,使得模型容易預(yù)測(cè)出錯(cuò)誤的答案。

為解決上述問題,本文采用對(duì)比學(xué)習(xí)的方法,增強(qiáng)TKG 問答系統(tǒng)對(duì)q 中隱含的時(shí)間表達(dá)的敏感程度。通過生成源問題的對(duì)比問題,構(gòu)建TCL 模型,同時(shí)訓(xùn)練源問題與對(duì)比問題,使模型學(xué)習(xí)這組對(duì)比問題的潛在時(shí)間特征的差異,從而使模型可以更好地捕獲q 中隱含的時(shí)間表達(dá),提高模型對(duì)復(fù)雜問題的處理能力,具有更好預(yù)測(cè)性能。

定義6(時(shí)間詞對(duì)比詞典)為了生成給定q 的對(duì)比問題qc,本文從CRONQUESTIONS 數(shù)據(jù)集中提取問題中的時(shí)間詞,然后查找反義詞,構(gòu)建時(shí)間詞對(duì)比詞典,部分舉例如表3 所示。

3 TCL 模型

TCL 模型工作原理如圖1 所示。模型可以分為兩部分,一部分對(duì)問題q 進(jìn)行推理,另一部分則是利用時(shí)間詞對(duì)比詞典將q 轉(zhuǎn)換為對(duì)比問題qc,然后將qc作為輸入進(jìn)行推理。這兩部分的模型結(jié)構(gòu)是一致的,只是輸入部分不同。針對(duì)于問題q,模型使用語言模型對(duì)q 進(jìn)行編碼,獲得uent 和utime;同時(shí),使用鄰接圖抽取模塊獲?。?中實(shí)體的鄰接圖,然后利用圖注意力網(wǎng)絡(luò)更新鄰接圖中的節(jié)點(diǎn)表示,使用TComplEx 得分函數(shù)計(jì)算鄰接圖中實(shí)體節(jié)點(diǎn)和時(shí)間節(jié)點(diǎn)的得分。通常q 和qc 的答案實(shí)體是不相同的,為了捕獲這種差異,本文基于實(shí)體不交叉原則,提出對(duì)比損失Lc。

3. 1 鄰接圖抽取模塊

假設(shè)從問題q 中可以抽取出n 個(gè)實(shí)體,即{E1 ,E2 ,…,En},首先從G 中提取每個(gè)實(shí)體Ei 的多跳鄰接子圖Gi;然后,組合這n 個(gè)實(shí)體的鄰接子圖,得到問題q 的潛在答案的搜索子圖Gq,其中,Gq 滿足Gq =∪ni= 1 Gi。將Gq 中的節(jié)點(diǎn)按節(jié)點(diǎn)類型分為實(shí)體節(jié)點(diǎn)和時(shí)間節(jié)點(diǎn),所有的實(shí)體節(jié)點(diǎn)組成實(shí)體集合εq,所有的時(shí)間節(jié)點(diǎn)組成時(shí)間戳集合Tq。εq 和Tq 組成了TCL模型中答案預(yù)測(cè)部分的實(shí)體評(píng)分和時(shí)間評(píng)分的搜索空間,使得模型不需要對(duì)整個(gè)G 中的實(shí)體和時(shí)間戳進(jìn)行評(píng)分來預(yù)測(cè)最終答案。在實(shí)際應(yīng)用中,搜索子圖Gq的大小通常比整個(gè)TKG G 小得多。例如,在CronKGQA 中,|Gq | / |G|的平均值大約為3% 。

鄰接圖抽取模塊是為了縮小候選答案實(shí)體和時(shí)間戳的搜索空間,不僅提高了訓(xùn)練過程的有效性,縮短了訓(xùn)練時(shí)間,還提高了預(yù)測(cè)答案的性能。這是因?yàn)楦嗟暮蜻x答案通常會(huì)使模型學(xué)習(xí)預(yù)測(cè)答案的過程更加困難,訓(xùn)練難度將大幅度提高。

3. 2 圖注意力網(wǎng)絡(luò)模塊

為了引導(dǎo)模型更加關(guān)注與問題相關(guān)的實(shí)體與時(shí)間戳,排除不相關(guān)實(shí)體的干擾,為尋找答案實(shí)體提供了錨點(diǎn),本文引入圖注意力機(jī)制(Graph AttentionNetworks version 2,GATv2)[20]。使用GATv2 對(duì)Gq中鄰接節(jié)點(diǎn)與問題的重要性進(jìn)行描述,過濾掉不重要的鄰居,進(jìn)而獲取更小的搜索子圖G′q 。具體操作步驟如算法1 所示。

為了使圖注意力網(wǎng)絡(luò)的學(xué)習(xí)過程更加準(zhǔn)確,受到文獻(xiàn)[21-22]的工作啟發(fā),在式(6)的基礎(chǔ)上為圖注意力網(wǎng)絡(luò)提供了不同角度(多頭)的考慮,提出了多頭圖注意力網(wǎng)絡(luò),將式(6)優(yōu)化為式(7),如下所示:

式中:K 表示不同角度的數(shù)量(頭的數(shù)量),上標(biāo)k 表示第k 個(gè)角度,每個(gè)角度的學(xué)習(xí)過程獨(dú)立執(zhí)行,將學(xué)到的向量進(jìn)行拼接。

3. 3 答案預(yù)測(cè)模塊

本文使用預(yù)訓(xùn)練的語言模型BERT 獲取問題嵌入uq,然后將其投影為實(shí)體嵌入uent 和時(shí)間嵌入utime,分別表示實(shí)體預(yù)測(cè)問題嵌入和時(shí)間預(yù)測(cè)問題嵌入。

經(jīng)過圖注意力網(wǎng)絡(luò)模塊對(duì)搜索子圖Gq 進(jìn)行剪枝得到G′q ,使用式(2)的得分函數(shù)Φ 計(jì)算G′q 中的每個(gè)實(shí)體節(jié)點(diǎn)和時(shí)間戳節(jié)點(diǎn)的得分,將所有實(shí)體和時(shí)間戳的得分拼接起來,得到答案得分集合Sa。然后,使用softmax 函數(shù)來計(jì)算每個(gè)答案為正確答案的概率:

式中:當(dāng)?shù)冢?個(gè)候選答案是正確答案時(shí),yi = 1;否則,yi = 0。

3. 4 TCL 模塊

為提高TKG 問答模型捕獲q 中隱含的時(shí)間表達(dá)式的能力,本文采用對(duì)比學(xué)習(xí)的方法,通過構(gòu)建TCL 模型,同時(shí)訓(xùn)練源問題與對(duì)比問題,提高模型對(duì)時(shí)間序列信息的敏感程度。

基于定義6,將問題q 中的時(shí)間詞替換為時(shí)間詞對(duì)比字典中的反義詞,生成對(duì)比問題qc,將問題q 和對(duì)比問題qc 放入模型訓(xùn)練,得到相應(yīng)的答案得分集合Sa和S′a ,將這2 個(gè)答案得分集合組合起來,得到Sq =[Sa,S′a ]∈R2C。然后,使用softmax 函數(shù)對(duì)Sq 進(jìn)行計(jì)算,得到答案概率分布Pq∈R2C,具體計(jì)算公式如下:

Pq = softmax(Sq ), (10)

式中:Pq ∈R2C ,且滿足ΣCi = 0 Pq [:,i]= 1,其中Pq [:,i]表示第i 列的答案概率分布。

由于q 的答案肯定不是qc 的答案,可構(gòu)建答案引導(dǎo)學(xué)習(xí)標(biāo)簽[y1 ,y2 ,…,yC ],當(dāng)且僅當(dāng)?shù)冢?個(gè)候選對(duì)象是正確答案時(shí),yi = 1;否則,yi = 0。由此得到TCL 的損失函數(shù),如下所示:

Lc = - 1/CΣCi = 0yi ln(Pq [0,i])。(11)

最后,組合答案預(yù)測(cè)的損失函數(shù)和TCL 的損失函數(shù)作為最終的損失函數(shù),進(jìn)行模型訓(xùn)練。

L = La + λc Lc , (12)

式中:λc 表示衡量時(shí)間對(duì)比損失的權(quán)重因子。

4 實(shí)驗(yàn)與分析

4. 1 數(shù)據(jù)集

本文在CRONQUESTIONS 數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),驗(yàn)證TCL 模型在TKG 問答任務(wù)中的有效性。CRONQUESTIONS 數(shù)據(jù)集包含帶有時(shí)間注釋的KG 和需要時(shí)間推理的自然語言問題集。TKG 具有12. 5 萬個(gè)實(shí)體和203 種關(guān)系,并由此組合成了32. 8 萬個(gè)事實(shí)(四元組)。這些事實(shí)四元組中含有以年為單位的時(shí)間信息。數(shù)據(jù)集中有41 萬個(gè)問題,按定義3 和定義4 將問題劃分為不同類型,不同類型的問題數(shù)量如表4 所示。

4. 2 實(shí)驗(yàn)設(shè)置

本文使用PyTorch 框架實(shí)現(xiàn)所提模型,并按照CRONQUETIONS 數(shù)據(jù)集劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集對(duì)模型進(jìn)行訓(xùn)練,訓(xùn)練時(shí)的超參數(shù)設(shè)置如下:初始學(xué)習(xí)率為0. 000 2,迭代次數(shù)epoch 為200,批大小為250,每5 個(gè)epoch 驗(yàn)證一次模型的效果,驗(yàn)證時(shí)批大小為50,對(duì)比損失權(quán)重λc 為0. 5。

實(shí)驗(yàn)環(huán)境為英特爾至強(qiáng)W-2245 3. 90 GHz CPU,64 GB 內(nèi)存,512 GB SSD 硬盤,Ubuntu 20. 04 操作系統(tǒng)以及GPU(GeForce RTX 3090)。對(duì)于基準(zhǔn)模型,本文使用了其文中對(duì)應(yīng)的參數(shù)設(shè)置進(jìn)行實(shí)驗(yàn)。

對(duì)于所有模型,采用Hits@ 1 和Hits@ 10 兩個(gè)指標(biāo)對(duì)其進(jìn)行評(píng)估,具體計(jì)算公式如下:

式中:II(·)為指示函數(shù),若后面的等式條件成立則輸出為1,否則輸出為0;M 表示數(shù)據(jù)集中問題的總數(shù),S = [Sq ,1 ,Sq ,2 ,…,Sq ,M ]表示所有問題的預(yù)測(cè)答案集合的集合,Si[0 :n]表示第i 個(gè)問題的預(yù)測(cè)答案中概率最高的前n 個(gè)答案。一般情況下n 取1、3、10,本文采用Hits @ 1 和Hits @ 10 兩種,A = [A1 ,A2 ,…,AM ]表示所有問題正確答案的集合。

4. 3 基準(zhǔn)方法

本節(jié)對(duì)實(shí)驗(yàn)過程中使用的基準(zhǔn)對(duì)比算法進(jìn)行介紹:① EmbedKGQA 是一種將KG 嵌入用于多跳KG 問答任務(wù)的方法,使用ComplEx 嵌入,只能處理非時(shí)態(tài)的KG 和簡(jiǎn)單問題。② T-EaE-add/ replace 是用KG 增強(qiáng)語言模型Entities as Experts(EaE)[23]的2 種修改,將KG 中的實(shí)體信息集成到基于Transformer 的語言模型中。T-EaE-add 在問題中標(biāo)明了所有真實(shí)的實(shí)體和時(shí)間跨度信息;T-EaE-replace 則使用實(shí)體/ 時(shí)間嵌入替換了BERT 嵌入,而不是用詞嵌入的形式添加實(shí)體和時(shí)間跨度信息。③ CronKGQA 將EmbedKGQA 擴(kuò)展到時(shí)序問答問題,并利用TKG 嵌入來回答時(shí)序問題。④TMA 通過選擇、匹配、融合和預(yù)測(cè)的范式顯示地融合相關(guān)知識(shí)(Subject Predicate Object,SPO)到問題表示中,使問題嵌入具有時(shí)間特異性。

4. 4 實(shí)驗(yàn)結(jié)果

表5 給出了本文提出的TCL 和5 種基準(zhǔn)方法在CRONQUESTIONS 數(shù)據(jù)集上的Hits@ 1 和Hits@10 兩種評(píng)價(jià)指標(biāo)的對(duì)比結(jié)果??梢园l(fā)現(xiàn),本文提出的TCL 方法在所有類型問題上的2 種評(píng)價(jià)指標(biāo)性能均優(yōu)于基準(zhǔn)方法。而EmbedKGQA、T-EaE-add /replace 方法的效果非常差,由于它們均使用非時(shí)序的KG 嵌入,在處理時(shí)序問題時(shí)性能較差。

相較于最先進(jìn)的基準(zhǔn)方法TMA,TCL 方法在Hit@ 1 和Hits @ 10 指標(biāo)上平均提升3. 44% 和2. 01% ,在復(fù)雜問題上平均提升了8. 39% 和4. 20% 。這是由于復(fù)雜問題中涉及的實(shí)體較多,TMA 在回答問題時(shí)使用整個(gè)TKG,導(dǎo)致許多與問題不相關(guān)的實(shí)體對(duì)最終結(jié)果造成干擾,產(chǎn)生偏差。而TCL 方法使用鄰接圖抽取模塊和圖注意力機(jī)制對(duì)搜索空間進(jìn)行剪枝,在回答問題時(shí)使用的是搜索子圖G′q ,排除了不相關(guān)實(shí)體的干擾,可以更加準(zhǔn)確地回答問題。

同時(shí),CRONKGQA、TMA 和TCL 方法在簡(jiǎn)單問題的Hits@ 1 指標(biāo)上均達(dá)到了0. 987,而其他方法則要低很多。這3 種方法均采用TComplEx 作為評(píng)分函數(shù),該函數(shù)與實(shí)體和時(shí)間戳嵌入使用的評(píng)分函數(shù)是一致的,使得模型在組合問題中的嵌入信息時(shí)具有歸納偏置性,可以提高樣本的利用率,從而更易于回答簡(jiǎn)單問題。

對(duì)比各模型訓(xùn)練所需時(shí)間,可以發(fā)現(xiàn),Embed-KGQA 所消耗的訓(xùn)練時(shí)間最短,但其預(yù)測(cè)命中率較差,而TCL 方法所消耗時(shí)間僅居其后,相比CRONKGQA 縮短了30. 21% 的訓(xùn)練時(shí)間。這是由于,CRONKGQA 使用整個(gè)TKG 回答問題,而TCL 使用鄰接圖抽取模塊縮小搜索空間,提高了訓(xùn)練效率。但由于TCL 的網(wǎng)絡(luò)結(jié)構(gòu)比EmbedKGQA 更為復(fù)雜,所以在具有更高性能的同時(shí),訓(xùn)練時(shí)間也更長(zhǎng)。而T-EaE-add / replace 采用6 層的Transformer 進(jìn)行訓(xùn)練,需要訓(xùn)練大量的參數(shù),訓(xùn)練時(shí)間更長(zhǎng)。

本文比較了TCL 方法與5 種基準(zhǔn)模型對(duì)于不同類別問題的Hits@ 1,結(jié)果如圖2 所示。相比所有基準(zhǔn)方法,本文所提出TCL 模型的性能更好,特別是在復(fù)雜問題的回答上。相較于最先進(jìn)的基準(zhǔn)方法TMA,TCL 在“Before / After”“First / Last”“Time Join”方面的表現(xiàn)分別提高了4. 48% 、5. 74% 和2. 37% 。實(shí)驗(yàn)結(jié)果證明了本文提出的圖注意力網(wǎng)絡(luò)模塊和TCL 模塊的性能優(yōu)勢(shì),有利于增強(qiáng)模型對(duì)時(shí)間詞和時(shí)間順序的敏感程度。

如圖2(a)所示,在復(fù)雜問題類型中,CronKGQA、TMA 和TCL 三種方法在Time Join 類問題上的表現(xiàn)最好。這是由于Time Join 類問題通常具有多個(gè)答案,例如“Who was Juan Carlos Lorenzo-s team memberin Unione Calcio Sampdoria?”這個(gè)例子的答案是JuanCarlos Lorenzo 為Unione Calcio Sampdoria 效力時(shí)的所有球員。這使得模型更容易做出正確的預(yù)測(cè),而其他2 類問題,答案通常是單個(gè)實(shí)體或者時(shí)間戳。

“Before / After”“First / Last”兩類問題更具挑戰(zhàn)性,因?yàn)樾枰玫乩斫鈫栴}中的時(shí)間詞或時(shí)間表達(dá)式。TCL 方法通過TCL 模塊,使模型可以更好地捕獲不同時(shí)態(tài)詞之間的差異,從而取得較大的性能提升。此外,對(duì)于簡(jiǎn)單問題,如圖2(b)所示,TCL 方法仍然保持競(jìng)爭(zhēng)力。

4. 5 消融實(shí)驗(yàn)

為了驗(yàn)證TCL 方法中每個(gè)模塊的貢獻(xiàn)均是有效的,本文通過在CronKGQA 的基礎(chǔ)上添加各模塊構(gòu)成TCL 方法,進(jìn)行消融實(shí)驗(yàn)。其中,‘+’表示添加該模塊,GAT 表示圖注意力網(wǎng)絡(luò)模塊,NeighborGraph(NG)表示鄰接圖抽取模塊。每組實(shí)驗(yàn)均重復(fù)執(zhí)行5 次,最后取平均結(jié)果,如表6 所示。

從表6 可以看出,本文所提模塊均有利于提高Hits@ 1 指標(biāo)的整體性能,特別是針對(duì)具有較高復(fù)雜性的問題。添加鄰接子圖抽取模塊之后,模型在復(fù)雜問題的Hits@ 1 指標(biāo)上提高了26. 8% ,這是由于顯著縮小了候選答案的搜索空間,有利于模型更加容易和準(zhǔn)確地找到正確答案。圖注意力網(wǎng)絡(luò)模塊也帶來了顯著的提升,這是由于圖注意力網(wǎng)絡(luò)模塊對(duì)搜索子圖中的每個(gè)節(jié)點(diǎn)進(jìn)行加權(quán)處理,去除了一些與問題無關(guān)的節(jié)點(diǎn),進(jìn)一步縮小了搜索空間,引導(dǎo)模型更加關(guān)注與問題相關(guān)的實(shí)體與時(shí)間戳,為尋找答案實(shí)體提供了很好的錨點(diǎn)。此外,TCL 模塊進(jìn)一步提高了模型對(duì)復(fù)雜問題的處理性能。TCL 模塊通過學(xué)習(xí)問題q 與對(duì)比問題qc 中時(shí)間詞的差異,向模型中添加了明確的時(shí)間約束,增強(qiáng)了模型的時(shí)間順序?qū)W習(xí)能力,使得模型可以更好地捕獲問題中隱含的時(shí)間詞和時(shí)間順序信息。

圖3 展示了不同的多頭個(gè)數(shù)k 對(duì)模型Hits@ 1 的性能影響,即{2,4,6,8,10,12}。結(jié)果表明,當(dāng)k = 8時(shí),模型的Hits@ 1 的性能最好。當(dāng)k 過少時(shí),圖注意力網(wǎng)絡(luò)無法從多個(gè)角度充分理解搜索子圖G′q 各節(jié)點(diǎn)的特征,導(dǎo)致去除的不相關(guān)實(shí)體不夠充分,進(jìn)而導(dǎo)致模型的Hits@ 1 性能降低。當(dāng)k 過多時(shí),圖注意力網(wǎng)絡(luò)過分關(guān)注某些重要特征,從而產(chǎn)生偏差。

圖4 給出了時(shí)間對(duì)比損失的權(quán)重λc 對(duì)模型Hits@ 1 的性能影響,其中,λc 的取值為{0. 05,0. 10,0. 50,1. 00,2. 0}??梢杂^察到,隨著λc 取值不斷變大,模型Hits@ 1 的性能在不斷提升,在λc 取值為0. 5 時(shí)達(dá)到最大,隨后遞減。因?yàn)楫?dāng)λc 取值較小時(shí),模型無法充分捕獲在問題中隱含的時(shí)間順序信息,而當(dāng)λc 取值較大后,模型過分關(guān)注對(duì)比問題的答案,從而產(chǎn)生偏差。

4. 6 模型推理可視化

本小節(jié)將介紹TCL 模型獲取問題q 的正確答案集合Sa 的推理過程,其過程可視化如圖5 所示。其中,Q967859 和Q1457 分別表示q 中的實(shí)體JuanCarlos Lorenzo-s 和Unione Calcio Sampdoria,P54 表示member of sports team 這種關(guān)系,Q170703 和Q1285795 等實(shí)體表示與實(shí)體Q967859 和Q1457 相關(guān)的實(shí)體。

首先,使用BERT 獲?。?的問題嵌入uent 和utime;其次,利用鄰接圖抽取模塊獲取問題中的實(shí)體Q967859 和Q1457 的多跳鄰接圖,構(gòu)成搜索子圖Gq;然后,Gq 通過圖注意力網(wǎng)絡(luò)模塊后,去掉了與q 不相關(guān)的實(shí)體Q170703、Q5129424 等,得到剪枝后的搜索子圖G′q ;最后,通過答案預(yù)測(cè)模塊對(duì)G′q 中的各節(jié)點(diǎn)進(jìn)行評(píng)分,得到答案集合Sa。其中,Q3611080 和Q3804433 實(shí)體的得分非常高,而Q1285795 實(shí)體的得分比較低。這是因?yàn)椋眩常叮保保埃福?和Q3804433 與Q1457 的P54 關(guān)系成立的時(shí)間均在Q967859 與Q1457 的關(guān)系成立時(shí)間之內(nèi),符合q 中隱含的時(shí)間順序。而Q1285795 與Q1457 的關(guān)系成立時(shí)間不在[1947,1952],因此評(píng)分較低。

5 結(jié)束語。

本文提出一種基于圖注意力網(wǎng)絡(luò)的TCL 模型,其獲取給定問題q 的實(shí)體和時(shí)間戳,能夠從TKG 中抽取實(shí)體對(duì)應(yīng)的鄰接子圖,并通過多頭圖注意力網(wǎng)絡(luò)進(jìn)行消息傳遞,更新鄰接子圖中的節(jié)點(diǎn)表示,壓縮答題的搜索空間。利用TCL 方法,同時(shí)訓(xùn)練問題q與對(duì)比問題qc,捕獲每組對(duì)比問題中隱含時(shí)間詞的差異,提高了模型對(duì)時(shí)間詞和時(shí)間順序信息的敏感程度。在CRONQUESTIONS 數(shù)據(jù)集上進(jìn)行大量實(shí)驗(yàn),結(jié)果表明,TCL 模型相較于主流基準(zhǔn)模型在時(shí)序問答任務(wù)上的性能提升。未來的工作將關(guān)注于時(shí)間評(píng)估方法以進(jìn)一步提高模型的時(shí)間推理能力,以及如何使問題嵌入具有更好的時(shí)間特異性。

參考文獻(xiàn)

[1] 姚元杰,龔毅光,劉佳,等. 基于深度學(xué)習(xí)的智能問答系統(tǒng)綜述[J]. 計(jì)算機(jī)系統(tǒng)應(yīng)用,2023,32(4):1-15.

[2] BORDES A,USUNIER N,GARCIADURAN A,et al.Translating Embeddings for Modeling MultirelationalData[C]∥Proceedings of the 27th Annual Conference onNeural Information Processing Systems. Lake Tahoe:Curran Associates Inc. ,2013:2787-2795.

[3] TROUILLON T,WELBL J,RIEDEL S,et al. ComplexEmbeddings for Simple Link Prediction[C]∥Proceedingsof the 33rd International Conference on MachineLearning. New York:JMLR,2016:2071-2080.

[4] SUN Z Q,DENG Z H,NIE J Y,et al. RotatE:KnowledgeGraph Embedding by Relational Rotation in ComplexSpace [C ] ∥ Proceedings of the 7th InternationalConference on Learning Representations. New Orleans:[s. n. ],2019:1981-1999.

[5] JIANG T S,LIU T Y,GE T,et al. Towards TimeawareKnowledge Graph Completion[C]∥Proceedings of COLING 2016,the 26th International Conference on Computational Linguistics:Technical Papers. Osaka:The COLING2016 Organizing Committee,2016:1715-1724.

[6] DASGUPTA S S,RAY S N,TALUKDAR P. HyTE:Hyperplanebased Temporally Aware Knowledge Graph Embedding [C]∥ Proceedings of the 2018 Conference onEmpirical Methods in Natural Language Processing. Brussels:ACL,2018:2001-2011.

[7] GARC?ADUR?N A, DUMANC ˇ IC' S, NIEPERT M.Learning Sequence Encoders for Temporal KnowledgeGraph Completion[C]∥Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing. Brussels:ACL,2018:4816-4821.

[8] LACROIX T,OBOZINSKI G,USUNIER N. Tensor Decompositions for Temporal Knowledge Base Completion[C]∥Proceedings of the 8th International Conference on LearningRepresentations. Addis:[s. n. ],2020:3057-3069.

[9] GOEL R,KAZEMI S M,BRUBAKER M,et al. DiachronicEmbedding for Temporal Knowledge Graph Completion[C]∥Proceedings of the AAAI Conference on ArtificialIntelligence. New York:AAAI,2020:3988-3995.

[10] JIN W,KHANNA R,KIM S,et al. ForecastQA:AQuestion Answering Challenge for Event Forecasting withTemporal Text Data[C]∥Proceedings of the 59th AnnualMeeting of the Association for Computational Linguisticsand the 11th International Joint Conference on NaturalLanguage Processing. Online:ACL,2021:4636-4650.

[11] NING Q,WU H,HAN R J,et al. TORQUE:A ReadingComprehension Dataset of Temporal Ordering Questions[C]∥Proceedings of the 2020 Conference on EmpiricalMethods in Natural Language Processing. Online:ACL,2020:1158-1172.

[12] 喬少杰,楊國(guó)平,于泳,等. QA-KGNet:一種語言模型驅(qū)動(dòng)的知識(shí)圖譜問答模型[J]. 軟件學(xué)報(bào),2023,34(10):4584-4600.

[13] 薩日娜,李艷玲,林民. 知識(shí)圖譜推理問答研究綜述[J]. 計(jì)算機(jī)科學(xué)與探索,2022,16(8):1727-1741.

[14] JIA Z,ABUJABAL A,ROY R S,et al. TempQuestions:ABenchmark for Temporal Question Answering[C]∥ Proceedings of Companion of the Web Conference 2018.Lyon:ACM,2018:1057-1062.

[15] JIA Z,ABUJABAL A,ROYS R,et al. TEQUILA:TemporalQuestion Answering over Knowledge Bases [C ]∥ Proceedings of the 27th ACM International Conference on Information and Knowledge Management. Torino:ACM,2018:1807-1810.

[16] JIA Z,PRAMANIK S,ROY R S,et al. Complex TemporalQuestion Answering on Knowledge Graphs[C]∥Proceedings of the 30th ACM International Conference on Information and Knowledge Management. Queensland:ACM,2021:792-802.

[17] SAXENA A,CHAKRABARTI S,TALUKDAR P. QuestionAnswering over Temporal Knowledge Graphs[C]∥ Proceedings of the 59th Annual Meeting of the Association forComputational Linguistics and the 11th International JointConference on Natural Language Processing. Online:ACL,2021:6663-6676.

[18] SAXENA A,TRIPATHI A,TALUKDAR P. ImprovingMultihop Question Answering over Knowledge GraphsUsing Knowledge Base Embeddings[C]∥Proceedings ofthe 58th Annual Meeting of the Association for Computational Linguistics. Online:ACL,2020:4498-4507.

[19] LIU Y H,LIANG D,FANG F,et al. Timeaware MultiwayAdaptive Fusion Network for Temporal Knowledge GraphQuestion Answering[EB / OL]. (2023 - 02 - 24)[2023 -04-17]. https:∥arxiv. org / abs / 2302. 12529.

[20] BRODY S,ALON U,YAHAV E. How Attentive are GraphAttention Networks?[EB / OL]. (2021 -05 -30)[2023 -05-10]. https:∥arxiv. org / abs / 2105. 14491.

[21] 俞海亮,彭冬亮,谷雨. 結(jié)合雙層多頭自注意力和BiL-STM-CRF 的軍事武器實(shí)體識(shí)別[J]. 無線電工程,2022,52(5):775-782.

[22] 梁禮明,何安軍,陽淵,等. 融合Transfomer 和多尺度并行注意的結(jié)直腸息肉分割算法[J]. 無線電工程,2023,53(1):209-219.

[23] F?VRY T,SOARES L B,FITZGERALD N,et al. Entitiesas Experts:Sparse Memory Access with Entity Supervision[EB / OL]. (2020 - 04 - 15)[2023 - 05 - 10]. https:∥arxiv. org / abs / 2004. 07202.

作者簡(jiǎn)介

于 泳 男,(1998—),碩士研究生。主要研究方向:知識(shí)圖譜、移動(dòng)數(shù)據(jù)挖掘。

(*通信作者)喬少杰 男,(1981—),博士后,教授。主要研究方向:時(shí)空數(shù)據(jù)庫、人工智能數(shù)據(jù)庫。

陳金勇 男,(1970—),碩士,研究員,碩士生導(dǎo)師。

高 林 男,(1984—),碩士,高級(jí)工程師。

黃江濤 男,(1979—),博士,副研究員。主要研究方向:人工智能。

劉晨旭 男,(1999—),碩士研究生。主要研究方向:人工智能數(shù)據(jù)庫。

韓 楠 女,(1984—),博士,副教授。主要研究方向:時(shí)空大數(shù)據(jù)、軌跡預(yù)測(cè)。

張 桃 男,(1990—),碩士。主要研究方向:數(shù)據(jù)挖掘、人工智能。

蔡宏果 男,(1978—),博士,副教授。主要研究方向:機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘。

基金項(xiàng)目:國(guó)家自然科學(xué)基金(62272066);四川省科技計(jì)劃(2021JDJQ0021,2022YFG0186,2022NSFSC0511,2023YFG0027);教育部人文社會(huì)科學(xué)研究規(guī)劃基金(22YJAZH088);宜賓市引進(jìn)高層次人才項(xiàng)目(2022YG02);成都市“揭榜掛帥”科技項(xiàng)目(2022 -JB00 -00002 -GX,2021 -JB00-00025-GX);成都市技術(shù)創(chuàng)新研發(fā)項(xiàng)目(重點(diǎn)項(xiàng)目)(2024-YF08-00029-GX);成都市區(qū)域科技創(chuàng)新合作項(xiàng)目(2023-YF11-00020-HZ);中國(guó)電子科技集團(tuán)公司第五十四研究所高校合作課題(SKX212010057);成都海關(guān)科研項(xiàng)目資助(2022CK008)

尉犁县| 白朗县| 镶黄旗| 改则县| 荔浦县| 临澧县| 黄浦区| 历史| 余江县| 台中市| 乐昌市| 庄河市| 伊通| 南陵县| 华池县| 凤台县| 宾阳县| 灌云县| 周口市| 大渡口区| 海晏县| 辛集市| 淄博市| 共和县| 营山县| 长岛县| 新乐市| 南木林县| 高雄市| 兴文县| 鱼台县| 苏尼特左旗| 固始县| 满城县| 鹿邑县| 临潭县| 松江区| 阳西县| 内丘县| 九江县| 张家界市|