国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

隱式知識圖協(xié)同過濾模型

2023-01-30 00:32:28盛一城
模式識別與人工智能 2022年11期
關鍵詞:集上圖譜物品

薛 峰 盛一城 劉 康 桑 勝

近年來,隨著互聯(lián)網(wǎng)技術的迅速發(fā)展,推薦系統(tǒng)已廣泛應用于各種在線服務中,如電子商務、社交應用及新聞媒體等.推薦系統(tǒng)的主要目標是根據(jù)用戶的歷史行為推薦其可能感興趣的物品.協(xié)同過濾[1-3]是使用最廣泛的個性化推薦算法之一,核心思想是:具有相似歷史行為的用戶會具有相似的興趣和偏好,因此在未來也會做出相似的選擇.然而,在真實的推薦場景中,由于用戶和物品的交互數(shù)據(jù)太少,協(xié)同過濾算法常面臨稀疏性問題.

為了緩解協(xié)同過濾算法面臨的數(shù)據(jù)稀疏性問題,一些研究工作[4-5]將知識圖譜作為附加信息,融入推薦框架中,豐富物品的特征表示.知識圖譜是一種有向異構圖,由〈頭實體-關系-尾實體〉三元組構成,可用于描述真實世界中的實體與實體之間的關系.

基于知識圖譜的推薦方法整體步驟可描述為:首先處理知識圖譜,得到其中每個節(jié)點的特征表示.再選擇推薦框架,將知識圖譜提供的特征融入推薦框架.最后將交互數(shù)據(jù)輸入融合后的推薦框架,執(zhí)行模型訓練.不同方法的區(qū)別主要體現(xiàn)在知識圖譜優(yōu)化目標的選擇、知識圖譜特征表示和推薦框架的融合.

基于知識圖譜的推薦方法可分為兩類:基于正則化的方法[4,6-8]和基于路徑的方法[9-13].基于正則化的方法利用知識圖譜中的三元組結構指導用戶和物品的表示學習.具體地,首先通過知識圖嵌入技術[14],為知識圖譜中的節(jié)點生成語義向量表示,然后將物品實體節(jié)點的語義向量融入推薦框架中,將向量內積作為用戶對目標物品的評分.盡管基于正則化的方法能實現(xiàn)較優(yōu)的推薦效果,但僅捕獲知識圖譜中一階的實體關聯(lián),方法對知識圖譜的語義學習能力有限.

相比基于正則化的方法,基于路徑的方法可通過知識圖譜中實體之間的路徑捕獲實體的高階語義關聯(lián),并融入用戶的偏好建模中,提升方法的推薦效果.然而,在節(jié)點數(shù)量較多時,路徑的規(guī)模數(shù)量會很龐大,導致模型復雜度過高,知識圖譜中的語義相關性難以得到有效傳播.為了處理兩個節(jié)點之間具有大量路徑的問題,一些研究工作會使用路徑選擇算法以選擇最佳路徑[10],或定義元路徑模式以約束路徑[9].但是這種二階段方法也存在如下問題:路徑選擇的第一階段對最終性能影響較大,并且沒有針對推薦目標進行優(yōu)化.此外,定義有效的元路徑需要領域知識,對于具有不同類型關系和實體的復雜知識圖譜而言,相當耗費人力.

近來圖神經(jīng)網(wǎng)絡[15-16]被廣泛應用于推薦算法研究中,在圖卷積神經(jīng)網(wǎng)絡(Graph Convolutional Net-works, GCN)中,模型復雜度和路徑長度呈線性關系[15],因此,利用GCN捕獲知識圖譜中高階知識實體關系可有效解決上述兩種方法存在的問題.受此啟發(fā),Wang等[17]提出KGAT(Knowledge Graph Atten-tion Network),以線性時間復雜度捕獲用戶偏好和知識實體之間的高階相關性,并通過知識圖表示學習建模節(jié)點(用戶、物品或實體)之間的顯式關系,構建注意力機制,區(qū)分鄰居節(jié)點的重要性.盡管上述模型已取得較優(yōu)的推薦效果,但實體相關性建模依賴于節(jié)點之間的顯式關系,存在如下兩點局限性.

1)在大部分推薦場景中,用戶和物品的交互是一種隱式反饋關系(如點擊、查看),它們在相關性建模中卻被錯誤地等同于圖譜中實體之間的顯式關系,這種做法會將用戶向量和物品向量限制到只有一個特定顯式關系的語義空間中,實際上其語義空間應該是多種顯式關系的總和,這可能會降低用戶偏好建模的質量.然而使用隱式關系對于用戶向量和物品向量對應的語義空間限制更小,可提升其嵌入向量學習的泛化能力.

2)圖譜中確定的兩個實體之間存在多種多樣的關系,但由于現(xiàn)有的數(shù)據(jù)集無法提供多樣的關系,只能提供實體之間單一的關系,按照特定顯式關系進行相關性建模時可能會將實體間的關系限制在一個具體的類別,弱化學習的關系嵌入向量的表達泛化性,降低實體之間的高階語義相關性.

為了解決上述不足,本文提出結合隱式知識圖譜與圖神經(jīng)網(wǎng)絡的推薦模型——隱式知識圖協(xié)同過濾模型(Implicit Knowledge Graph Collaborative Filte-ring Model, IKGCF),將帶有顯式關系的知識圖譜轉換成隱式的知識圖譜,并融入用戶-物品二元圖中,得到隱式協(xié)同知識圖.IKGCF不需要學習節(jié)點之間特定的顯式關系,一方面可消除顯式關系對推薦中隱式關系的干擾,另一方面可突破顯式關系對圖譜中語義相關性的限制,使模型充分捕捉協(xié)同信號.同時,使用增強的圖神經(jīng)網(wǎng)絡模塊[18-19],執(zhí)行鄰居聚集和消息傳播,更好地捕獲在隱式協(xié)同知識圖上的高階相關性.最后,IKGCF采用層選擇機制[20],得到最終的節(jié)點嵌入向量,并對模型進行預測和優(yōu)化.在3個公開數(shù)據(jù)集上的實驗驗證IKGCF性能較優(yōu).

1 隱式知識圖協(xié)同過濾模型

本文提出隱式知識圖協(xié)同過濾模型(IKGCF),具體流程如下.1)結合用戶-物品二元圖和隱式物品-實體知識圖譜,構建隱式協(xié)同知識圖,并根據(jù)用戶、物品和實體的ID信息生成對應的嵌入向量,輸入模型;2)在隱式協(xié)同知識圖中采用增強的圖神經(jīng)網(wǎng)絡,分別聚合用戶節(jié)點、物品節(jié)點和實體節(jié)點的鄰居節(jié)點信息和它們自身節(jié)點信息,使隱式協(xié)同知識圖中各節(jié)點可捕獲其高階鄰居信息,建立節(jié)點之間的高階連通性;3)將輸出的第3層和第4層圖卷積過程輸出的嵌入向量作為用戶節(jié)點和物品節(jié)點的最終嵌入向量,采用層選擇機制同時預測用戶和物品交互的可能性大小.

圖1為IKGCF框架圖,在圖中,uk表示用戶節(jié)點,ik表示物品節(jié)點,ek表示實體節(jié)點.IKGCF包含3個主要部分.1)嵌入層.基于隱式協(xié)同知識圖中的用戶節(jié)點、物品節(jié)點、實體節(jié)點的ID信息生成對應的嵌入向量.2)基于隱式關系的嵌入傳播層.IKGCF采用增強的圖神經(jīng)網(wǎng)絡模塊執(zhí)行鄰居聚集和消息傳播.3)模型預測層.輸出用戶對物品的預測得分.

圖1 IKGCF結構圖Fig.1 Structure of IKGCF

1.1 構建隱式協(xié)同知識圖

根據(jù)隱式的用戶-物品歷史交互數(shù)據(jù)可構建用戶-物品二元圖:

G1={(u,rui,i)|u∈U,i∈I}.

其中:rui=1表示用戶u與物品i之間有關系,否則rui=0;U表示用戶集合;I表示物品集合.除了上述的交互數(shù)據(jù)之外,物品還有一些輔助信息(如物品的屬性信息),可通過構建知識圖譜將這些輔助信息以三元組的形式組織起來.為了避免對實體進行相關性建模過程中帶來的諸多局限性,本文不考慮顯式知識圖譜中所有具體的關系,而是參照用戶-物品二分圖的構建方式,構建隱式知識圖譜:

Gimp={(h,rht,t)|h∈ε,t∈ε}.

其中:rht=1僅表示頭實體h與尾實體t之間有關系,否則rht=0;ε表示實體集合.再根據(jù)一系列物品-實體對建立物品-實體隱式圖譜:

G2={(i,rie,e)|i∈I,e∈ε},

其中,rie=1僅表示物品i與實體e之間有關系,否則rie=0.

隱式協(xié)同知識圖譜可用于整合用戶-物品二元圖G1和物品-實體隱式圖譜G2,因此將物品-實體對作為一種輔助信息融入用戶-物品二元圖中,得到隱式協(xié)同知識圖:

G=(G1∪G2)=
{(h,rht,t)|h∈(U∪I∪ε),t∈(U∪I∪ε)},

其中,頭實體和尾實體可以是用戶節(jié)點、物品節(jié)點或實體節(jié)點,同樣地,rui=1僅表示頭實體h與尾實體t之間有關系,否則rht=0.

1.2 嵌入向量初始化

首先隨機初始化所有用戶、物品和實體的嵌入向量,由于本文正在處理的協(xié)同過濾場景輸入數(shù)據(jù)只有用戶ID、物品ID和實體ID,不包含任何其它信息,因此嵌入向量的初始化只能通過簡單的ID映射實現(xiàn),具體過程描述如下:

1.3 基于隱式關系的嵌入傳播層

隱式協(xié)同知識圖中存在一系列三元組,IKGCF采用增強的圖神經(jīng)網(wǎng)絡模塊聚合頭實體h及鄰居節(jié)點(尾實體t)的信息,然后不斷循環(huán)這個過程,更新頭實體h的嵌入向量,捕獲隱式協(xié)同知識圖中節(jié)點之間的高階相關性.

1.3.1 節(jié)點消息傳播

用戶-物品二元圖中包含大量的三元組,物品-實體隱式知識圖譜中也包含大量的三元組,物品節(jié)點作為其中的橋梁連接兩組三元組,并在構成的隱式協(xié)同知識圖中傳播信息.在一階傳播過程中,匯聚頭實體h的鄰居節(jié)點信息,得到嵌入向量:

其中,Nh表示頭實體h鄰居節(jié)點的集合,Nt表示尾實體t鄰居節(jié)點的集合,|Nh|表示頭實體h鄰居節(jié)點的數(shù)量,|Nt|表示尾實體t鄰居節(jié)點的數(shù)量,p表示控制流行度的系數(shù),et表示尾實體t的嵌入向量.

1.3.2 節(jié)點信息聚合

對于每個頭節(jié)點h,不僅要從它鄰居節(jié)點的角度考慮其嵌入向量的更新,還要從節(jié)點自身的角度及其本身的特性考慮嵌入向量的更新.在一階傳播過程中,頭實體h聚集節(jié)點自身信息得到的嵌入向量:

eh←h=|Nh|-0.5|Nh|-peh,

其中,eh表示頭實體h的嵌入向量,|Nh|-0.5·|Nh|-p表示對聚集的自身節(jié)點信息的雙邊標準化.

通過上述過程可得到頭實體h的鄰居節(jié)點信息eh←t和包含節(jié)點自身信息的eh←h,IKGCF采用輕量級的圖卷積聚合方式編碼eh←t和eh←h之間的特征交互.輕量級的圖卷積方法去除非線性激活函數(shù)與權重轉換矩陣,減少在節(jié)點的嵌入傳播過程中引入過多的冗余信息,最終生成頭實體h的嵌入向量:

總之,上述嵌入傳播過程有效利用隱式協(xié)同知識圖中的一階連通性信息,使用戶節(jié)點、物品節(jié)點和實體節(jié)點都包含自身和鄰居節(jié)點的信息.

1.3.3 高階傳播

下面探尋如何疊加更多的嵌入傳播層以捕獲隱式協(xié)同知識圖中的高階相關性,即如何將頭實體h的高階鄰居節(jié)點信息也聚集到頭實體h中.在第l層嵌入傳播過程中,頭實體h的嵌入向量為:

至此通過上述多層嵌入傳播的過程,IKGCF可捕獲隱式協(xié)同知識圖上的高階相關性,將基于屬性的協(xié)同信號引入隱式推薦模型之中,提升推薦效果.

1.4 模型預測

對于給定的用戶-物品對,IKGCF經(jīng)過L層的高階傳播后,會獲取用戶u的每層向量的輸出表示:

同理也可獲取物品i的每層向量的輸出表示:

其中f(·)表示內積函數(shù).

IKGCF采用層選擇機制,即同時利用最后兩層輸出的用戶嵌入向量和物品嵌入向量預測用戶和物品交互的概率,預測函數(shù)如下:

1.5 模型優(yōu)化

本文采用聯(lián)合學習的目標函數(shù)優(yōu)化IKGCF,即

其中:LCF和LKG采用推薦領域中常用的BPR loss

(Bayesian Personalized Ranking Loss),這是一個成對損失函數(shù),旨在最大化觀察到的樣本與未觀察到的樣本的得分之差,通過小批量梯度下降的方法交替優(yōu)化LKG和LCF;θ表示所有可學習的參數(shù),λ表示正則化系數(shù).LCF、LKG具體定義如下:

LCF=

其中,

Y={(u,i,j)|(u,i)∈Y+,(u,j)∈Y-},

表示用戶-物品交互數(shù)據(jù)的訓練集,Y+表示正樣本,即用戶u和物品i之間是有交互的樣本,Y-表示負樣本,即用戶u和物品j之間無交互的樣本,σ(·)表示sigmoid激活函數(shù).

其中,

Z={(i,e,v)|(i,e)∈Z+,(i,v)∈Z-},

表示物品-實體隱式知識圖譜的訓練集,Z+表示正樣本,即物品i和實體e之間是有交互的樣本,Z-表示負樣本,即物品i和實體v之間無交互的樣本.

2 實驗及結果分析

2.1 實驗數(shù)據(jù)集

本文選取Amazon-book,Last-FM、Yelp2018數(shù)據(jù)集進行實驗,這3個數(shù)據(jù)集都可公開獲取.Amazon-book數(shù)據(jù)集為廣泛應用在商品推薦上的數(shù)據(jù)集,為了保證數(shù)據(jù)集的質量,本文采用10-core策略,即保留用戶和物品之間至少有10次交互記錄.Last-FM數(shù)據(jù)集為音樂數(shù)據(jù)集,數(shù)據(jù)來源于在線音樂系統(tǒng)Last.FM,本文同樣也使用10-core策略,確保在數(shù)據(jù)集上用戶和物品之間至少有10次交互記錄.Yelp-2018數(shù)據(jù)集為一家大型點評網(wǎng)站數(shù)據(jù)集,同樣地,本文也在該數(shù)據(jù)集上采用10-core策略.

這3個數(shù)據(jù)集除了包含用戶-物品交互數(shù)據(jù)以外,還包含文獻[21]中整理并公開的物品知識圖譜,以三元組的形式表示一對實體及它們之間的關聯(lián).表1詳細給出3個數(shù)據(jù)集的統(tǒng)計結果.

表1 實驗數(shù)據(jù)集Table 1 Experimental datasets

在每個數(shù)據(jù)集上,本文隨機選擇每位用戶80%交互歷史以構建訓練集,剩余的20%交互歷史作為測試集,另外從訓練集中隨機選擇10%的交互作為驗證集以調整超參數(shù),在Last-FM、Yelp2018數(shù)據(jù)集上,學習率調整為0.001,L2正則化系數(shù)調整為10-4,流行度偏置系數(shù)調整為0.4,此時實驗效果最佳.在Amazon-book數(shù)據(jù)集上,學習率調整為0.000 1,L2正則化系數(shù)調整為10-5,流行度偏置系數(shù)調整為0.3,此時實驗效果最佳.由于本文是基于BPR loss訓練模型,針對訓練集上每位用戶,都為其隨機采樣與交互歷史數(shù)量相同的負樣本.

2.2 實驗設置

為了評估IKGCF的推薦效果,采用推薦系統(tǒng)中常用的2個評價指標:召回率(Recall)和歸一化折損累計增益(Normalized Discounted Cumulative Gain, NDCG).Recall@K表示測試集上所有正樣本被正確預測的比例(推薦列表取前K個,記為Recall@K,其它位置同理,本文默認設置K=20).NDCG@K額外考慮正樣本在推薦列表中的位置,為正樣本排序靠前的結果給予更高的分數(shù).兩種指標的值越高,表示推薦模型的效果越優(yōu),理論上最佳結果均為1.

為了驗證IKGCF的有效性,選擇如下對比模型.

1)監(jiān)督學習模型:FM(Factorization Machines)[21]、NFM(Neural MF)[22].

2)基于正則化的方法:CKE(Explainable Colla-borative Knowledge Base Embedding)[4]、ECFKG(Colla-borative Filtering over Knowledge Graphs)[5].

3)圖神經(jīng)網(wǎng)絡方法:KGAT[17].

具體模型介紹如下.

1)FM.因式分解模型,將用戶和物品及與物品關聯(lián)的實體ID信息視為輸入特征,考慮輸入特征之間的二階特征交互.

2)NFM.因式分解模型,結合FM與神經(jīng)網(wǎng)絡.

3)CKE.典型的借助圖嵌入技術的知識圖譜推薦模型,從結構、文本、視覺三個層面獲得包含知識的初始嵌入向量,用于增強傳統(tǒng)矩陣分解模型隨機初始化的物品隱向量.

4)ECFKG.將知識圖表示學習技術應用在包含用戶、物品、實體和關系的統(tǒng)一圖上,將推薦任務轉換為(u,Interact,i)三元組的預測任務,其中Interact表示用戶與物品的交互.

5)KGAT.基于圖卷積的模型,以端到端的方式建模知識圖譜中的高階連接,循環(huán)傳播來自節(jié)點鄰居的嵌入向量,細化目標節(jié)點的嵌入向量,并采用一種注意力機制區(qū)分鄰居節(jié)點的重要性.

本文使用Tensorflow實現(xiàn)IKGCF,所有模型的輸入向量長度固定為64,使用Adam(Adaptive Mo-ment Estimation)優(yōu)化器優(yōu)化所有模型,其中批處理大小(Batchsize)固定為1 024.本文使用默認的Xavier初始化器用于初始化模型參數(shù),在超參數(shù)的設置上采用網(wǎng)格搜索:學習率在{0.01,0.001,0.000 1}之間調整,L2標準化系數(shù)在{10-5,10-4}之間調整,流行度偏置系數(shù)在{0.3,0.4,0.5}之間調整.在模型的預測階段,均采用層選擇機制,同時選取最后兩層輸出向量對模型進行預測和優(yōu)化.

2.3 實驗結果對比

各模型在3個數(shù)據(jù)集上的性能對比如表2所示,其中,Improve表示本文模型相比KGAT的增長比例,P-value表示本文模型相比KGAT通過顯著性檢驗方法得到的值,顯著性水平為0.05,黑體數(shù)字表示最優(yōu)值.

由表2可觀察到,兩個不使用知識圖譜的模型(FM和NFM)在大多數(shù)情況下表現(xiàn)優(yōu)于使用知識圖譜的模型(ECFKG和CKE),這是因為FM和NFM的交叉特性實際上充當用戶和物品之間的二階連通性,因此在某種程度上可捕獲更充分的協(xié)同信號.而基于正則化的方法(ECFKG和CKE)僅捕獲知識圖譜中一階的實體關聯(lián),對知識圖譜的語義學習能力有限.此外,知識圖表示學習方法通常適用于知識圖譜的補全任務,而不適用于推薦任務.

表2 各模型在3個數(shù)據(jù)集上的性能對比Table 2 Performance comparison of different models on 3 datasets

在這3個數(shù)據(jù)集上KGAT的表現(xiàn)優(yōu)于FM和NFM,這是因為:KGAT不僅利用知識圖譜豐富物品節(jié)點的向量表示,同時挖掘協(xié)同知識圖中的高階連通信息,用于豐富用戶和物品節(jié)點的向量表示,從而提高模型的推薦效果.

IKGCF在所有的數(shù)據(jù)集上均取得最優(yōu)值,并且所有指標都顯著高于KGAT(P-value值小于0.05).尤其在Yelp2018數(shù)據(jù)集上模型性能差異顯著(P-value值小于0.01),相比KGAT,IKGCF性能提升明顯,在NDCG指標上的提升高達15.67%,在Recall指標上的提升高達13.79%,這是因為IKGCF通過構建隱式協(xié)同知識圖譜,消除顯式關系對推薦中隱式交互關系的干擾,解除顯式關系對圖譜中語義相關性的限制,取得更優(yōu)的推薦效果.在Amazon-Book數(shù)據(jù)集上,IKGCF提升幅度過小,Recall指標只提升1.07%,NDCG指標提升1.43%,這主要與Amazon-Book數(shù)據(jù)集本身有關,其知識圖譜中實體間的關系較單一,對顯式關系進行相關性建模并不會將實體之間的關系限制在一個類別內,導致性能提升較小.

2.4 消融實驗結果

為了驗證IKGCF中層選擇機制、流行度偏置及隱式協(xié)同知識圖譜的有效性,本節(jié)將IKGCF與5個變體模型進行對比.具體變體模型定義如下:IKGCF w/o PN表示移除IKGCF中的流行度偏置;IKGCF w/o LS表示移除IKGCF中的層選擇機制,僅采用第4層的輸出向量對模型進行預測和優(yōu)化;IKGCF w/o LS*表示移除IKGCF中的層選擇機制,采用層平均機制對模型進行預測和優(yōu)化;IKGCF w/o PN&LS表示同時移除IKGCF中的流行度偏置和層選擇機制;IKGCF w/o BS表示移除聯(lián)合的損失函數(shù),僅在用戶-物品交互圖上為用戶和物品節(jié)點設置對應的BPR loss,去除在隱式知識圖上為物品和知識實體設置對應的BPR loss.

各模型的消融實驗結果如表3所示,其中黑體數(shù)字表示最優(yōu)值.由表3可知,IKGCF w/o LS的性能在大部分情況下都優(yōu)于IKGCF w/o LS*,這是因為在輕量級圖卷積模塊中,圖卷積的第4層輸出向量已包含前3層輸出向量的全部語義信息,即更高層輸出的嵌入向量具有更大的交互空間,低層的嵌入向量不需要參與生成節(jié)點的最終向量表示.

表3 各模型的消融實驗結果Table 3 Ablation experiment results of different models

IKGCF的性能在3個數(shù)據(jù)集上都優(yōu)于IKGCF w/o PN、IKGCF w/o LS、IKGCF w/o LS*和IKGCF w/o BS,這是因為:1)層選擇機制的使用增強模型的表現(xiàn)力,即最優(yōu)的圖卷積層需要充分捕獲兩層語義信息(分別表示目標節(jié)點的同構節(jié)點和異構節(jié)點的語義信息),這兩層語義信息包含不同的交互空間大小,因此選擇最優(yōu)的奇數(shù)層和偶數(shù)層可確保這兩種語義信息的交互空間是足夠的.2)流行度偏置也會提升模型的性能,增強推薦效果.3)聯(lián)合的BPR loss有助于提升模型性能,聯(lián)合學習這兩個不同的優(yōu)化目標可保證IKGCF更充分地建模用戶-物品-實體之間的隱式相關性.

在更多的推薦場景下,知識圖譜中實體之間的關系總是復雜多樣的(如Yelp2018、Last-FM數(shù)據(jù)集),而IKGCF w/o PN&LS在這些場景下的推薦性能總是顯著優(yōu)于KGAT,因此隱式關系建模比顯式關系建模更有效且具備更強的適用性.

值得注意的是,IKGCF w/o PN&LS在Amazon-Book數(shù)據(jù)集上的表現(xiàn)略弱于KGAT,這可能是因為相比Last-FM、Yelp2018數(shù)據(jù)集,Amazon-Book數(shù)據(jù)集上知識圖譜實體間的關系更單一,這意味著傳統(tǒng)方法(如KGAT)采用的顯式關系建模不會過度限制其多樣性,即實體之間的關系不會限制在一個類別中.

2.5 超參數(shù)分析

本節(jié)改變IKGCF的圖卷積層數(shù),研究使用多層嵌入對推薦效果的影響.實驗中控制流行度偏置系數(shù),將p值統(tǒng)一設為0.4,在3個數(shù)據(jù)集上進行實驗.不同卷積層數(shù)對IKGCF性能的影響如表4所示,表中IKGCF-(1,2)表示模型擁有兩層卷積層,并且同時使用第1層和第2層的輸出向量進行預測,其它的符號與其同理,黑體數(shù)字表示最優(yōu)值.

由表4可見,IKGCF-(2,3)和IKGCF-(3,4)的推薦效果在3個數(shù)據(jù)集上都遠優(yōu)于IKGCF-(1,2),這表明增加模型的卷積層數(shù)可提升模型性能,這種效果的提升可歸結為多層嵌入傳播為模型注入更多的高階連通性信息.

相比IKGCF-(2,3),IKGCF-(3,4)的提升幅度變小,這表明考慮到實體之間的四階關系就已足夠捕捉隱式協(xié)同知識圖中的協(xié)同信號,過多的圖卷積層數(shù)并不能有效提升推薦效果.

表4 不同卷積層數(shù)對IKGCF性能的影響Table 4 Effect of different number of convolution layers on IKGCF performance

除了圖卷積的層數(shù)以外,還有一些超參數(shù)會對模型性能產(chǎn)生影響.下面研究模型的流行度偏置PN,定義PN=0.3,0.4,0.5,并測試不同PN對IKGCF性能的影響.結果如表5所示,表中黑體數(shù)字表示最優(yōu)值,模型使用第3層和第4層的輸出向量同時預測得分.

由表5可見,引入流行度偏置系數(shù)后,IKGCF性能具有顯著提升,并且在不同的數(shù)據(jù)集上,最佳性能對應的流行度偏置不同.這表明流行特征在建模用戶偏好中起到重要作用,并證實用戶偏好在流行特征中表現(xiàn)差異.此外,結合流行特性可顯著提高IKGCF在Yelp2018、Amazon Book數(shù)據(jù)集上的性能,這可能是因為這兩種場景中的用戶對流行特性更敏感.

表5 不同流行度偏置系數(shù)對IKGCF性能的影響Table 5 Effect of different popularity bias factors on IKGCF performance

3 結 束 語

本文提出隱式知識圖協(xié)同過濾模型(IKGCF),構建隱式協(xié)同知識圖,一方面消除顯式關系對推薦中隱式交互關系的干擾,另一方面解除顯式關系對圖譜中語義相關性的限制.此外,采用增強的圖神經(jīng)網(wǎng)絡模塊,更好地捕獲在隱式協(xié)同知識圖上的高階相關性.在3個公開數(shù)據(jù)集上的實驗結果表明IKGCF具有出色的性能.在推薦系統(tǒng)任務中,隱式協(xié)同知識圖譜還有更大的利用價值,節(jié)點之間存在豐富、隱含的關系.今后將著力研究如何進一步挖掘節(jié)點之間隱含的關系,提高節(jié)點之間的語義相關性,提升推薦效果.

猜你喜歡
集上圖譜物品
稱物品
“雙十一”,你搶到了想要的物品嗎?
繪一張成長圖譜
Cookie-Cutter集上的Gibbs測度
鏈完備偏序集上廣義向量均衡問題解映射的保序性
誰動了凡·高的物品
復扇形指標集上的分布混沌
補腎強身片UPLC指紋圖譜
中成藥(2017年3期)2017-05-17 06:09:01
主動對接你思維的知識圖譜
找物品
含山县| 海南省| 广河县| 娄烦县| 屏边| 资源县| 乌拉特前旗| 宜兴市| 武功县| 宜丰县| 南木林县| 淮安市| 武宣县| 陇川县| 红原县| 永昌县| 壶关县| 文昌市| 嘉祥县| 溆浦县| 巴里| 瑞丽市| 科技| 时尚| 会泽县| 达州市| 兴山县| 溧水县| 拉萨市| 保康县| 平谷区| 漯河市| 甘孜县| 新巴尔虎左旗| 元阳县| 鸡泽县| 荣成市| 嘉黎县| 宝兴县| 通城县| 湖州市|