国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于圖結(jié)構(gòu)增強的圖神經(jīng)網(wǎng)絡(luò)方法

2024-07-20 00:00:00張芳單萬錦王雯

摘" " 要: 針對圖卷積網(wǎng)絡(luò)(GCNs)在面對低同質(zhì)性的圖結(jié)構(gòu)時性能驟降問題,提出了一種新穎的基于圖結(jié)構(gòu)增強的圖神經(jīng)網(wǎng)絡(luò)方法,用于學(xué)習(xí)改善的圖節(jié)點表示。首先將節(jié)點信息通過消息傳播和聚合,得到節(jié)點的初始表示;然后計算節(jié)點表示的相似性度量,得到圖的同質(zhì)結(jié)構(gòu);最后融合圖的原始結(jié)構(gòu)和同質(zhì)結(jié)構(gòu)進行節(jié)點的信息傳遞得到節(jié)點表示用于下游任務(wù)。結(jié)果表明:在6個公開的數(shù)據(jù)集上,所提算法在節(jié)點分類的多個指標上均優(yōu)于對比算法,特別是在同質(zhì)性較低的4個數(shù)據(jù)集上,所提算法的準確度(ACC)分數(shù)分別超過最高基準5.53%、6.87%、3.08%、4.00%,宏平均(F1)值分別超過最高基準5.75%、8.06%、6.46%、5.61%,獲得了遠高于基準的優(yōu)越表現(xiàn),表明所提方法成功改善了圖數(shù)據(jù)的結(jié)構(gòu),驗證了該算法對圖結(jié)構(gòu)優(yōu)化的有效性。

關(guān)鍵詞: 圖結(jié)構(gòu)增強; 相似性度量; 圖卷積網(wǎng)絡(luò); 節(jié)點分類

中圖分類號: TP183" " " " " " 文獻標志碼: A" " " " " " " " 文章編號: 1671-024X(2024)03-0058-08

Graph neural network method based on graph structure enhancement

ZHANG Fang1,2, SHAN Wanjin3, WANG Wen1,2

(1. School of Life Sciences, Tiangong University, Tianjin 300387, China; 2. Tianjin Key Laboratory of Optoelectronic Detection Technology and System, Tiangong University, Tianjin 300387, China; 3. School of Electronics and Information Engineering, Tiangong University, Tianjin 300387, China)

Abstract: In response to the problem of sudden performance degradation in graph convolutional networks(GCNs) facing low homogeneity graph structures, a novel graph structure enhancement method is proposed for learning improved graph node representations. Firstly, the node information is propagated and aggregated by messages to obtain an initial representation of the nodes. Then the similarity metric of the node representation is calculated to obtain the homogeneous structure of the graph. Finally, the original structure of the graph and the homogeneous structure are fused for node information transfer to obtain the node representation for downstream tasks. The results show that the proposed algorithm outperforms the comparison algorithm in several metrics of node classification on six publicly available datasets, especially on the four datasets with low homogeneity, the ACC scores of the proposed algorithm exceed the highest benchmark by 5.53%, 6.87%, 3.08% and 4.00%, and the F1 values exceed the highest benchmark by 5.75%, 8.06%, 6.46% and 5.61%, respectively, obtaining superior performance well above the benchmark, indicating that the proposed method successfully improves the structure of graph data and verifies the effectiveness of the algorithm for graph structure optimization.

Key words: graph structure enhancement; similarity measure; graph convolution network; node classification

為了實現(xiàn)對各種信息網(wǎng)絡(luò)的可靠定量分析,獲取圖結(jié)構(gòu)數(shù)據(jù)的高質(zhì)量表示已成為當前的熱門話題之一。圖神經(jīng)網(wǎng)絡(luò)(graph neural networks, GNNs)[1]在從知識譜圖[2]到社交網(wǎng)絡(luò)[3]以及金融網(wǎng)絡(luò)的各種應(yīng)用中的表示學(xué)習(xí)非常強大。近年來,GNNs發(fā)展出了許多人工神經(jīng)網(wǎng)絡(luò),例如圖卷積網(wǎng)絡(luò)(GCN)[1]、圖注意力網(wǎng)絡(luò)(GAT)[4]和圖同構(gòu)網(wǎng)絡(luò)(GIN)[5]等。對于GNNs,每個節(jié)點可以通過聚合節(jié)點本身及其鄰居的特征表示來迭代更新其特征表示。鄰域通常被定義為圖中的相鄰節(jié)點集,GNNs可以采用多種聚合函數(shù)聚合其鄰居信息來迭代更新其特征表示[6],例如求和、最大值和平均值[7-9]。圖學(xué)習(xí)的基本思想是提取圖結(jié)構(gòu)數(shù)據(jù)中的高維信息,并將其嵌入到低維向量表示中。這些節(jié)點表示向量可以潛在地用于各種下游任務(wù),例如節(jié)點分類[10]、鏈路預(yù)測[11]、圖分類[12]和推薦系統(tǒng)[13]。

但是,由于現(xiàn)有的GNNs依賴于節(jié)點的信息傳播[14],所以其鄰居的類別會直接影響節(jié)點獲得的消息表示。當鄰居具有正確的信息即節(jié)點及其鄰居屬于同一類時,節(jié)點經(jīng)過網(wǎng)絡(luò)傳播后會獲得較好的表示。而當節(jié)點和它的鄰居不屬于同一類,它將會接收到相對錯誤的信息。在統(tǒng)計樣本的連接關(guān)系時會獲得較為真實的邊連接,但是具有連接關(guān)系的樣本之間可能只具有弱相關(guān),并不屬于同一類,而同一類的樣本在現(xiàn)實生活中可能并沒有交集,這樣統(tǒng)計而來的圖數(shù)據(jù)具有較低的同質(zhì)性[15]。同質(zhì)性即連接的節(jié)點通常屬于同一類,可分為邊同質(zhì)性(edge homophily, hedge) [16]以及節(jié)點同質(zhì)性(node homophily, hnode)[8],具體的同質(zhì)性定義在符號定義章節(jié)給出。

所以現(xiàn)階段如何得到神經(jīng)網(wǎng)絡(luò)所期待的同質(zhì)性較高的圖結(jié)構(gòu)成為一個具有挑戰(zhàn)的話題[17]。上述問題引發(fā)了圍繞圖結(jié)構(gòu)學(xué)習(xí)(graph structure learning, GSL)[18]這一中心主題的大量研究,現(xiàn)有的解決這一問題的方法要么固定節(jié)點間的相似度圖,要么同時學(xué)習(xí)GNNs參數(shù)和圖結(jié)構(gòu)。在這兩種情況下,一個主要目標是構(gòu)建或?qū)W習(xí)相對于標簽具有高度同質(zhì)性的圖結(jié)構(gòu),以幫助GNNs分類。后一種方法被稱為潛在圖學(xué)習(xí)(latent graph learning)[19],與前一種方法相比,通常會產(chǎn)生更高的預(yù)測性能。但是上述方法在完成重構(gòu)圖結(jié)構(gòu)的同時會丟棄掉原始的圖結(jié)構(gòu)[18],這是不可取的,因為原始的圖結(jié)構(gòu)代表現(xiàn)實生活中的真實連接,即使它們不是同質(zhì)的。當拋棄原始圖結(jié)構(gòu)時,圖數(shù)據(jù)已然不復(fù)存在,只剩下孤立的樣本,這違背了GNNs的初衷。

為應(yīng)對上述問題,本文提出了一種基于相似性度量的圖結(jié)構(gòu)增強學(xué)習(xí)方法,獲取節(jié)點表示,以用于下游任務(wù)。首先,將原始節(jié)點特征和鄰接矩陣數(shù)據(jù)經(jīng)過GCN編碼進行節(jié)點的傳播和聚合;其次將初步得到的節(jié)點表示進行相似性計算,進而將具有較高相似度的節(jié)點之間賦予權(quán)重邊;然后把得到的權(quán)重邊加上原始邊和節(jié)點特征輸入至GCN編碼器中得到節(jié)點的高級表示;最后將高級節(jié)點表示與給定的標簽進行對比優(yōu)化。在此節(jié)點高級表示的基礎(chǔ)上可以對節(jié)點進行分類任務(wù)。

1 相關(guān)工作

推斷圖結(jié)構(gòu)的一種方法是選擇相似性度量,并將兩個節(jié)點之間的邊權(quán)重設(shè)置為它們的相似性[19]。為了獲得稀疏結(jié)構(gòu),可以創(chuàng)建k近鄰相似圖,僅連接相似度超過某個預(yù)定義閾值的節(jié)點對。Wang等[20]通過在GNN的每一層中基于嵌入在該層中的節(jié)點的相似性創(chuàng)建新的圖來擴展這一思想。Halcrow等[21]不是選擇單一的相似性度量,而是融合了多個相似性度量。這些方法的預(yù)測質(zhì)量在很大程度上取決于相似性度量的選擇。

另一種方法是從完全連通的圖開始,并使用可用的元數(shù)據(jù)來分配邊權(quán)重,或者使用GNN變體,其經(jīng)由注意力機制為每條邊提供權(quán)重[22]。這種方法已經(jīng)用于計算機視覺[23]、自然語言處理[24]和少樣本學(xué)習(xí)[25]。這種方法的復(fù)雜性迅速增加,使其僅適用于小尺寸的圖。劉杰等[26]建議為每個節(jié)點定義本地鄰居,并且僅假設(shè)這些本地鄰居是完全連接的。他們的方法依賴于一個初始的圖結(jié)構(gòu)來定義當?shù)厣鐓^(qū)。

2 模 型

本章介紹所提出的基于圖結(jié)構(gòu)增強的圖神經(jīng)網(wǎng)絡(luò)方法,并具體介紹所提出方法的關(guān)鍵技術(shù)以及優(yōu)化方法。圖1展示了本文方法的整體框架圖。首先對原始的節(jié)點特征和鄰接矩陣通過GCN進行消息的傳播和聚合得到節(jié)點表示,計算節(jié)點表示的相似度作為生成的權(quán)重邊,然后將節(jié)點表示和原始鄰接矩陣以及生成的權(quán)重邊作為下一層GCN編碼器的輸入;最后由GCN編碼出高級節(jié)點表示HS。HS即為最終的節(jié)點表示用于類別預(yù)測對節(jié)點進行分類。

2.1 符號定義

首先定義本文用到的各種變量及其符號表示。本文將無向圖定義為G = (V,E),使用的圖數(shù)據(jù)集,它們的節(jié)點集用V = {v1,v2,…,vN}表示,vi代表節(jié)點i;節(jié)點特征矩陣用X = {x1,x2,…,xN}∈R表示。其中xi表示節(jié)點vi的特征向量,N代表節(jié)點數(shù)量,d0代表節(jié)點的特征維度。A∈R表示圖的鄰接矩陣,其中邊ei,j = (vi,vj)∈E意味著節(jié)點vi和vj具有連接關(guān)系,|E|代表邊的數(shù)量。表1給出了本文的符號定義。

定義1" " 邊同質(zhì)性:指連接同一類節(jié)點的邊占總邊數(shù)的比例:

hedge = "(1)

定義2" " 節(jié)點同質(zhì)性:指節(jié)點的一階鄰居中和節(jié)點屬于同一類的節(jié)點所占的比例:

hnode = "(2)

式中:d為節(jié)點vi的一階鄰居的數(shù)量;d 為和節(jié)點vi具有相同類別標簽的鄰居數(shù)量。

2.2 基于相似性度量的圖結(jié)構(gòu)增強學(xué)習(xí)框架

本文的圖結(jié)構(gòu)增強學(xué)習(xí)模型框架如圖1所示??蚣艿拿繉佑蓤D結(jié)構(gòu)重構(gòu)和圖編碼兩部分組成,是一種融合原始圖拓撲結(jié)構(gòu)并重構(gòu)為同質(zhì)圖的人工神經(jīng)網(wǎng)絡(luò),致力于得到節(jié)點的高級表示并應(yīng)用于下游任務(wù)。

圖結(jié)構(gòu)重構(gòu)致力于連接在原始圖中沒有連接關(guān)系但具有較高相似性的節(jié)點,由圖編碼器GCN和相似性度量組成,使節(jié)點能夠正確聚合同類節(jié)點的信息,從而得到正確的節(jié)點表示。將節(jié)點的特征矩陣X和鄰接矩陣A作為GCN的輸入,經(jīng)GCN對節(jié)點進行信息的傳播和聚合得到低維的節(jié)點表示:

H0 = σ(XWGCN) (3)

式中:H0∈R 為經(jīng)過GCN編碼得到的節(jié)點表示矩陣;為歸一化的鄰接矩陣;WGCN為GCN的網(wǎng)絡(luò)權(quán)重參數(shù);σ(·)為非線性激活函數(shù),本文采用ReLU非線性激活函數(shù)。

接著計算節(jié)點之間的相似性,可以采用的相似性度量有余弦相似度、歐氏距離和曼哈頓距離等。為了計算的簡單,本文采用向量的內(nèi)積作為節(jié)點之間的相似性度量:

si,j = h· h (4)

式中:si,j為節(jié)點,表示hi和hj之間的相似性度量,hi,hj∈H0。則對于整個圖來說各節(jié)點之間的相似性度量可表示為:

S0 = H0·H" " " " "(5)

式中:S0為節(jié)點的相似性矩陣。

最后取每個節(jié)點的前Top_k個相似節(jié)點進行連接,除去相似度較低的連接,即采取kNN策略,增加圖結(jié)構(gòu)的同質(zhì)性, 并歸一化相似度矩陣:

0 = normalize(kNN(S0)) (6)

在圖結(jié)構(gòu)重構(gòu)后即可進行圖編碼工作得到高級節(jié)點表示。原始鄰接矩陣代表圖數(shù)據(jù)的真實連接,能夠代表節(jié)點之間的真實關(guān)系,但這種關(guān)系可能并不是網(wǎng)絡(luò)所期望的同質(zhì)性較高的連接關(guān)系,所以需要將原始圖鄰接矩陣和生成的相似度矩陣以及節(jié)點表示H0作為輸入傳入下一層GCN編碼器,繼續(xù)重構(gòu)圖結(jié)構(gòu)。經(jīng)過最后一層GCN編碼器得到高級節(jié)點表示:

Hs = ReLU(GCN( + s-1,Hs-1))(7)

Hs經(jīng)過softmax進行類別預(yù)測:

Z = softmax(Hs)(8)

對于半監(jiān)督多類分類,本文評估所有帶標簽樣本節(jié)點的交叉熵損失:

L = -Yi, j ln Zi,j(9)

式中:YL為具有標簽Y的節(jié)點索引集;C為類別數(shù)。經(jīng)過反向傳播來優(yōu)化神經(jīng)網(wǎng)絡(luò)的參數(shù),從而達到較好的結(jié)果。

3 實 驗

本文基于引文網(wǎng)絡(luò)圖數(shù)據(jù)集和維基百科圖數(shù)據(jù)集,將提出的用于節(jié)點分類的潛在圖學(xué)習(xí)方法與其他方法進行了對比,并且分析了實驗結(jié)果,通過消融實驗展示了算法實現(xiàn)的關(guān)鍵部分。

3.1 數(shù)據(jù)集

為了驗證本文所提的圖結(jié)構(gòu)增強學(xué)習(xí)網(wǎng)絡(luò)的有效性,本文選取了6個圖數(shù)據(jù)集進行實驗,包括Cora和Citeseer 2個具有較高同質(zhì)性的引文網(wǎng)絡(luò)圖數(shù)據(jù)集,以及Chameleon、Squirrel、Actor和 Wisconsin 4個具有較低同質(zhì)性的維基百科圖數(shù)據(jù)集(https://github.com/CUAI/Non-Homophily-Large-Scale)。6個數(shù)據(jù)集的信息在表 2中給出。

表2中,Cora和Citeseer數(shù)據(jù)集跟隨文獻[1]的分割方式,Chameleon、Squirrel、Actor和Wisconsin按照文獻[27]的分割方式。

3.2 對比方法

為了驗證本文所提出的潛在圖學(xué)習(xí)方法的有效性,本文將其與GCN[1]、GAT[4]兩種經(jīng)典的網(wǎng)絡(luò)以及先進的圖結(jié)構(gòu)增強網(wǎng)絡(luò)SLAPS[18]進行對比:

(1) GCN是一種半監(jiān)督圖卷積網(wǎng)絡(luò)框架,它聚集來自鄰居的輸入以學(xué)習(xí)節(jié)點表示。

(2) GAT是一種使用注意力機制聚集節(jié)點特征的半監(jiān)督圖神經(jīng)網(wǎng)絡(luò)框架。

(3) SLAPS是一種圖結(jié)構(gòu)學(xué)習(xí)框架,通過計算節(jié)點之間的相似度生成權(quán)重邊,并且通過額外的自監(jiān)督任務(wù)解決圖結(jié)構(gòu)增強中存在的監(jiān)督匱乏問題。

3.3 實驗設(shè)置

本文采用GCN作為編碼器,使用Adam優(yōu)化器來訓(xùn)練,并且將訓(xùn)練的初始學(xué)習(xí)率設(shè)置為0.001。對6個數(shù)據(jù)集在本文方法以及對比方法上分別進行了節(jié)點的多分類實驗,對于每個方法均采用GCN中使用的softmax作為分類器。對于節(jié)點分類,本文一方面采用準確度(accuracy, ACC)和宏平均(Macro_F1, F1)作為評價指標,并且采用10次實驗取平均值的方法來減少隨機誤差;另一方面,為了進一步評價方法的有效性,本文對學(xué)習(xí)到的節(jié)點表示還進行了不同類型的聚類可視化實驗,這樣可以直觀地看出節(jié)點表示的表現(xiàn)力。

3.4 實驗結(jié)果分析

本文對比了2種經(jīng)典的網(wǎng)絡(luò)以及1種先進的圖結(jié)構(gòu)學(xué)習(xí)網(wǎng)絡(luò)用于半監(jiān)督節(jié)點分類。表3展示了節(jié)點分類在ACC和F1指標上的所有結(jié)果,最佳結(jié)果標記為粗體。

從表3可以觀察到,在每個數(shù)據(jù)集的分類結(jié)果中,本文提出的方法均好于其他對比方法,在多個指標的節(jié)點分類實驗中,本文所提方法在同質(zhì)性較低的數(shù)據(jù)集上相比于對比方法獲得了更加優(yōu)秀的結(jié)果,相比于GCN更是獲得超過5%的提升,而同質(zhì)性較高的數(shù)據(jù)集在以GCN為編碼器的條件下仍然普遍好于GCN。造成這種結(jié)果的原因在于提出的方法充分考慮了低同質(zhì)性圖的特征,即低同質(zhì)性的圖中的節(jié)點不能夠從自己的同類節(jié)點中獲取足夠的同類信息,導(dǎo)致和其他類節(jié)點不能夠徹底區(qū)分開。

3.5 實驗結(jié)果可視化

為了更加直觀地看到本文方法與對比方法在節(jié)點表示方面的差異,本文對得到的節(jié)點表示進行可視化操作。為了展示本文方法在同質(zhì)性較高和較低的數(shù)據(jù)集上的表現(xiàn)力,實驗在本文方法和對比方法上分別對同質(zhì)性較高的Cora數(shù)據(jù)集和同質(zhì)性較低的Chameleon數(shù)據(jù)集上進行了t-SNE[28]可視化和熱圖可視化,分別如圖2和圖3所示。

3.5.1 t-SNE可視化

為了直觀地反映出節(jié)點表示在向量空間中的分布情況,本文接著對測試集的節(jié)點表示進行了t-SNE可視化操作。從圖2中可以看出,在Cora數(shù)據(jù)集下,相比于其他方法,本文的算法具有更小的類內(nèi)距離以及更大的類間距離,并且可以明顯看出7個突觸和類別數(shù)相對應(yīng);在Chameleon數(shù)據(jù)集上,本文方法相對于對比方法擁有更加清晰的類別簇,這些要歸功于網(wǎng)絡(luò)的優(yōu)秀設(shè)計:將具有同質(zhì)性的節(jié)點進行連接,使每個節(jié)點可以獲取更多的同類信息,在分類時更具有競爭力。

3.5.2 熱圖可視化

熱圖可視化能夠直觀地看出同一類別內(nèi)的樣本之間的相似程度。在熱力圖中,從對角線上的方塊邊長可以看出此樣本的數(shù)量多少,而方塊的顏色深淺則帶邊同類節(jié)點的相似程度。從圖3中可以看出,在具有高同質(zhì)性的Cora數(shù)據(jù)集上,相比于其他方法,本文方法擁有更加清晰的方塊邊界以及顏色更深的方塊顏色,這代表它在獲取節(jié)點表示上具有強大的表現(xiàn)力。低同質(zhì)性的數(shù)據(jù)集Chameleon在測試集中每類節(jié)點數(shù)量分別為224、245、227、252、190,每一類數(shù)量幾乎相等,但是在圖3中,3種對比方法的Heatmap可視化中的方塊都不具有幾乎相等大小的方塊,但是本文方法擁有幾乎相等大小的方塊,且邊界較為清晰。以上實驗結(jié)果充分展示出所提方法在各類數(shù)據(jù)集上的優(yōu)秀表現(xiàn),證明增加圖結(jié)構(gòu)的同質(zhì)性可以有效獲取節(jié)點的鄰居信息,從而獲得更好的節(jié)點表示用于下游任務(wù)。

3.6 消融實驗

為了直觀地看出融合原始拓撲結(jié)構(gòu)對模型的影響,本文對模型進行了消融實驗來探索其影響。為此,需要將公式(7)變成:

Hs = ReLU(GCN(S-1,HS-1))(10)

則輸入變成重構(gòu)后的同質(zhì)圖結(jié)構(gòu)和節(jié)點表示,忽略原始圖結(jié)構(gòu),具體的表現(xiàn)如圖4所示。

由圖4可以觀察到,在ACC精度和F1值2個指標上,完整的模型表現(xiàn)均優(yōu)于缺失原始拓撲結(jié)構(gòu)的模型,證明了融合原始圖拓撲結(jié)構(gòu)的有效性。

4 結(jié)束語

本文研究了圖結(jié)構(gòu)的同質(zhì)性對節(jié)點表示學(xué)習(xí)的影響,并提出了一種基于圖結(jié)構(gòu)增強的圖學(xué)習(xí)框架。首先對節(jié)點特征通過原始圖結(jié)構(gòu)進行消息傳播和聚合進行特征提取,得到節(jié)點表示;然后計算節(jié)點表示的相似度從而獲得同質(zhì)矩陣;最后將節(jié)點表示,原始圖結(jié)構(gòu)以及生成的同質(zhì)結(jié)構(gòu)輸入至圖編碼器中獲得高級節(jié)點表示用于下游任務(wù)。結(jié)果表明,在節(jié)點分類任務(wù)中,本文方法在同質(zhì)性較高的Cora和Citeseer數(shù)據(jù)集上獲得了優(yōu)于基線的結(jié)果,在同質(zhì)性較低的Chame-leon等4個數(shù)據(jù)集上獲得了優(yōu)于基線平均5%以上的性能提升。這些實驗充分驗證了本文所提模型在圖結(jié)構(gòu)重構(gòu)上的強大能力,有效地提高了節(jié)點的分類結(jié)果。

參考文獻:

[1]" " 徐冰冰,岑科廷,黃俊杰,等. 圖卷積神經(jīng)網(wǎng)絡(luò)綜述[J]. 計算機學(xué)報,2020,43(5):755-780.

XU B B, CEN K T, HUANG J J, et al. A survey on graph convolutional neural network[J]. Chinese Journal of Computers, 2020, 43(5): 755-780(in Chinese).

[2]" " SCHLICHTKRULL M, KIPF T N, BLOEM P, et al. Modeling relational data with graph convolutional networks[C]//European Semantic Web Conference. Cham: Springer, 2018: 593-607.

[3]" " 郝志峰, 柯妍蓉, 李爍, 等. 基于圖編碼網(wǎng)絡(luò)的社交網(wǎng)絡(luò)節(jié)點分類方法[J]. 計算機應(yīng)用, 2020, 40(1): 188-195.

HAO Z F, KE Y R, LI S, et al. Node classification method in social network based on graph encoder network[J]. Journal of Computer Applications, 2020, 40(1): 188-195 (in Chinese).

[4]" " 范洪玉, 張永庫, 孟祥福. 基于知識圖殘差注意力網(wǎng)絡(luò)的推薦方法[J]. 計算機科學(xué), 2023,50(S2):479-485.

FAN H Y, ZHANG Y K, MENG X F. Recommendation me-thod based on residual attention network of knowledge graph[J]. Computer Science, 2023, 50(S2): 479-485(in Chinese).

[5]" " 徐立祥, 葛偉, 陳恩紅, 等. 基于圖核同構(gòu)網(wǎng)絡(luò)的圖分類方法[J]. 計算機研究與發(fā)展, 2024, 61(4): 903-915.

XU L X, GE W, CHEN E H, et al. Graph classification method based on graph kernel isomorphism network[J]. Journal of Co-mputer Research and Development, 2024,61(4): 903-915(Chinese)

[6]" " HUANG W B, ZHANG T, RONG Y, et al. Adaptive sampling towards fast graph representation learning[C]//Proceedings of the 32nd International Conference on Neural Information Processing" Systems. Montréal, Canada: ACM, 2018: 4563-4572.

[7]" " 劉俊奇, 涂文軒, 祝恩. 圖卷積神經(jīng)網(wǎng)絡(luò)綜述[J]. 計算機工程與科學(xué),2023,45(8): 1472-1481.

LIU J Q, TU W X, ZHU E. Survey on graph convolutional ne-ural network[J]. Computer Engineering amp; Science, 2023, 45(8): 1472-1481(in Chinese).

[8]" " 張麗英, 孫海航, 孫玉發(fā), 等. 基于圖卷積神經(jīng)網(wǎng)絡(luò)的節(jié)點分類方法研究綜述[J]. 計算機科學(xué),2024,51(4):95-105.

ZHANG L Y, SUN H H, SUN Y F, et al. Review of node classification methods based on graph convolutional neural networks[J]. Computer Science, 2024, 51(4):95-105(in Chinese).

[9]" " CORSO G, CAVALLERI L, BEAINI D, et al. Principal neig-hbourhood aggregation for graph nets[C]//Proceedings of the 34th International Conference on Neural Information Processing Systems. Vancouver, BC, Canada: ACM, 2020: 13260-13271.

[10]" ABU-EL-HAIJA S, PEROZZI B, KAPOOR A, et al. MixHop: Higher-order graph convolutional architectures via sparsified neighborhood mixing[C]//Proceedings of the 36th International Conference on Machine Learning. Long Beach, California, USA:PMLR, 2019: 21-29.

[11]" 代勁, 張奇瑞, 王國胤, 等. 基于多維云概念嵌入的變分圖自編碼器研究[J]. 電子學(xué)報,2023,51(12):3507-3519.

DAI J, ZHANG Q R, WANG G Y, et al. Research on variational graph auto-encoder based on multidimensional cloud concept embedding[J]. Acta Electronica Sinica, 2023, 51(12): 3507-3519(in Chinese).

[12]" ZHANG M H, CUI Z C, NEUMANN M, et al. An end-to-end deep learning architecture for graph classification[C]//Proceedings of the 32nd AAAI Conference on Artificial Intelligence. New Orleans, Louisiana, USA:AAAI," 2018: 4438-4445.

[13]" YING R, HE R N, CHEN K F, et al. Graph convolutional neural networks for web-scale recommender systems[C]//Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery amp; Data Mining. London, United Kingdom: ACM, 2018: 974–983.

[14]" GILMER J, SCHOENHOLZ S S, RILEY P F, et al. Neural message passing for Quantum chemistry[C]//Proceedings of the 34th International Conference on Machine Learning. Sydney, NSW, Australia: ACM, 2017: 1263-1272.

[15]" BOJCHEVSKI A, GASTEIGER J, PEROZZI B, et al. Scaling graph neural networks with approximate PageRank[C]//Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery amp; Data Mining. CA, USA: ACM, 2020: 2464-2473.

[16]" ZHU J, YAN Y J, ZHAO L X, et al. Beyond homophily in graph neural networks: Current limitations and effective designs[C]//Proceedings of the 34th International Conference on Neural Information Proceeding Systems. Vancouver, Canada: MIT Press, 2020:7793-7804.

[17]" LUO D S, CHENG W, YU W C, et al. Learning to drop: Robust graph neural network via topological denoising[C]//Proceedings of the 14th ACM International Conference on Web Search and Data Mining. Israel: ACM, 2021: 779-787.

[18]" FATEMI B, EL ASRI L, KAZEMI S M. SLAPS: Self-supervision improves structure learning for graph neural networks[C]//Proceedings of the 35th International Conference on Neural Information Processing Systems. Beijing: MIT Press, 2021: 22667-22681.

[19]" TENENBAUM J B, DE SILVA V, LANGFORD J C. A global geometric framework for nonlinear dimensionality reduction[J]. Science, 2000, 290(5500): 2319-2323.

[20]" WANG Y, SUN Y B, LIU Z W, et al. Dynamic graph CNN for learning on point clouds[J]. ACM Transactions on Graphics, 2019, 38(5): 146.

[21]" HALCROW J, MOSOI A, RUTH S, et al. Grale: Designing networks for graph learning[C]//Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery amp; Data Mining. CA, USA: ACM, 2020: 2523-2532.

[22]" ZHANG J N, SHI X J, XIE J Y, et al. GaAN: Gated attention networks for learning on large and spatiotemporal graphs[C]//Proceedings of the 34th Conference on Uncertainty in Artificial Intelligence. Monterey, California, USA:AUAI, 2018:339-349.

[23]" SUHAIL M, SIGAL L. Mixture-kernel graph attention network for situation recognition[C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV). Seoul, Korea (South): IEEE, 2019: 10362-10371.

[24]" ZHU H, LIN Y K, LIU Z Y, et al. Graph neural networks with generated parameters for relation extraction[C]//Proceeding of the 57th Conference of the Association for Computational Linguistics. Florence, Italy: Association for Computational Linguistics, 2019:1331-1339.

[25]" 楊潔祎, 董一鴻,錢江波. 基于圖神經(jīng)網(wǎng)絡(luò)的小樣本學(xué)習(xí)方法研究進展[J]. 計算機研究與發(fā)展,2024,61(4):856-876.

YANG J Y, DONG Y H, QIAN J B. Research progress of few-shot learning methods based on graph neural networks[J]. Journal of Computer Research and Development, 2024, 61(4): 856-876(in Chinese).

[26]" 劉杰, 尚學(xué)群, 宋凌云, 等. 圖神經(jīng)網(wǎng)絡(luò)在復(fù)雜圖挖掘上的研究進展[J]. 軟件學(xué)報, 2022, 33(10): 3582-3618.

LIU J, SHANG X Q, SONG L Y, et al. Progress of graph neural networks on complex graph mining[J]. Journal of Software, 2022, 33(10): 3582-3618(in Chinese).

[27]" LIM D, HOHNE F, LI X, et al. Large scale learning on non-homophilous graphs: New benchmarks and strong simple me-thods[C]//Proceedings of the 35th International Conference on Neural Information Processing" Systems. Beijing: MIT Press," 2021: 20887-20902.

[28]" 陳挺, 李國鵬, 王小梅. 基于t-SNE降維的科學(xué)基金資助項目可視化方法研究[J]. 數(shù)據(jù)分析與知識發(fā)現(xiàn), 2018, 2(8): 1-9.

CHEN T, LI G P, WANG X M. Visualizing appropriation of research funding with t-SNE algorithm[J]. Data Analysis and Knowledge Discovery, 2018, 2(8): 1-9(in Chinese).

本文引文格式:

張芳,單萬錦,王雯,等. 基于圖結(jié)構(gòu)增強的圖神經(jīng)網(wǎng)絡(luò)方法[J]. 天津工業(yè)大學(xué)學(xué)報,2024, 43(3): 58-65.

ZHANG F, SHAN W J, WANG W, et al. Graph neural network method based on graph structure enhancement[J]. Journal of" Tiangong University, 2024, 43(3): 58-65(in Chinese).

祁连县| 玉田县| 高阳县| 嫩江县| 镶黄旗| 永新县| 友谊县| 松桃| 博客| 大安市| 民勤县| 鹰潭市| 阿瓦提县| 五指山市| 庆云县| 宣化县| 台南市| 古交市| 仙居县| 砀山县| 凤凰县| 龙江县| 镇沅| 西和县| 五峰| 泌阳县| 台州市| 通河县| 清苑县| 西华县| 唐海县| 株洲县| 迁西县| 光山县| 达孜县| 内黄县| 皮山县| 阿城市| 临江市| 万年县| 白城市|