国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

融合遷移學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)的潛在因子模型

2022-06-23 09:17:28靜,宋
智能計算機與應(yīng)用 2022年6期
關(guān)鍵詞:正則維數(shù)神經(jīng)網(wǎng)絡(luò)

吳 靜,宋 燕

(1 上海理工大學(xué) 理學(xué)院,上海 200093;2 上海理工大學(xué) 光電信息與計算機工程學(xué)院,上海 200093)

0 引言

隨著信息時代的迅猛發(fā)展,數(shù)據(jù)呈現(xiàn)爆炸式增長且常以高維矩陣的形式被存儲。然而,由于天然限制、技術(shù)不足等原因使得高維稀疏矩陣普遍存在。并且當面臨這樣的大規(guī)模數(shù)據(jù)缺失的場景時,傳統(tǒng)潛在因子(Latent Factor,LF)模型的性能往往不盡如人意。

實際上,現(xiàn)實應(yīng)用中總是可以使用多種評分模式來描述兩兩實體之間的關(guān)系,并且不同評分模式之間存在一定的關(guān)聯(lián)性,即實體之間的關(guān)系并不會因為評分模式的改變而改變。也就是說,當某位用戶需要對商品進行評價時,如果該用戶在二分制評分模式下點擊了喜歡按鈕,那么在五分制評分模式中有很大概率會給出3~5 分這樣的高分。因此,基于不同評分模式之間的關(guān)聯(lián)性,可以通過遷移學(xué)習(xí)將輔助領(lǐng)域中的潛在信息遷移到目標領(lǐng)域,以此緩解其中的數(shù)據(jù)稀疏問題。

此外,時間效率逐漸成為評判模型性能好壞的原因之一?,F(xiàn)有的學(xué)習(xí)方法、如隨機梯度下降法等等,往往需要多次迭代達到模型收斂,從而造成模型訓(xùn)練效率低。

綜上,本文提出的TN-NNLF 模型主要貢獻如下:

(1)基于傳統(tǒng)的LF 模型,建立了一種新的融合遷移學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)的潛在因子模型。

(2)基于不同評分模式之間的關(guān)聯(lián)性,通過遷移學(xué)習(xí)來遷移不同評分模式之間的共享潛在信息,以便充分挖掘已知信息之間的關(guān)系。

(3)利用神經(jīng)網(wǎng)絡(luò)進行模型參數(shù)訓(xùn)練,減緩由于額外的評分領(lǐng)域的引入所造成的模型訓(xùn)練負擔。

(4)在2 個真實工業(yè)應(yīng)用數(shù)據(jù)集上的實驗結(jié)果表明,本文提出的TL-NNLF 模型能夠在保證滿意的預(yù)測精度的前提下大大加快了模型訓(xùn)練速度。

1 相關(guān)工作

1.1 遷移學(xué)習(xí)

與經(jīng)典的機器學(xué)習(xí)方法不同的是,遷移學(xué)習(xí)主要基于不同領(lǐng)域之間所存在的潛在聯(lián)系,能夠通過從相關(guān)的輔助領(lǐng)域中遷移共享的知識,以此來改進模型在目標領(lǐng)域中的學(xué)習(xí)效果。

具體地,基于遷移內(nèi)容的不同,可以將遷移學(xué)習(xí)分為以下3 種類型:

(1)基于實例的遷移,即從輔助領(lǐng)域中挑選出有助于目標領(lǐng)域?qū)W習(xí)的實例。

(2)基于特征的遷移學(xué)習(xí),即提取并遷移輔助領(lǐng)域和目標領(lǐng)域之間所共享的特征表示。

(3)基于模型的遷移學(xué)習(xí),又稱為基于共享參數(shù)的遷移,通過找到輔助領(lǐng)域與目標領(lǐng)域的空間模型的共享參數(shù)以達到遷移的目的。

1.2 自編碼神經(jīng)網(wǎng)絡(luò)

一個簡單的自編碼神經(jīng)網(wǎng)絡(luò)模型主要包含3 層結(jié)構(gòu):輸入層、隱藏層、輸出層。主要工作原理是:在隱藏層將輸入數(shù)據(jù)映射到維度更低的特征空間中以提取重要潛在信息,再對特征空間中所包含的信息進行重構(gòu)并作為輸出層數(shù)據(jù)。

一般情況下,通常使輸入層和輸出層樣本數(shù)據(jù)維度相同,從而可以更好地重構(gòu)原始數(shù)據(jù)。這里假設(shè)輸入層包含個樣本,,…,x,編碼層包含個神經(jīng)元,對應(yīng)的輸出層數(shù)據(jù)為,,…,y。研究中可利用歐式距離建立重構(gòu)誤差損失函數(shù),得到具體形式如下:

其中,表示輸入層樣本個數(shù)。

2 模型研究設(shè)計

2.1 TL-NNLF 模型

本文提出的模型考慮的場景是:基于五分制和二分制這2 種不同的評分模式來描述相同項目集合中兩兩實體之間的關(guān)系。并且將五分制評分模式領(lǐng)域作為目標領(lǐng)域,二分制評分模式領(lǐng)域作為輔助領(lǐng)域。

圖1 TL-NNLF 模型結(jié)構(gòu)圖Fig.1 Structure of an TL-NNLF model

首先進行目標函數(shù)的構(gòu)造,為了避免模型訓(xùn)練過程中出現(xiàn)過擬合的情況而引入正則化項,得到具體形式為:

其中,xy分別表示目標矩陣,輔助矩陣中的元素;u表示共享因子矩陣的第行元素;v,w分別表示第層神經(jīng)網(wǎng)絡(luò)中因子矩陣,的第行元素; λ,λλ分別表示正則化系數(shù)。

2.2 基于神經(jīng)網(wǎng)絡(luò)進行參數(shù)訓(xùn)練

根據(jù)圖1,若假設(shè)TL-NNLF 模型中包含層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),則可得到模型訓(xùn)練過程如下:

(1)當1、即模型為單層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)時。首先訓(xùn)練輔助矩陣,將矩陣的每一行作為輸入數(shù)據(jù),并依次訓(xùn)練因子矩陣和。其次將因子矩陣遷移到目標矩陣的訓(xùn)練過程中,此時將矩陣的每一行作為輸入數(shù)據(jù),并訓(xùn)練因子矩陣。

(2)當≥2、即模型包含多層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)時。其第一層訓(xùn)練過程和單層神經(jīng)網(wǎng)絡(luò)模型類似;而從第二層開始,則是將上一層訓(xùn)練好的因子矩陣U作為下一層的輸入,這也有利于潛在信息的進一步提取。最后依次訓(xùn)練因子矩陣U,W

接下來,基于梯度法來求解對應(yīng)的因子矩陣U,V,W。若僅僅考慮單層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)、即當1 時的情況,研究可得到的具體求解步驟分述如下。

通常情況下需要使用反向傳播算法訓(xùn)練權(quán)重矩陣和偏置向量,然而該算法容易加重模型訓(xùn)練負擔。所以為了加快模型訓(xùn)練速度,本文使用隨機學(xué)習(xí)算法來確定權(quán)重矩陣以及偏置向量。

(2)第二步,求解因子矩陣。根據(jù)初始化后的因子矩陣,并利用梯度法求解目標函數(shù)。研究中首先求偏導(dǎo),可以得到:

其中,()表示矩陣每行的已知元素集合,()表示輔助矩陣中第列的已知值集合中的元素個數(shù)。

(3)第三步,更新因子矩陣。為了使其更好地近似輔助矩陣,需要進一步更新因子矩陣。

類似地,利用梯度法,首先求偏導(dǎo)得到:

其中,() 表示矩陣每一列的已知元素集合。

(4)第四步,求解因子矩陣。此時將目標矩陣作為輸入,并借助更新后的因子矩陣進行參數(shù)訓(xùn)練。類似地,可以得到因子矩陣的具體參數(shù)更新形式如下:

通過上述求解過程,可以得到當1 時的單層TL-NNLF 模型中各個因子矩陣中元素的具體訓(xùn)練規(guī)則。

其次考慮一般情況,也就是當≥2、即模型包含多層網(wǎng)絡(luò)結(jié)構(gòu)時的情況。從圖1 可以看出,和第一層神經(jīng)網(wǎng)絡(luò)模型不同的是,此時將上一層的因子矩陣、即U中的元素作為下一層輸入。也就是說,此時僅僅考慮潛在因子矩陣的信息提取。并且由于潛在因子的矩陣規(guī)模遠遠小于原始矩陣,這不僅減輕了模型負擔,同時也有助于進一步挖掘原始矩陣中所包含的潛在信息。

因此,當≥2 時,首先通過隨機學(xué)習(xí)算法初始化權(quán)重矩陣和偏置向量對上一步訓(xùn)練完成的因子矩陣U進行編碼,并得到因子矩陣U的具體更新規(guī)則如下:

其次,類似地,根據(jù)梯度法,得到因子矩陣W的更新公式:

并根據(jù)求解后的因子矩陣W,進一步更新因子矩陣U,得到如下更新公式:

最后,則通過將對應(yīng)神經(jīng)網(wǎng)絡(luò)層訓(xùn)練好的因子矩陣U進行知識遷移,得到因子矩陣V的具體更新公式如下:

2.3 算法設(shè)計和復(fù)雜度分析

基于以上參數(shù)更新規(guī)則,研發(fā)設(shè)計了TL-NNLF模型算法,算法的步驟流程可見如下。

1.3 評定標準 分別于治療前及治療4周后,采用Lysholm膝關(guān)節(jié)評分量表[5]對患者療效進行評定, 評定內(nèi)容包括跛行(5分)、下蹲(5分)、 需要支持(5分)、 腫脹(10分)、 交鎖(15分)、 上下樓梯(10分)、 不穩(wěn)定(25分)、 疼痛25分),滿分為100分。采用視覺模擬評分(Visual Analogue Scale,VAS)來評定患者膝關(guān)節(jié)疼痛[6]:分值范圍為0~10分,0分表示無痛,10分表示想象中的最劇烈疼痛。

不難發(fā)現(xiàn),該算法主要時間開銷來自于元素更新公式(12)~(14)中逆矩陣的計算。具體地,對于每個逆矩陣的求解需要花費的時間復(fù)雜度為(),其中表示因子空間的維度。也就是說,時間復(fù)雜度往往和呈線性關(guān)系,值越小、時間開銷越少。另外,神經(jīng)網(wǎng)絡(luò)層數(shù)的設(shè)置也十分重要,這是因為越大、表示層數(shù)越多,模型訓(xùn)練所需花費的時間也越多。

3 實驗結(jié)果與分析

3.1 評估指標

為了有效衡量提出的模型算法的精確度,采用均方根誤差()和平均絕對誤差()作為實驗評估指標,具體公式如下:

3.2 實驗數(shù)據(jù)集及預(yù)處理

本文選取了2 個真實工業(yè)應(yīng)用數(shù)據(jù)集作為實驗數(shù)據(jù)集來驗證提出模型的性能。對此數(shù)據(jù)集擬做闡釋分述如下。

(1)(MovieLens 1 M):該數(shù)據(jù)集由GroupLens 研究組根據(jù)MovieLens 網(wǎng)站收集的電影評分數(shù)據(jù),其中共包含6040 位用戶對3883 部電影的評分數(shù)據(jù),且評分區(qū)間為[1,5]。該數(shù)據(jù)集密度為4.26%。

(2)(Douban):該數(shù)據(jù)集來自中國最大的在線圖書、電影和音樂供應(yīng)商-豆瓣。其中包含了129490位用戶對58541 個項目的評分,評分區(qū)間為[1,5]。該數(shù)據(jù)集密度僅為0.22%。

考慮到目前沒有適合本文這種場景、即用二分制和五分制兩種不同的評分模式來描述相同項目集合中兩兩實體之間的關(guān)系,因此在實驗過程中參考文獻[5-7,21]中的方法處理實驗相關(guān)數(shù)據(jù)集。具體地,對數(shù)據(jù)集,將目前大規(guī)模稀疏的五分制評分矩陣作為目標矩陣,并通過公式(17)得到對應(yīng)的輔助矩陣:

3.3 模型參數(shù)設(shè)置

在進行對比實驗之前,需要事先通過參數(shù)靈敏度實驗。首先將正則化系數(shù)λ,λ,λ預(yù)設(shè)為λ=λ=λ=λ以降低訓(xùn)練成本。因此,可以明確實驗中需要訓(xùn)練的參數(shù)包括:正則化系數(shù)、潛在因子維度、神經(jīng)網(wǎng)絡(luò)層數(shù)。具體的參數(shù)訓(xùn)練結(jié)構(gòu)如圖2~圖5 所示。

圖2 正則化系數(shù)λ 對RMSE 的影響Fig.2 Influence of regularization coefficient λ on RMSE

圖3 潛在因子維數(shù)f 對RMSE 的影響Fig.3 Influence of Latent Factor dimension f on RMSE

圖4 不同潛在因子維數(shù)f 的時間花費Fig.4 Time costs with different Latent Factor dimension f

圖5 不同神經(jīng)網(wǎng)絡(luò)層數(shù)n 的時間花費Fig.5 Time costs with different layers of neural networks

圖2 展示了當潛在因子維數(shù)40 時,不同神經(jīng)網(wǎng)絡(luò)層數(shù)下正則化系數(shù)對模型的影響??梢园l(fā)現(xiàn),正則化參數(shù)的最優(yōu)值隨數(shù)據(jù)集的變化而變化,并且正則化參數(shù)的最優(yōu)值還會受到神經(jīng)網(wǎng)絡(luò)層數(shù)的影響。具體地從圖2(a)中可以發(fā)現(xiàn),在數(shù)據(jù)集中,當正則化參數(shù)的值為0.001,此時若神經(jīng)網(wǎng)絡(luò)層數(shù)1 時有最小值為0.1412,而當5 和11 時,最小值分別為0.1280和0.1223。

圖3 展示了當正則化系數(shù)=0001 時,不同神經(jīng)網(wǎng)絡(luò)層數(shù)下潛在因子維數(shù)對模型的影響。類似地可以發(fā)現(xiàn),潛在因子維數(shù)會隨著神經(jīng)網(wǎng)絡(luò)層數(shù)的變化而變化。具體地從圖3(a)中可以發(fā)現(xiàn),在數(shù)據(jù)集中,若潛在因子維數(shù)=40,此時當神經(jīng)網(wǎng)絡(luò)層數(shù)1 時有最小值為0.1262,而當5 和11 時,最小值則分別為0.1253 和0.1054。

另外,由于時間效率也是判斷模型性能好壞的關(guān)鍵因素,因此還記錄了不同潛在因子維數(shù)和神經(jīng)網(wǎng)絡(luò)層數(shù)下的時間花銷,具體結(jié)果如圖4、圖5所示。

從圖4(a)、圖4(b)中發(fā)現(xiàn),在數(shù)據(jù)集上,當潛在因子維數(shù)10 時、模型訓(xùn)練時間僅為1634 min,而當160 時、模型訓(xùn)練過程則需要花費37250 min。盡管潛在因子維數(shù)越大,模型的特征表示能力越強,但同時也大大增加了實驗負擔。類似地,從圖5(a)、圖5(b)中可以發(fā)現(xiàn),無論是在數(shù)據(jù)集、還是中,模型訓(xùn)練時間都會隨著神經(jīng)網(wǎng)絡(luò)層數(shù)的增加而增加。

綜上所述,本次研究中設(shè)置TL-NNLF 模型中參數(shù)為:在中,正則化系數(shù)0001,潛在因子維數(shù)40,神經(jīng)網(wǎng)絡(luò)層數(shù)5;在中,正則化系數(shù)00008,潛在因子維度40,神經(jīng)網(wǎng)絡(luò)層數(shù)5。

3.4 實驗結(jié)果分析

最后為了評估本文所提出模型的有效性,共選擇了3 種經(jīng)典的LF 模型與本文提出模型進行對比實驗,具體如下:

(1):NLF。NLF 是一種目前應(yīng)用較廣泛的基于單一目標領(lǐng)域的非負LF 模型。

(2):CMF。CMF 是一種跨領(lǐng)域的聯(lián)合矩陣分解。

(3):MLF。MLF 是一種基于隨機算法的LF 模型。

(4):TL-NNLF。TL-NNLF 是本文提出的一種新穎的LF 模型。

接著根據(jù)上述參數(shù)設(shè)置對模型進行對比實驗,最終結(jié)果見表1。表1 中,每個括號中的值表示該模型在某一指標下的排序值。這里,僅考慮了本文提出模型在目標領(lǐng)域中的預(yù)測誤差和訓(xùn)練時間,值得注意的是,該模型同樣適用于輔助領(lǐng)域。

表1 模型M1~M4 在D1~D2 的最小預(yù)測誤差和相應(yīng)時間開銷Tab.1 Lowest prediction error and the corresponding time costs achieved by models M1~M4 on D1~D2

研究中遵循的具體排序規(guī)則如下:首先將4 個模型基于評價指標和花費時間值的大小分別進行排序,其中1 表示最好,4 表示最差;其次分別計算每個模型的平均排名,例如在數(shù)據(jù)集中,模型的每項排名分別為:3、3、4、3,所以模型的整體平均排名為(3+3+4+3)/4=3.25。此處的平均排名值越低,表示模型整體性能越好。

至此,由表1 中可以得到以下結(jié)論:

(1)模型在2 個真實數(shù)據(jù)集上關(guān)于評價指標和的整體表現(xiàn)明顯優(yōu)于模型和。具體地,在數(shù)據(jù)集中,模型和分別取得最小值為01245 和01267,而引入了遷移學(xué)習(xí)的所取得的最小值為01121,較和相比分別提升了124,126。類似地,基于評價指標,模型的表現(xiàn)也有明顯提升。

(2)模型在模型訓(xùn)練時間上的花費遠遠小于模型。具體地,在數(shù)據(jù)集中,模型取得的最小值為01083,而其在訓(xùn)練過程中需要花費415662 min;盡管模型取得的最小值為01121,較相比降低了038,而模型訓(xùn)練僅花費1563.79 min。

(3)模型的整體排名都優(yōu)于其他傳統(tǒng)的LF模型。也就是說,模型能夠在保證模型預(yù)測精度的前提下大大減少了模型訓(xùn)練時間。因此,綜合考慮模型預(yù)測精度和訓(xùn)練花費時間這2 個方面,模型性能優(yōu)于其他經(jīng)典的LF 模型。

4 結(jié)束語

如何有效緩解數(shù)據(jù)稀疏問題逐漸成為一大研究熱點。本文綜合考慮模型預(yù)測精度和訓(xùn)練花費時間兩個方面,一方面基于不同模式下評分數(shù)據(jù)之間的關(guān)聯(lián)性,引入遷移學(xué)習(xí)將二分制評分數(shù)據(jù)的潛在知識遷移到五分制評分領(lǐng)域中以緩解其存在數(shù)據(jù)稀疏問題;另一方面,利用神經(jīng)網(wǎng)絡(luò)進行模型訓(xùn)練以加快模型訓(xùn)練速度,并且通過合理地設(shè)置實驗參數(shù),能夠在保證較好的預(yù)測精度的前提下大大縮短了模型訓(xùn)練所花費的時間。最終在2 個真實數(shù)據(jù)集上的實驗結(jié)果表明,本文提出的模型整體性能優(yōu)于其他傳統(tǒng)LF 模型。最后,如何進一步充分挖掘不同評分模式之間的公共知識將成為未來的重要研究方向。

猜你喜歡
正則維數(shù)神經(jīng)網(wǎng)絡(luò)
β-變換中一致丟番圖逼近問題的維數(shù)理論
一類齊次Moran集的上盒維數(shù)
神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
電子制作(2019年19期)2019-11-23 08:42:00
剩余有限Minimax可解群的4階正則自同構(gòu)
類似于VNL環(huán)的環(huán)
關(guān)于齊次Moran集的packing維數(shù)結(jié)果
涉及相變問題Julia集的Hausdorff維數(shù)
基于神經(jīng)網(wǎng)絡(luò)的拉矯機控制模型建立
重型機械(2016年1期)2016-03-01 03:42:04
復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
基于支持向量機回歸和RBF神經(jīng)網(wǎng)絡(luò)的PID整定
津南区| 当阳市| 澎湖县| 宁河县| 南投县| 宣恩县| 镶黄旗| 尼勒克县| 昂仁县| 即墨市| 金堂县| 兖州市| 元氏县| 当涂县| 舟曲县| 邵武市| 崇州市| 修武县| 古丈县| 龙陵县| 平昌县| 平舆县| 苍山县| 巨鹿县| 昌吉市| 建水县| 海原县| 左云县| 天水市| 荥经县| 林口县| 平定县| 大竹县| 屯留县| 安陆市| 天长市| 永靖县| 开化县| 五莲县| 福建省| 江津市|