桑江徽,姜海燕
南京農(nóng)業(yè)大學 信息科技學院,南京210095
多標記數(shù)據(jù)普遍存在于現(xiàn)實世界中并得到了廣泛的研究,如面部表情識別、情感分析等。多標記機器學習的巨大成功通常取決于大量有標記信息的訓練樣本。但是,具有多標記信息的樣本不易獲得,且人工標注工作費時費力且精度難以得到保障,因此多標記遷移學習應運而生。多標記遷移學習常用于解決多標記樣本稀缺的問題[1-3],它放寬了經(jīng)典機器學習關(guān)于訓練樣本和測試樣本必須服從獨立同分布這一重要的基本假設(shè)[4]。多標記遷移學習的核心思路是通過縮小領(lǐng)域之間數(shù)據(jù)的分布差異從而實現(xiàn)數(shù)據(jù)復用。數(shù)據(jù)分布由邊際分布和條件分布組成,其中邊際分布反映了領(lǐng)域之間數(shù)據(jù)整體相似性,縮小領(lǐng)域間的邊際分布差異能夠使得源領(lǐng)域的整體特征更加有效地訓練目標領(lǐng)域模型(如圖1(a)→(b));而條件分布則反映了領(lǐng)域間每種類別的差異性,縮小條件分布差異可進一步刻劃領(lǐng)域間的特征信息(如圖1(a)→(c))。
圖1 不同領(lǐng)域樣本數(shù)據(jù)的分布
現(xiàn)有的多標記學習方法在縮小領(lǐng)域間分布差異時更多地考慮數(shù)據(jù)的邊際分布[5-8]。例如,Multi-Label Transfer Learning with Sparse Representation(S-MLTL)[5]為了解決多標記圖像樣本稀缺導致的模型訓練困難,首次提出了多標記遷移學習,使用多標記稀疏編碼將數(shù)據(jù)嵌入特征子空間中,使得共享標簽的樣本在子空間中彼此接近,子空間中的新特征表示更具有判別力。但是,S-MLTL僅僅考慮了多標記之間的關(guān)系,并沒有縮小領(lǐng)域間的邊際分布,因此在子空間中源領(lǐng)域特征和目標領(lǐng)域特征仍然存在較大的差異。針對目標領(lǐng)域與源領(lǐng)域整體差異性過大帶來的適配難題,基于最大均值差異的多標記遷移學習算法(Multi-label Transfer Learning via Maximum Mean Discrepancy,M-MLTL)[6]在子空間中引入了最大均值差異(Maximum Mean Discrepancy,MMD),有效地縮小領(lǐng)域間的邊際分布差異,提升分類精度。但是,M-MLTL 僅僅考慮了數(shù)據(jù)的邊際分布,忽略了條件分布,在領(lǐng)域間整體差異較大時能夠取得良好效果,但難以適用于領(lǐng)域間整體差異較小、類別差異較大的情況。近些年,多標記遷移學習同樣解決了深度學習中樣本稀缺的問題[7-8],Zhuang[7]提出了多標記深度遷移網(wǎng)絡(Transfer learning Network,TNet),利用卷積層提取目標領(lǐng)域樣本的深度特征,輔助源領(lǐng)域網(wǎng)絡模型的構(gòu)建,但TNet 在多標記遷移時也僅考慮了數(shù)據(jù)的邊際概率分布,忽略了條件概率分布。
現(xiàn)有的多標記學習在縮小領(lǐng)域間分布差異時僅僅考慮了數(shù)據(jù)的邊際分布,當源領(lǐng)域和目標領(lǐng)域整體存在較大差異時,縮小邊際分布差異能夠有效地提升算法性能;但是當目標領(lǐng)域和源領(lǐng)域整體較為相似時,邊際分布對數(shù)據(jù)的抽象擬合能力不足,無法充分反映跨領(lǐng)域數(shù)據(jù)的真實特性,導致算法在此類情況下效果不佳,即現(xiàn)有算法的泛化性能不足。
當目標領(lǐng)域和源領(lǐng)域整體較為相似時,多標記遷移學習應該關(guān)注跨領(lǐng)域數(shù)據(jù)的條件分布,度量條件分布可以進一步縮小領(lǐng)域間的差異性。針對現(xiàn)有算法忽略數(shù)據(jù)的條件分布而導致的泛化能力較差的問題,本文提出一種基于聯(lián)合分布的多標記遷移算法(Multi-label Transfer Learning based on Joint Distribution Adaptation,JMLTL)。J-MLTL同時度量領(lǐng)域間的邊際分布和條件分布,當數(shù)據(jù)整體差異較大時,邊際分布會發(fā)揮較大作用,當數(shù)據(jù)整體相似時,條件分布會發(fā)揮較大作用。J-MLTL利用非負矩陣三分解(Non-negative Matrix Three Factorization,NMTF)將源領(lǐng)域和目標領(lǐng)域特征映射到子空間,在子空間中根據(jù)樣本全局結(jié)構(gòu)特征學習多個標記的“重要性”信息,并計算每個類別對應的條件分布的權(quán)重系數(shù),“重要性”較大的類別被分配較大的權(quán)值,反之被分配較小的權(quán)值,通過縮小條件分布差異來進一步縮小領(lǐng)域間的差異,提升算法在領(lǐng)域間整體相似的情況下遷移效果。此外,J-MLTL 利用超圖(Hypergraph)來描述多標記數(shù)據(jù)的幾何結(jié)構(gòu)信息,Hypergraph的超邊將具有相同標記的樣本進行連接,加強了數(shù)據(jù)在流形空間中的聯(lián)系,有利于強化遷移效果。
為方便表述,表1中給出了本文常使的符號及相關(guān)含義。
表1 本文中常用符號及描述
J-MLTL 旨在通過邊際分布P 和條件分布Q 來縮小領(lǐng)域間差異。當源領(lǐng)域數(shù)據(jù)X(s)和目標領(lǐng)域X(t)整體之間存在很大差異時,縮小邊際分布Ps和Pt之間的差異有利于提升遷移效果。當數(shù)據(jù)集整體相似時,此時縮小Qs和Qt條件分布差異更為重要。值得注意的是,相比于單標記數(shù)據(jù),多標記數(shù)據(jù)包含更加豐富的類別信息。鑒于這種現(xiàn)象,本文提出一種基于多標記數(shù)據(jù)的聯(lián)合分布
源領(lǐng)域X(s)和目標領(lǐng)域X(t)的條件分布的MMD距離被定義為:
值得注意的是,多標記數(shù)據(jù)同時含有多個標記,但是多個標記的所含信息的重要程度不同。在圖2 所示多標記遷移時,“山”“海”“天空”“沙灘”標記更能表達圖片內(nèi)容,而“建筑”和“人”對圖片內(nèi)容貢獻較小,此時前者標記應該被賦予更大的權(quán)重,后者標記應被賦予較小的權(quán)重。
圖2 遷移學習中的多標記圖像
本文根據(jù)跨領(lǐng)域樣本特征的全局結(jié)構(gòu)學習標記重要性,再根據(jù)標記重要性學習θ。針對第i個樣本xi,算法構(gòu)造d×(n-1) 維的全局特征矩陣Xˉi=[x1,x2,…,xi-1,xi+1,…,xn]。在典型稀疏表示下,xi的編碼向量αi可通過求解如下優(yōu)化問題獲得:
稀疏表示的權(quán)重矩陣Zn×n可由編碼向量αi和零對角元素構(gòu)造。假設(shè)特征空間中的結(jié)構(gòu)關(guān)系也在標記空間中存在,那么利用Z中編碼的結(jié)構(gòu)信息來生成豐富的標簽信息矩陣{β1},β2,…,βi,…,βn,則樣本xi對應的標記信息向量βi可通過如下優(yōu)化問題獲得:
ψ1和ψ2是βi的取值范圍約束。顯然,式(6)是一個標準的二次規(guī)劃(Quadratic Programming,QP)問題,可以通過已有的QP 工具箱進行求解。在求解βi后,θ由式(7)可得:
其中,ξ(·)是標記信息到類別的映射關(guān)系。
由文獻[11]可知,數(shù)據(jù)的統(tǒng)計信息和幾何結(jié)構(gòu)通常從不同方面刻劃了數(shù)據(jù)分布,因而在描述數(shù)據(jù)特性方面具有相互強化的效果。算法使用MMD 從統(tǒng)計信息方面刻劃了數(shù)據(jù)分布,同時利用超圖[12]從幾何結(jié)構(gòu)對數(shù)據(jù)進行描述,提高樣本間幾何關(guān)系表達的效率和可靠性,同時保持領(lǐng)域內(nèi)幾何流形結(jié)構(gòu)不受領(lǐng)域外知識結(jié)構(gòu)的影響,提高特征結(jié)構(gòu)的遷移能力,有效地加強了標記之間的聯(lián)系,有利于強化遷移效果。
超圖拉普拉斯學習有若干種方法,如:團體擴展方法、星型擴展方法、波拉拉普拉斯等。本文采用文獻[13]提出的歸一化超圖拉普拉斯算子:
遷移學習的一個主要方法就是基于特征映射的方法,將各個領(lǐng)域的數(shù)據(jù)從高維特征空間映射到低維特征空間,在該低維空間下,源領(lǐng)域和目標領(lǐng)域的數(shù)據(jù)擁有相同的分布,這樣就可以利用低維空間表示的有標簽數(shù)據(jù)樣本訓練分類器。
受到數(shù)據(jù)自我表示的啟發(fā),基于字典學習和矩陣分解的方法有利于揭示原始數(shù)據(jù)的全局結(jié)構(gòu)。J-MLTL對跨領(lǐng)域特征X=[X(s),X(t)]進行非負矩陣三分解,并將原始數(shù)據(jù)X視為字典。因此,J-MLTL的目標函數(shù)f如下:
為了強化特征子空間中多標記樣本之間的空間結(jié)構(gòu),進一步強化遷移效果,算法將超圖正則項加入目標函數(shù)中,通過流形學習保持領(lǐng)域內(nèi)幾何結(jié)構(gòu)信息不受領(lǐng)域外知識結(jié)構(gòu)破壞。超圖的超邊連接了具有相同標記的多個樣本,保證了標記間信息不損失。超圖正則項可以形式化為:
其中,η是用于控制超圖正則項的非負系數(shù)。
式(13)可以利用交替迭代法進行求解,具體求解過程如下:
步驟1固定U求解W。f是關(guān)于W的函數(shù),其余項可視為常數(shù),則目標函數(shù)f可簡單表示為:
所有的矩陣變量都是采用正態(tài)分布隨機數(shù)矩陣初始化,然后利用交替迭代法來求局部最優(yōu)解。經(jīng)上述分析,基于聯(lián)合分布的多標記遷移學習算法詳細步驟如下:
輸入:原始數(shù)據(jù)矩陣X,正則項參數(shù)λ、η,潛在特征維數(shù)k
輸出:子空間特征矩陣U
步驟11.根據(jù)等式(5)~(7)計算權(quán)重系數(shù)μ
2.根據(jù)等式(10)、(11)計算MMD矩陣M
3.初始化矩陣W和U
步驟2求解優(yōu)化問題(13)
Repeat
1.根據(jù)式(14)、(15)并利用curvilinear 搜索方法
更新W
2.根據(jù)式(16)并利用Bartels-Stewart算法更新UUntil 符合停止標準
本章主要介紹用于實驗研究的基準數(shù)據(jù)集、對比算法和評價指標。
本研究采用已經(jīng)被廣泛認可的圖像數(shù)據(jù)集Corel5k、ESPGame和Iaprtc12。表2給出了3個數(shù)據(jù)集的統(tǒng)計信息。
表2 多標記數(shù)據(jù)集的統(tǒng)計信息(均值/最大值)
(1)Corel5k 數(shù)據(jù)集是Corel 公司收集整理的5 000幅圖片,可以用于科學圖像實驗:分類、檢索等。它包含了5 000 張圖像和260 個類別關(guān)鍵字,每張圖像被手工標注1~5個關(guān)鍵字。
(2)ESPGame原本是一款在線游戲,這款有趣的游戲鼓勵眾多玩家參與數(shù)據(jù)標記工作。不同玩家對圖片進行單詞標記操作,如果單詞名稱相同,則他們可以獲得獎勵積分。ESPGame 數(shù)據(jù)集包含的圖像比Corel5k更多樣,除了照片還包括商標、涂鴉等類型的圖像。
(3)Iaprtc12 基準測試的圖像采集包括從世界各地拍攝的20 000 張自然圖像,包括各種橫截面的靜止圖像。這包括不同運動和動作的照片,人物、動物、城市、風景和當代生活的許多其他方面的照片。
本文對上述多標記圖片提取SIFT特征。SIFT是圖像處理領(lǐng)域中經(jīng)常使用的局部特征描述方法,基于物體上某些局部外觀的興趣點進行特征提取。SIFT特征具有比例不變性,與圖像的大小和旋轉(zhuǎn)無關(guān),同時SIFT對光線、噪聲和微視角變化也具有很高的魯棒性。此外,SIFT 提取特征速率較高,適用于海量數(shù)據(jù)庫中的快速準確匹配。
實驗設(shè)置多標記為“mountain”“sky”“sun”“water”,源領(lǐng)域樣本數(shù)量設(shè)置為800,目標領(lǐng)域樣本數(shù)量設(shè)置為200。將上述3個基準數(shù)據(jù)集分別交替作為源領(lǐng)域和目標領(lǐng)域,最終構(gòu)造6個多標記遷移學習數(shù)據(jù)集“Corel5k→ESPGame”“ESPGame→Corel5k”“ESPGame→Iaprtc12”“Iaprtc12→ESPGame”“Corel5k→Iaprtc12”和“Iaprtc12→Corel5k”。數(shù)據(jù)集的信息如表3所示。
表3 本文構(gòu)造的數(shù)據(jù)集信息
本文實驗使用以下3 種對比算法:S-MLTL[5]、MMLTL[6]、TNet[7]。
(1)TNet(Transfer learning Network)是無監(jiān)督深度遷移學習算法,通過卷積層提取源領(lǐng)域和目標領(lǐng)域圖片的深度特征,并利用MK-MMD度量領(lǐng)域間深度特征的邊際分布差異。
(2)M-MLTL(Multi-label Transfer Learning via Maximum Mean Discrepancy)使用子空間學習,分解“特征-標簽”矩陣G來獲取源域和目標域的新特征表示。此外,M-MLTL使用MMD來度量并最小化子空間中的新特征UXs和UXt的差異。最后,M-MLTL 使用新特征UXs訓練RankSVM 并預測特征UXt的標記。此算法僅考慮邊際分布而忽略了條件分布,同樣忽略了多個標記之間的關(guān)系。
(3)S-MLTL(Multi-Label Transfer Learning with Sparse Representation)考慮了多個標簽之間的內(nèi)在關(guān)系,并將Hypergraph用于空間流形約束以獲取稀疏表示。該算法通過稀疏線性嵌入將目標數(shù)據(jù)映射到新的特征空間。S-MLTL 使用源領(lǐng)域的稀疏表征來訓練RankSVM并預測目標域樣本。與上述方法不同的是,S-MLTL考慮多個標簽之間的關(guān)系,卻沒有考慮數(shù)據(jù)分布。
實驗采用Ranking Support Vector Machine(RankSVM)[16]作為分類器,RankSVM 是一個針對多標記數(shù)據(jù)的分類器,利用L個線性分類器R={(Ri,bi)|1<j <L}來構(gòu)造超平面。其中,第i個線性分類器ri采用empirical ranking loss來判斷第i個標記yi。
本實驗使用廣泛使用的4種基于樣本的多標記評價指標和一種基于標記的多標記評價指標[15]:Hamming Loss、Ranking Loss、One-Error、Coverage、Average Precision。前4 個評價指標的值越小,性能越優(yōu);最后1 個評價指標的值越大,性能越優(yōu)。實驗運行LC-MLTL 與上述的對比算法總共3次,考察各個評價指標的均值。
(1)Hamming Loss
衡量在測試集上遍歷到樣本所有相關(guān)標記的平均查找深度。
(5)Average Precision
考察在樣本的標記排序序列中,排在該樣本相關(guān)標記之前的標記仍為相關(guān)標記的比例。
實驗在上述多標記數(shù)據(jù)集上運行3次J-MLTL和對比算法,并在下列實驗中顯示評價指標的均值。實驗主要分析各個算法的精度對比、分布類型對遷移的影響、標記關(guān)系對遷移的影響以及算法耗時分析。
本節(jié)實驗通過對比J-MLTL 算法和其他算法在6個遷移數(shù)據(jù)集上的表現(xiàn)來考察算法的分類性能。為了直觀地觀察結(jié)果,本實驗計算5 個評價指標在6 個遷移數(shù)據(jù)集上的均值,結(jié)果如表4 所示,較優(yōu)的結(jié)果被加粗表示。
表4 各算法的分類結(jié)果(均值)
觀察Ranking Loss 和Coverage 指標,J-MLTL 與對比算法有著明顯的優(yōu)勢,J-MLTL 出現(xiàn)更少的標記排序錯誤同時查找深度較小,說明J-MLTL 在多標記關(guān)系的處理上優(yōu)于其他算法。因為Hypergraph 利用超邊將相同標記的樣本連接起來,加強了遷移過程中具有相同標記的樣本之間的聯(lián)系。J-MLTL 的Average Precision 分別高于TNet約4.5%、M-MLTL約4%、S-MLTL約9%,因為J-MLTL 在遷移時考慮了多標記數(shù)據(jù)的條件分布,相比于僅考慮邊際分布的M-MLTL 和TNet,本文所提算法更適用于源領(lǐng)域和目標領(lǐng)域整體相似的情況。值得注意的是,J-MLTL的One-Error指標不佳說明在分類時部分樣本的預測標記不在真實標記集中,這由于錯誤分類而導致的。因為特征子空間是通過原始特征的非負矩陣三分解生成的,新特征表示能力還有待提高。接下來的研究工作是加強子空間中特征的表示能力,減少錯誤預測標記出現(xiàn)的次數(shù)。
M-MLTL 普遍優(yōu)于S-MLTL 說明邊際分布能夠反映領(lǐng)域間的整體差異,縮小邊際分布能夠有效地實現(xiàn)源領(lǐng)域數(shù)據(jù)在目標領(lǐng)域的復用。J-MLTL的各個指標均優(yōu)于M-MLTL,而M-MLTL僅僅通過邊際分布縮小領(lǐng)域間分布差異,因為本文所提出的多標記數(shù)據(jù)的聯(lián)合分布適配起到了決定性因素,它能夠根據(jù)多標記的“重要性”調(diào)整不同類別的條件分布的權(quán)重系數(shù),使得源領(lǐng)域數(shù)據(jù)更加接近目標領(lǐng)域,進一步縮小不同領(lǐng)域在特征子空間的分布差異,提升遷移效果。
為了討論本文所提的聯(lián)合分布對遷移效果的影響,本實驗設(shè)置了J-MLTL 與三組對比算法進行驗證:J-MLTL1、J-MLTL2、J-MLTL3。其中,J-MLTL1目標函數(shù)的框架與本文所提出的J-MLTL 完全一致,但只考慮了數(shù)據(jù)的邊際分布差異,即使用了經(jīng)典MMD 進行度量;與之類似,J-MLTL2目標函數(shù)的框架也與J-MLTL 完全相同,使用了文獻[17]所提出方法,同時考慮了數(shù)據(jù)的邊際分布和條件分布,且兩者權(quán)重固定1∶1,但是并沒有考慮多標記的“重要性”,即θc=1;J-MLTL3將多標記數(shù)據(jù)看作一個“整體”,使用了文獻[10]所提出的動態(tài)分布適配的方法,該方法動態(tài)調(diào)整邊際分布和條件分布的相對重要性,但沒有考慮多標記數(shù)據(jù)特性,忽略了標記關(guān)系信息。本實驗僅考察上述算法在6 個遷移數(shù)據(jù)集上的各個評價指標的均值,結(jié)果如表5所示。
表5 不同的分布度量方法對遷移的影響
總體來看,J-MLTL 在各個評價指標上均取得了最佳成績,體現(xiàn)了本文提出的多標記數(shù)據(jù)的聯(lián)合分布適配的有效性。因為在不同圖片樣本中,每個類別標記所含的信息不同,挖掘出能夠明顯表達圖片內(nèi)容的“重要”標記將會對遷移起到積極作用。當源領(lǐng)域與目標領(lǐng)域整體差異較大時,算法應該更加注重縮小領(lǐng)域間的邊際分布差異,而當領(lǐng)域間整體差異較小時,算法則應該關(guān)注條件分布差異。
從表5 可知,J-MLTL2>J-MLTL1,說明文獻[13]所提出的邊際分布與條件分布的權(quán)重1∶1 的聯(lián)合分布度量方法優(yōu)于僅考慮邊際分布的度量方法,盡管兩者的泛化能力均不足,但加入了條件分布的度量方法更具有優(yōu)勢。J-MLTL3的各個指標均最低,雖然J-MLTL3動態(tài)地調(diào)整了條件分布與邊際分布之間的相對重要性,但是它并沒有考慮到多標記數(shù)據(jù)的特性,簡單地將相同的多個標記看成一類“整體”會出現(xiàn)標記組合爆炸問題,導致目標領(lǐng)域和源領(lǐng)域樣本的分布不平衡,每個類別的樣本數(shù)量減少,最終會造成模型的學習困難。J-MLTL2與JMLTL的實驗結(jié)果相近,因為在此實驗中源領(lǐng)域和目標領(lǐng)域的各個類別的θc值在1左右浮動,并未起到較大作用,但是從整體來看,J-MLTL的評價指標略優(yōu)說明強化重要、抑制非重要的標記能夠提升遷移效果。
超圖對相同標記的樣本進行連接,加強了相同標記樣本在幾何空間中的聯(lián)系。從幾何結(jié)構(gòu)對數(shù)據(jù)進行描述,提高樣本間幾何關(guān)系表達的效率和可靠性,同時保持領(lǐng)域內(nèi)幾何流形結(jié)構(gòu)不受領(lǐng)域外知識結(jié)構(gòu)的影響,提高特征結(jié)構(gòu)的遷移能力。為了驗證超圖在遷移學習中起到的作用,本節(jié)實驗設(shè)計了一組有無超圖的對比算法(即J-MLTL、J-MLTL4)。其中,J-MLTL4在J-MLTL的基礎(chǔ)上將超圖正則項系數(shù)η置為0,使得超圖在遷移過程中不起作用。實驗結(jié)果如表6所示。
表6 超圖對分類精度的影響
由表6 可知,J-MLTL 的Hamming Loss、Ranking Loss、One-Error、Coverage、Average Precision 評價指標分別優(yōu)于J-MLTL4大約6%、8%、10%、26%、7%,說明算法在錯誤分類、錯誤標記排序和標記查找深度方面均有較大的提升。因為當原始特征被映射到子空間中,數(shù)據(jù)的幾何結(jié)構(gòu)信息會發(fā)生改變,超圖能夠?qū)⑾嗤瑯擞洏颖驹谧涌臻g中連接,加強樣本間的空間結(jié)構(gòu)信息。J-MLTL4在學習時僅考慮了數(shù)據(jù)的統(tǒng)計信息,所以遷移效果不佳。J-MLTL 在構(gòu)造子空間時,同時考慮了統(tǒng)計信息和幾何結(jié)構(gòu),兩者在描述數(shù)據(jù)特性方面具有相互強化的效果,最終的子空間特征U具有較好的表示能力。
算法的運行速度也是一個評價算法性能的指標。為了驗證算法在運行速度上的表現(xiàn),本節(jié)實驗記錄J-MLTL與對比算法(M-MLTL、TNet、S-MLTL、J-MLTL4)的運行時間。實驗環(huán)境為CPU:Intel Xeon E5-2670 V3,內(nèi)存:512 GB,GPU:NVIDIA GeForce GTX TITAN V,其中TNet使用了GPU加速。實驗結(jié)果如表7所示。
表7 算法的耗時統(tǒng)計
由表7可知,S-MLTL算法運行一次所需時間最短,僅為8.17 s;TNet由于是深度多標記遷移學習,耗時最長;而本文提出的J-MLTL運行一次需要時間5 359.03 s,相比于傳統(tǒng)的遷移學習方法,J-MLTL是耗時最多的算法,由此可知,J-MLTL提升精度的代價是大量計算。J-MLTL、J-MLTL4和M-MLTL耗時均較長,因為三者都是利用了矩陣分解技術(shù)進行子空間學習,并使用交替迭代計算方法優(yōu)化目標函數(shù),算法的耗時隨著迭代次數(shù)的增加而增加。
值得注意的是,J-MLTL4耗時約是M-MLTL的9倍,這說明計算類別“重要性”環(huán)節(jié)消耗了大量時間,θ的計算實質(zhì)上由兩個優(yōu)化問題構(gòu)成:稀疏表示和二次規(guī)劃問題。眾所周知,兩個優(yōu)化問題的求解均需要大量的計算。J-MLTL 耗時約是J-MLTL4的兩倍,說明超圖學習所用時間較多,超圖根據(jù)多標記將同類樣本進行連接,在加強數(shù)據(jù)幾何結(jié)構(gòu)的同時產(chǎn)生了巨大的計算量,耗時隨著樣本數(shù)量、標記數(shù)量的增加而增加,這是導致J-MLTL 運行速率較慢的另一個重要原因。因此,提升J-MLTL運行速率是一個重要研究點。
現(xiàn)有多標記遷移學習算法僅僅考慮了數(shù)據(jù)的邊際分布,導致其在目標領(lǐng)域和源領(lǐng)域整體相似的場景下無法適用。為了解決現(xiàn)有算法適用范圍受限的問題,本文提出了一種基于聯(lián)合分布的多標記遷移算法J-MLTL,同時從概率分布角度和幾何結(jié)構(gòu)角度對跨領(lǐng)域數(shù)據(jù)進行刻劃。J-MLTL 對原始特征進行非負矩陣三分解獲得子空間中的潛在特征表示,利用稀疏表示方法學習特征的全局結(jié)構(gòu)信息,并計算每種類別對應的條件分布的權(quán)重系數(shù),通過調(diào)整條件分布的權(quán)重系數(shù),使得源領(lǐng)域和目標領(lǐng)域數(shù)據(jù)的邊際分布和條件分布差異進一步縮小。在此基礎(chǔ)上,J-MLTL 考慮了多標記數(shù)據(jù)的幾何結(jié)構(gòu)信息,引入超圖學習對數(shù)據(jù)進行描述,加強了具有相同標記的樣本在流形空間的聯(lián)系,提升了遷移效果。
但是,J-MLTL 在擁有較高的遷移性能的同時仍然存在不足:過大的計算量導致算法耗時過長。類別權(quán)重θ的定量計算實質(zhì)上由兩個優(yōu)化問題構(gòu)成,此環(huán)節(jié)使用最小二乘法和二次規(guī)劃算法進行求解,由于本文使用了傳統(tǒng)的優(yōu)化方法,計算效率較低。此外,J-MLTL為了防止多個標記之間的信息損失,利用超圖的超邊將相同多標記的樣本進行連接,因為超圖學習的耗時較長,導致本算法在運行效率上低于現(xiàn)有算法。因此,下一步的研究重點是如何提升算法的運行速率。