0 引言
聚類是將數(shù)據(jù)集中的樣本根據(jù)相似性或特定特征進(jìn)行分組的過程,目的在于確保同一組內(nèi)樣本之間相似度較高,而不同組之間相似度較低。聚類算法主要分為以下兩類:一是基于機(jī)器學(xué)習(xí)的聚類方法,典型代表有K-Means(K均值算法)[1]和譜聚類[2-3]等;二是深度聚類算法,該類算法通過深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)特征進(jìn)行聚類,相較于傳統(tǒng)的機(jī)器學(xué)習(xí)聚類方法,能夠取得更好的聚類效果。Guo等[4]提出的深度嵌入聚類IDEC算法通過結(jié)合聚類損失和自編碼器重構(gòu)損失,有效優(yōu)化了聚類結(jié)果并保持了數(shù)據(jù)的局部結(jié)構(gòu)。隨后,Guo等[5]又提出了一種深度卷積嵌入聚類DCEC算法,利用卷積自編碼器聯(lián)合優(yōu)化重構(gòu)和聚類損失,有效提升了特征學(xué)習(xí)和聚類性能。然而,多數(shù)深度聚類算法需要迭代進(jìn)行表示學(xué)習(xí)和聚類,通過不斷優(yōu)化表示學(xué)習(xí)來提高聚類性能,這不僅增加了計(jì)算復(fù)雜度,而且還可能導(dǎo)致迭代過程中的誤差累積。為解決這些問題,基于對(duì)比學(xué)習(xí)的聚類方法應(yīng)運(yùn)而生。對(duì)比學(xué)習(xí)能夠自主學(xué)習(xí)樣本之間的相似性和差異性,從而獲得更優(yōu)的特征表示。將對(duì)比學(xué)習(xí)的優(yōu)勢與聚類任務(wù)相結(jié)合,基于對(duì)比學(xué)習(xí)的聚類算法已在聚類領(lǐng)域得到了廣泛應(yīng)用。Deng等[6]提出的層次對(duì)比選擇編碼HCSC框架,通過動(dòng)態(tài)更新層次原型并改進(jìn)對(duì)比學(xué)習(xí)配對(duì)選擇,提升了圖像表示的語義結(jié)構(gòu)適應(yīng)性;Xu等[7]針對(duì)現(xiàn)有對(duì)比學(xué)習(xí)方法在深度聚類中的弱增強(qiáng)限制,提出強(qiáng)增強(qiáng)對(duì)比聚類(SACC)方法,該方法引入了多個(gè)視圖并聯(lián)合運(yùn)用強(qiáng)弱增強(qiáng)策略;Li等[8]提出了一種新的深度圖像聚類方法——IcicleGCN,該方法結(jié)合了卷積神經(jīng)網(wǎng)絡(luò)(CNN)和圖卷積網(wǎng)絡(luò)(GCN),并融入對(duì)比學(xué)習(xí)和多尺度結(jié)構(gòu)學(xué)習(xí),從而有效提升了圖像的表示學(xué)習(xí)與聚類性能。盡管如此,這些方法仍存在一些不足,如數(shù)據(jù)增強(qiáng)方法有限且變換手段單一,大多僅使用兩種增強(qiáng)視圖,限制了多視圖學(xué)習(xí)所能提供的豐富表示學(xué)習(xí)機(jī)會(huì);同時(shí),負(fù)樣本對(duì)通常由不同類別的增強(qiáng)樣本構(gòu)成,并且數(shù)量遠(yuǎn)超正樣本對(duì),這對(duì)模型性能產(chǎn)生了直接影響[8]。尤為突出的是,基于對(duì)比學(xué)習(xí)的聚類通常僅從未標(biāo)注數(shù)據(jù)中學(xué)習(xí)特征信息,缺乏對(duì)標(biāo)注數(shù)據(jù)(即先驗(yàn)信息)的利用。將半監(jiān)督學(xué)習(xí)引入無監(jiān)督聚類算法中,能有效引導(dǎo)學(xué)習(xí)過程并提升聚類效果[9-10]。
針對(duì)上述問題,本文提出了一種基于成對(duì)約束的三視圖對(duì)比聚類算法(TCCPC)。該算法由主干網(wǎng)絡(luò)(采用深度殘差網(wǎng)絡(luò)-34,ResNet-34)、實(shí)例級(jí)投影網(wǎng)絡(luò)[兩層多層感知機(jī)(MLP)]和聚類級(jí)投影網(wǎng)絡(luò)(帶有softmax層的兩層MLP)3個(gè)網(wǎng)絡(luò)模塊組成。本文的創(chuàng)新之處主要體現(xiàn)在以下幾個(gè)方面:①采用14種強(qiáng)增強(qiáng)和5種弱增強(qiáng)方法,使模型能夠?qū)W習(xí)到更深層次的特征。②引入3種增強(qiáng)視圖進(jìn)行實(shí)例級(jí)與聚類級(jí)的對(duì)比學(xué)習(xí),增加了模型的特征學(xué)習(xí)機(jī)會(huì)。③通過成對(duì)約束引導(dǎo)聚類,減弱了負(fù)樣本的影響,提升了聚類效果。TCCPC結(jié)合了對(duì)比學(xué)習(xí)與成對(duì)約束聚類的優(yōu)勢,為模型提供了更多特征學(xué)習(xí)的機(jī)會(huì)。
1 成對(duì)約束及其定義
成對(duì)約束包括必連約束(Must-Link,ML)和勿連約束(Cannot-Link,CL)。必連約束表示兩個(gè)樣本必須被分配到同一類別中,而勿連約束則要求兩個(gè)樣本必須歸屬于不同的類別。通過引入這些約束條件,聚類模型能夠更有效地避免錯(cuò)誤的分類決策,并增強(qiáng)對(duì)數(shù)據(jù)內(nèi)在結(jié)構(gòu)的認(rèn)知,從而提升聚類的準(zhǔn)確性和整體效果。成對(duì)約束使得聚類算法能夠充分利用已知的樣本之間的關(guān)系信息,更精確地挖掘數(shù)據(jù)中的潛在模式。
定義1:Must-Link集合M定義為 [M=xi,xj],若 [xi,xj∈M],則表明數(shù)據(jù)[ xi ]和 [xj] 必定屬于同一類別,即滿足必連約束關(guān)系。
定義2:Cannot-Link集合C定義為 [C=xi,xk],若" [xi,xk∈C],則表明數(shù)據(jù)[ xi ]和 [xk ]必定屬于不同類別,即滿足勿連約束關(guān)系。
2 算法表述
本文采用3個(gè)網(wǎng)絡(luò)結(jié)構(gòu),并引入成對(duì)約束,構(gòu)建了TCCPC基本框架(如圖1所示)。這3個(gè)網(wǎng)絡(luò)分別為五重共享權(quán)重骨干網(wǎng)絡(luò) [fθ](基于ResNet-34)、實(shí)例級(jí)投影網(wǎng)絡(luò) [gθ](由兩層MLP構(gòu)成)和聚類級(jí)投影網(wǎng)絡(luò)[?θ](包含softmax層的兩層MLP)。在輸入骨干網(wǎng)絡(luò)[fθ]之前,所有不同維度的數(shù)據(jù)均統(tǒng)一調(diào)整為224×224像素。其中,五重共享權(quán)重骨干網(wǎng)絡(luò) [fθ] 需輸入成對(duì)約束信息及某一樣本的3種數(shù)據(jù)增強(qiáng)視圖 [vji](包括2個(gè)強(qiáng)增強(qiáng)視圖和1個(gè)弱增強(qiáng)視圖,或2個(gè)弱增強(qiáng)視圖和1個(gè)強(qiáng)增強(qiáng)視圖)。對(duì)于每個(gè)增強(qiáng)視圖[ vji] ,通過骨干網(wǎng)絡(luò) [fθ] 后的輸出表示為[ zji,其中 i∈1,N,j∈1,2,3]。隨后,這些輸出被送入實(shí)例級(jí)投影網(wǎng)絡(luò)[ gθ] 和聚類級(jí)網(wǎng)絡(luò)[ ?θ ],以構(gòu)建兩種類型的特征矩陣。最后,通過優(yōu)化實(shí)例級(jí)對(duì)比損失、聚類級(jí)對(duì)比損失及成對(duì)約束損失來訓(xùn)練模型。
2.1 視圖增強(qiáng)
同一樣本的3個(gè)增強(qiáng)視圖搭配分為以下兩種情形:一是2個(gè)強(qiáng)增強(qiáng)視圖搭配1個(gè)弱增強(qiáng)視圖;二是2個(gè)弱增強(qiáng)視圖搭配1個(gè)強(qiáng)增強(qiáng)視圖。本文采用14種強(qiáng)增強(qiáng)方式[11]生成強(qiáng)增強(qiáng)視圖,同時(shí)采用5種對(duì)比學(xué)習(xí)中常用的數(shù)據(jù)增強(qiáng)方法(隨機(jī)裁剪、水平翻轉(zhuǎn)、色彩抖動(dòng)、灰度轉(zhuǎn)換和高斯濾波處理)生成弱增強(qiáng)視圖。增強(qiáng)視圖的組合方式見表1。
給定N個(gè)樣本數(shù)據(jù),對(duì)每個(gè)輸入的樣本都進(jìn)行3種不同方式的數(shù)據(jù)增強(qiáng),共得到3N個(gè)數(shù)據(jù)增強(qiáng)樣本:[v11, …, v1N ,v21 , … , v2N , v31 , … , v3N]。隨后,這3個(gè)增強(qiáng)視圖經(jīng)骨干網(wǎng)絡(luò)[ fθ] 處理后,得到輸出集合[zji ]:
[ z11 , … , z1N , z21 , … , z2N , z31 , … , z3N]" ,
[其中:i∈1, N,j∈1, 2, 3]。3個(gè)數(shù)據(jù)增強(qiáng)樣本經(jīng)過神經(jīng)網(wǎng)絡(luò)進(jìn)行嵌入表示的過程可用以下公式表示:
[z1i=fv1i, z2i=fv2i, z3i=fv3i。]" " " " " "(1)
2.2 實(shí)例級(jí)投影
3個(gè)增強(qiáng)視圖經(jīng)過骨干網(wǎng)絡(luò) [fθ] 后生成特征表示[zji],隨后通過實(shí)例級(jí)投影網(wǎng)絡(luò)[gθ]進(jìn)一步處理,得到最終的實(shí)例級(jí)投影表示[ pji],具體過程可用以下公式表示:
[p1i=gz1i, p2i=gz2i, p3i=gz3i。]" " " " " "(2)
其中:i∈[1, N];j∈[1, 2, 3]。
為了優(yōu)化模型性能,增強(qiáng)視圖采用表1中的組合方式。采用余弦相似度來度量實(shí)例對(duì)之間的相似程度,以提高正樣本對(duì)之間的相似度,具體表示如下:
[su,v=uΤvuv]," " " " " " " " " " " " "(3)
其中,u和v為2個(gè)特征向量。假設(shè)每個(gè)數(shù)據(jù)i的某2種數(shù)據(jù)增強(qiáng)方式分別為a和b,為了優(yōu)化所有正對(duì)的一致性,需計(jì)算每個(gè)數(shù)據(jù)增強(qiáng)視圖的實(shí)例級(jí)對(duì)比損失。對(duì)于某個(gè)數(shù)據(jù)增強(qiáng)視圖[ vai ],其實(shí)例級(jí)對(duì)比損失為
[?ai=?logexpspai,pbiτgj=1Nexpspai,pbiτg+expspai,pbiτg]," (4)
其中:[i, j∈1, N],且 [a, b∈1, 2, 3] ;[τg]為溫度系數(shù)。
本文算法將除正樣本對(duì)之外的其他聚類增強(qiáng)視圖作為負(fù)樣本對(duì)。同樣地,對(duì)于某個(gè)數(shù)據(jù)增強(qiáng)視圖 [vbi],其實(shí)例級(jí)對(duì)比損失為
[?bi=?logexpspbi, paiτgj=1Nexpspai, pbjτg+expspbi, pajτg] 。" (5)
對(duì)于某個(gè)正樣本對(duì),增強(qiáng)視圖[ vai ]與[ vbi ]的對(duì)比損失為
[Linstance(a, b)=][i=1N?ai+?bi];" " " " " " " " "(6)
每個(gè)數(shù)據(jù)的兩組正樣本對(duì)的實(shí)例級(jí)對(duì)比損失為
[Linstance=Linstance(1, 2)+Linstance(1, 3)] 。" " " " " (7)
2.3 聚類級(jí)投影
假設(shè)聚類結(jié)果中簇的數(shù)量為 [M],即數(shù)據(jù)集被劃分為 [M ]類。本文將3個(gè)增強(qiáng)視圖通過骨干網(wǎng)絡(luò) [fθ ]處理后得到的特征[ zji]通過聚類級(jí)投影網(wǎng)絡(luò) [?θ ]進(jìn)行處理,得到聚類級(jí)投影表示 [qji]。過程公式為
[q1i=hz1i, q2i=hz2i, q3i=hz3i]," " " " " (8)
其中,[qji] 為每個(gè)增強(qiáng)樣本的軟標(biāo)簽,即每個(gè)樣本都有屬于不同類別的概率。
聚類級(jí)投影網(wǎng)絡(luò)也采用余弦相似度來衡量正樣本對(duì)之間的相似程度。假設(shè)數(shù)據(jù) [i] 經(jīng)歷了2種不同的增強(qiáng)方式 [a] 和 [b] ,并進(jìn)行聚類級(jí)對(duì)比。此時(shí),[qam]表示增強(qiáng)視圖[ vai ]屬于第 [m] 類的概率,其中[i∈1, N]。對(duì)于某個(gè)增強(qiáng)視圖[ vai],其聚類級(jí)對(duì)比損失表示為
[?am=?logexpsqam, qbmτ?n=1Mexpsqam, qanτ?+expsqam, qbnτ?。] (9)
同樣地,對(duì)于某個(gè)數(shù)據(jù)增強(qiáng)視圖[ vbi],其聚類級(jí)對(duì)比損失表示為
[?bm=?logexpsqbm,qamτ?n=1Mexpsqbm,qbnτ?+expsqbm,qanτ?。] (10)
某對(duì)正樣本對(duì)的聚類級(jí)對(duì)比損失可表示為
[Lclustera,b=12Mm=1Mlam+lbm?HY。]" " " (11)
為避免大多數(shù)樣本聚集到同一個(gè)簇中,本文引入了一種新方法,該方法通過計(jì)算每個(gè)數(shù)據(jù)增強(qiáng)視圖在1個(gè)min-batch內(nèi)的聚類分配概率[Pqkm]的熵 [HY]來衡量聚類的多樣性。具體計(jì)算公式如下:
[Pqkm=n=1NYkn mY1, k∈a, b,]" " " " "(12)
[HY=?m=1MPqamlogPqam+PqbmlogPqbm]。" " " " " " " " "(13)
將同一數(shù)據(jù)的3種增強(qiáng)視圖構(gòu)成3組正樣本對(duì),對(duì)其進(jìn)行聚類級(jí)對(duì)比損失,具體表示如下:
[Lcluster=Lcluster1,2+Lcluster2,3+Lcluster1,3。]" " "(14)
2.4 成對(duì)約束
如果2個(gè)數(shù)據(jù)的標(biāo)簽相同,則它們之間建立必連約束,要求經(jīng)過骨干網(wǎng)絡(luò)[fθ]處理后的特征盡可能相似;反之,則建立勿連約束,要求經(jīng)過骨干網(wǎng)絡(luò)[fθ]處理后的特征盡可能相互遠(yuǎn)離。成對(duì)約束損失表示為
[Lpair=Cdrd=1n||zd?zr||22 / n]," " " " " " " " " (15)
其中,n為成對(duì)約束對(duì)的個(gè)數(shù)。根據(jù)Klein等[12]對(duì)成對(duì)約束的使用,[Cdr]的取值可進(jìn)行如下定義:
[cdr=+1, xd, xr∈ML ?1, xd, xr∈CL]。" " " " " (16)
當(dāng)數(shù)據(jù)[ xd ]與 [xr] 為必連約束對(duì)時(shí),[cdr]為1;當(dāng)數(shù)據(jù)[ xd ]與 [xr] 為勿連約束對(duì)時(shí),[cdr] 為-1。最后,總目標(biāo)損失函數(shù)由聚類級(jí)對(duì)比損失、實(shí)例級(jí)對(duì)比損失與成對(duì)約束損失共同組成,定義為
[L=Lcluster+γLinstance+λLpair] ," " " " " "(17)
其中,[ γ ]與[ λ] 為平衡系數(shù)。
3 實(shí)驗(yàn)分析
3.1 數(shù)據(jù)集及實(shí)驗(yàn)環(huán)境
本文采用了5個(gè)公開的數(shù)據(jù)集:CIFAR-10[13]、CIFAR-100[13]、STL-10[14]、ImageNet-10[15]和ImageNet-Dogs[15],并將所提算法與多種聚類算法進(jìn)行了性能對(duì)比。實(shí)驗(yàn)環(huán)境配置如下:Intel(R)Xeon(R)CPU E7-4820 v4@2.00G Hz處理器、4張NVIDIA GeForce RTX 2080 Ti顯卡、Ubuntu 18.04.6 LTS 操作系統(tǒng)、Python 3.10.9及PyTorch 1.21.1。
3.2 算法對(duì)比
本文在5個(gè)公開數(shù)據(jù)集上采用準(zhǔn)確率ACC(Accuracy)和歸一化互信息NMI(Normalized Mutual Information)作為指標(biāo),對(duì)算法性能進(jìn)行了對(duì)比評(píng)估。結(jié)果顯示,TCCPC算法在性能上有顯著提升。K-Means、AC(凝聚聚類)、DEC(深度嵌入聚類算法)、DCCM(圖像聚類的深度綜合關(guān)聯(lián)挖掘)、PICA(劃分置信度最大化深度語義聚類)、CC(對(duì)比聚類算法)、SACC(強(qiáng)增強(qiáng)對(duì)比聚類)等算法的指標(biāo)數(shù)據(jù)引自文獻(xiàn)[7],而HCSC(層次對(duì)比選擇編碼)和IcicleGCN(基于對(duì)比學(xué)習(xí)和多尺度圖卷積網(wǎng)絡(luò)的深度圖像聚類)的指標(biāo)數(shù)據(jù)則分別來自文獻(xiàn)[7]和文獻(xiàn)[8]。TCCPC算法的性能通過所有評(píng)價(jià)指標(biāo)的平均值來體現(xiàn)。
(1)K-Means:一種經(jīng)典的聚類算法,通過最小化類內(nèi)均方誤差將n個(gè)樣本分為k個(gè)簇。
(2)AC:一種自底而上的層次聚類方法,逐步合并最相似的類,直至所有元素歸為一個(gè)整體類別。
(3)DEC:利用深度神經(jīng)網(wǎng)絡(luò)同時(shí)學(xué)習(xí)特征表示和聚類分配,將數(shù)據(jù)映射到低維特征空間并優(yōu)化聚類目標(biāo)。
(4)DCCM:基于深度挖掘的圖像聚類算法,全面提取不同樣本之間的相關(guān)性及局部魯棒性特征。
(5)PICA:通過劃分置信度最大化進(jìn)行深度語義聚類,旨在找到語義上最適合的類間分離方式。
(6)CC: 利用數(shù)據(jù)增強(qiáng)技術(shù)進(jìn)行正負(fù)樣本對(duì)的實(shí)例級(jí)與聚類級(jí)對(duì)比學(xué)習(xí)。
(7)HCSC:通過層次原型捕獲數(shù)據(jù)的層次語義結(jié)構(gòu),改進(jìn)實(shí)例和原型之間的對(duì)比學(xué)習(xí)。
(8)SACC:構(gòu)建了2個(gè)弱增強(qiáng)視圖與1個(gè)強(qiáng)增強(qiáng)視圖進(jìn)行對(duì)比聚類分析。
(9)IcicleGCN:結(jié)合了對(duì)比學(xué)習(xí)和多尺度圖卷積網(wǎng)絡(luò)進(jìn)行深度圖像聚類,同時(shí)加入多尺度鄰域結(jié)構(gòu)學(xué)習(xí)。
不同算法在各數(shù)據(jù)集上的ACC和NMI分別見表2和表3。從ACC指標(biāo)來看,TCCPC算法在ImageNet-Dogs、CIFAR-10、STL-10數(shù)據(jù)集上表現(xiàn)較優(yōu),特別是在CIFAR-10數(shù)據(jù)集上比HCSC算法平均提升了39.9%,與DCCM、PICA、CC、SACC、IcicleGCN相比,分別提升了25.6%、18.3%、11.3%、2.8%和7.2%。從NMI指標(biāo)來看,TCCPC算法在STL-10數(shù)據(jù)集上表現(xiàn)最佳,與DCCM、PICA、CC、SACC相比,分別提升了29.6%、6.5%、3.1%、1.9%。
3.3 消融實(shí)驗(yàn)
3.3.1 成對(duì)約束消融分析
為充分驗(yàn)證成對(duì)約束的有效性,本文設(shè)計(jì)了消融實(shí)驗(yàn),對(duì)比了使用成對(duì)約束與不使用成對(duì)約束兩種情況下的聚類結(jié)果(見表4)。實(shí)驗(yàn)結(jié)果表明,成對(duì)約束信息的引入能夠顯著提升模型的聚類效果。
3.3.2 實(shí)例級(jí)與聚類級(jí)投影網(wǎng)絡(luò)分析
為探究實(shí)例級(jí)投影[gθ]與聚類級(jí)投影 [hθ] 對(duì)聚類性能的影響,設(shè)計(jì)相應(yīng)的消融實(shí)驗(yàn)。在確定數(shù)據(jù)集的最優(yōu)迭代次數(shù)、最優(yōu)數(shù)據(jù)增強(qiáng)視圖組合以及最優(yōu)成對(duì)約束數(shù)量后,針對(duì)以下3種情況進(jìn)行了實(shí)驗(yàn):①僅采用實(shí)例級(jí)投影網(wǎng)絡(luò),并通過K-means算法獲得聚類結(jié)果。②僅采用聚類級(jí)投影網(wǎng)絡(luò)。③同時(shí)采用兩個(gè)投影網(wǎng)絡(luò)進(jìn)行對(duì)比學(xué)習(xí)。不同數(shù)據(jù)集上兩個(gè)對(duì)比投影網(wǎng)絡(luò)的聚類準(zhǔn)確率對(duì)比結(jié)果見表5。根據(jù)表5中的數(shù)據(jù),同時(shí)采用實(shí)例級(jí)投影網(wǎng)絡(luò)與聚類級(jí)投影網(wǎng)絡(luò)的模型準(zhǔn)確率最高,驗(yàn)證了本文所提框架的合理性。
4 結(jié)語
本文提出了一種基于成對(duì)約束的三視圖對(duì)比聚類算法,解決了傳統(tǒng)對(duì)比學(xué)習(xí)聚類方法中數(shù)據(jù)增強(qiáng)手段單一和視圖對(duì)比受限的問題。具體而言,該算法結(jié)合14種強(qiáng)增強(qiáng)和5種弱增強(qiáng)方法,引入了3個(gè)數(shù)據(jù)增強(qiáng)視圖以提高模型的泛化能力,并利用成對(duì)約束來指導(dǎo)聚類過程,從而提升了聚類效果和模型能力。在5個(gè)公開數(shù)據(jù)集上的對(duì)比實(shí)驗(yàn)結(jié)果顯示,本文算法取得了良好成效,驗(yàn)證了所提框架的有效性。盡管基于成對(duì)約束的對(duì)比聚類方法表現(xiàn)優(yōu)異,但是其仍受限于高標(biāo)注成本、對(duì)噪聲的敏感性以及跨領(lǐng)域泛化能力的不足。未來可以從自動(dòng)生成成對(duì)約束、設(shè)計(jì)抗噪機(jī)制、提升跨領(lǐng)域適應(yīng)性等方面結(jié)合預(yù)訓(xùn)練模型與動(dòng)態(tài)約束調(diào)整策略展開更深入的研究,以期進(jìn)一步提升聚類性能和實(shí)用性。
5 參考文獻(xiàn)
[1]KANUNGO T,MOUNT D M,NETANYAHU N S,et al. An efficient k-means clustering algorithm: analysis and implementation[J].IEEE Transactions on Pattern Analysis amp; Machine Intelligence,2002,24(7):881-892.
[2]LUXBURG U V.A Tutorial on spectral clustering[J].Statistics and Computing,2004,17(4):395-416.
[3]LIANG Z,YUAN C,QIN X,et al.Hot region mining approach based on improved spectral clustering[J].Journal of Chongqing University of Technology(Natural Science),2021.35(1):129-137.
[4]GUO X,LIU X,ZHU E,et al.Deep clustering with convolutional autoencoders[C]//Neural Information Processing: 24th International Conference(ICONIP 2017).Guangzhou, China,2017:373-382.
[5]GUO Y,XI M,LI J,et al.HCSC:hierarchical contrastive selective coding[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).New Orleans,LA,USA,2022:9706-9715.
[6]DENG X,HUANG D,CHEN D H,et al. Strongly augmented contrastive clustering[J].Pattern Recognition,2023,139:109470.
[7]XU Y,HUANG D,WANG C D,et al.Deep image clustering with contrastive learning and multi-scale graph convolutional networks[J].Pattern Recognition,2024,146:110065.
[8]LI P,DENG Z.Use of distributed semi-supervised clustering for text classification[J].Journal of Circuits,Systems and Computers,2019,28(8):1950121-1950127.
[9]LI G Z,YOU M,GE L,et al.Feature selection for semi-supervised multi-label learning with application to gene function analysis[C]//Proceedings of the First ACM International Conference on Bioinformatics and Computational Biology(BCB). Niagara Falls,NY,USA,2010:354-357.
[10]HE K,ZHANG X,REN S,et al.Deep residual learning for image recognition[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Las Vegas,Nevada,USA,2016:770-778.
[11]CUBUK E D,ZOPH B,MANE D,et al.Autoaugment:Learning augmentation strategies from data[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR)).Seoul,South Korea,2019:113-123.
[12]KLEIN D,KAMVAR S D,MANNING C D.From instance-level constraints to space-level constraints:making the most of prior knowledge in data clustering[C]//International Conference on Machine Learning(ICML). University of New South Wales,Sydney,Australia,2002:307-314.
[13]KRIZHEVSKY A,HINTON G.Learning multiple layers of features from tiny images[J].Handbook of Systemic Autoimmune Diseases,2009,1(4):1-60.
[14]COATES A,NG A,LEE H.An analysis of single-layer networks in unsupervised feature learning[C]//Proceedings of the Fourteenth International Conference on Artificial Intelligence and Statistics(JMLR).Ft.Lauderdale, FL,USA,2011:215-223.
[15]CHANG J,WANG L,MENG G,et al.Deep adaptive image clustering[C]//Proceedings of the IEEE International Conference on Computer Vision(ICCV).Venice,Italy,2017:5879-5887.
*2022年廣西科技重大專項(xiàng)“人工智能混合架構(gòu)計(jì)算平臺(tái)構(gòu)建與項(xiàng)目研究”(AA22068057)。
【作者簡介】譚思婧,女,廣西南寧人,在讀碩士研究生,研究方向:深度聚類;李艷(通信作者),女,山西忻州人,碩士,研究方向:深度聚類;彭磊,男,廣西欽州人,在讀碩士研究生,研究方向:圖神經(jīng)網(wǎng)絡(luò);盧虹妃,女,廣西玉林人,在讀碩士研究生,研究方向:數(shù)據(jù)挖掘;蒙柏錡,男,廣西梧州人,在讀碩士研究生,研究方向:自監(jiān)督學(xué)習(xí)。
【引用本文】譚思婧,李艷,彭磊,等.基于成對(duì)約束的三視圖對(duì)比聚類算法[J].企業(yè)科技與發(fā)展,2024(12):108-112.