竇 通, 周振威, 劉 濤, 汪凱蔚, 汪 皓, 崔 巍
(1.華南理工大學(xué)自動(dòng)化科學(xué)與工程學(xué)院,廣東廣州 510640;2.工業(yè)和信息化部電子第五研究所,廣東廣州 511370;3.鴻富錦精密電子(煙臺(tái))有限公司,山東煙臺(tái) 264000)
量子計(jì)算是一種基于量子力學(xué)規(guī)則的新型計(jì)算范式,有望在人工智能、組合優(yōu)化、量子化學(xué)等領(lǐng)域解決經(jīng)典計(jì)算機(jī)難以解決的問題.理論上,未來大規(guī)模的容錯(cuò)量子計(jì)算機(jī)可以在質(zhì)因數(shù)分解[1]、無序結(jié)構(gòu)搜索[2]、求解線性方程組[3]等問題上實(shí)現(xiàn)加速,然而噪聲和量子比特?cái)?shù)的限制阻礙了上述量子算法的實(shí)現(xiàn).當(dāng)前量子技術(shù)離通用量子計(jì)算機(jī)要求的保真度、相干時(shí)間還有很長的距離.在未來的一段時(shí)間,人們能使用的量子計(jì)算設(shè)備只有幾十到幾百的量子比特,同時(shí)這些量子比特是沒有經(jīng)過糾錯(cuò)的物理量子比特,而不是邏輯量子比特,且只能進(jìn)行相干時(shí)間有限的不完美的量子操作.這些量子計(jì)算設(shè)備被稱為帶噪聲中等規(guī)模量子(noisy intermediate-scale quantum,NISQ)計(jì)算設(shè)備[4].因此在帶噪聲中等規(guī)模量子計(jì)算設(shè)備上進(jìn)行計(jì)算必須考慮如下因素:
1) 量子比特的數(shù)量有限;
2) 量子比特之間的連通性有限;
3) 限制量子電路深度的相干和非相干錯(cuò)誤.
如何最大限度地利用現(xiàn)有的量子資源,為帶噪聲中等規(guī)模量子計(jì)算設(shè)備尋找可以發(fā)揮其優(yōu)勢(shì)的應(yīng)用問題,是當(dāng)前量子計(jì)算領(lǐng)域的研究重點(diǎn).現(xiàn)階段,變分量子算法(variational quantum algorithm,VQA)已經(jīng)成為在NISQ設(shè)備上獲得量子優(yōu)勢(shì)的主要策略,因?yàn)樽兎至孔铀惴ú捎玫木€路擬設(shè)(ansatz)在低深度時(shí)可以有效實(shí)現(xiàn).其旨在借助經(jīng)典計(jì)算機(jī)的力量盡可能發(fā)揮有噪中規(guī)模量子計(jì)算設(shè)備的計(jì)算能力去解決具體的問題.變分量子算法的一部分任務(wù)由量子計(jì)算設(shè)備完成,然后通過經(jīng)典計(jì)算調(diào)整量子計(jì)算部分的可調(diào)參數(shù),反復(fù)迭代最后輸出結(jié)果.
基于變分量子算法,學(xué)術(shù)界和工業(yè)界在機(jī)器學(xué)習(xí)領(lǐng)域進(jìn)行了許多應(yīng)用的探索,并產(chǎn)生了新興的量子機(jī)器學(xué)習(xí)(quantum machine learning,QML)[5-8]研究領(lǐng)域.量子機(jī)器學(xué)習(xí)嘗試?yán)昧孔佑?jì)算的優(yōu)勢(shì)從而增強(qiáng)機(jī)器學(xué)習(xí)模型的性能,并致力于回答下面的開放性問題:
1) 量子信息如何影響機(jī)器學(xué)習(xí)模型的行為?如何利用它?
2) 量子計(jì)算機(jī)是否更適合高度相關(guān)的數(shù)據(jù)集(或具有量子相關(guān)的經(jīng)典數(shù)據(jù)集)?
3) 量子機(jī)器學(xué)習(xí)模型能比經(jīng)典機(jī)器學(xué)習(xí)模型學(xué)習(xí)得更快嗎?
4) 如何降低量子機(jī)器學(xué)習(xí)模型的復(fù)雜性,以及是否能從更小的數(shù)據(jù)樣本中學(xué)習(xí)?
本文擬在當(dāng)前已實(shí)現(xiàn)的量子計(jì)算硬件條件下,研究如何優(yōu)化特征提取方法從而提升量子神經(jīng)網(wǎng)絡(luò)的性能.進(jìn)一步,本文將所研究的混合量子-經(jīng)典神經(jīng)網(wǎng)絡(luò)模型應(yīng)用到故障數(shù)據(jù)異構(gòu)以及是否發(fā)生故障未知的故障診斷問題中,從而進(jìn)一步驗(yàn)證所提出的混合神經(jīng)網(wǎng)絡(luò)的有效性.該量子-經(jīng)典混合卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)[9-13]可以通過局部連接和參數(shù)共享學(xué)習(xí)數(shù)據(jù)的上下文關(guān)聯(lián)性.本文異常檢測(cè)的基本思想是,將檢測(cè)問題轉(zhuǎn)化為分類問題,通過卷積神經(jīng)網(wǎng)絡(luò)強(qiáng)大的特征提取能力提取相關(guān)特征,然后經(jīng)過分類器進(jìn)行分類.文獻(xiàn)[14]提出了一種量子-經(jīng)典混合卷積神經(jīng)模型,該模型通過隨機(jī)量子線路代替經(jīng)典的卷積操作,從而構(gòu)造經(jīng)典計(jì)算難以產(chǎn)生的復(fù)雜的映射關(guān)系,并在手寫數(shù)字識(shí)別任務(wù)上取得較好的結(jié)果.但由于選取的量子線路具有隨機(jī)性,與問題或數(shù)據(jù)無關(guān);并且線路的參數(shù)固定,會(huì)導(dǎo)致最后結(jié)果具有很大的隨機(jī)性.因此,本文在文獻(xiàn)[14]的模型基礎(chǔ)上,提出一種基于量子自編碼器[15-16]和K-medoids聚類算法的無監(jiān)督特征學(xué)習(xí)方法,可用于多層次結(jié)構(gòu)的特征學(xué)習(xí).該方法的關(guān)鍵是通過量子自編碼器將數(shù)據(jù)與量子線路的參數(shù)關(guān)聯(lián)起來,并通過K-medoids聚類算法選取在“質(zhì)點(diǎn)”的量子自編碼器作為量子-經(jīng)典混合卷積神經(jīng)模型的量子“濾波”器,然后再將選取好的“量子”濾波器通過卷積形式進(jìn)行特征提取.實(shí)驗(yàn)說明,該模型在軸承異常檢測(cè)問題上具有較好的效果.
本文結(jié)構(gòu)如下:第2節(jié)介紹量子變分算法的基本概念與設(shè)計(jì)思想;第3節(jié)簡(jiǎn)單介紹基于量子變分算法的量子自編碼器;第4節(jié)介紹本文提出的無監(jiān)督特征學(xué)習(xí)方法;第5節(jié)為實(shí)驗(yàn)及分析;最后以第6節(jié)作為論文的總結(jié).
本節(jié)將簡(jiǎn)單介紹變分量子算法的基礎(chǔ)概念,使用的主要符號(hào)如表1所示.變分量子算法的核心在于將計(jì)算任務(wù)轉(zhuǎn)化為優(yōu)化問題,由量子計(jì)算機(jī)和經(jīng)典計(jì)算機(jī)協(xié)同完成任務(wù).量子計(jì)算機(jī)執(zhí)行困難的部分,而經(jīng)典計(jì)算機(jī)完成相對(duì)簡(jiǎn)單的優(yōu)化任務(wù).可以表達(dá)為下式:
表1 主要符號(hào)表Table 1 Notations
變分量子算法典型的算法流程如圖1所示,通常包括狀態(tài)準(zhǔn)備、參數(shù)化酉變換、測(cè)量和經(jīng)典優(yōu)化器.變分量子算法可分為如下步驟:
圖1 變分量子算法流程圖Fig.1 Framework for variational quantum algorithm
步驟1 在量子計(jì)算設(shè)備上準(zhǔn)備量子態(tài)ρin;
步驟2 施加由參數(shù)→θ表征的酉變化U(→θ);
步驟3 在厄密算符?O上對(duì)量子線路末態(tài)進(jìn)行測(cè)量,求取代價(jià)函數(shù)f(→θ);
步驟4 經(jīng)典計(jì)算機(jī)根據(jù)損失函數(shù)的值更新參數(shù)→θ;
步驟5 重復(fù)步驟1-4,直至收斂.
值得注意的是,變分量子算法通常包含一個(gè)精心設(shè)計(jì)的代價(jià)函數(shù)f,使得當(dāng)f取最小值時(shí)可以實(shí)現(xiàn)計(jì)算任務(wù).由于代價(jià)函數(shù)實(shí)現(xiàn)了從實(shí)數(shù)(可調(diào)參數(shù))到實(shí)數(shù)(測(cè)量結(jié)果)的映射,變分量子算法可以使用經(jīng)典優(yōu)化方法來優(yōu)化可調(diào)參數(shù)→θ.可見,該算法結(jié)合了量子設(shè)備的計(jì)算能力與經(jīng)典設(shè)備的優(yōu)化方法,故又稱作混合量子-經(jīng)典算法.
實(shí)現(xiàn)變分量子算法必須考慮如何設(shè)計(jì)代價(jià)函數(shù)將計(jì)算任務(wù)轉(zhuǎn)化為優(yōu)化問題,以及如何構(gòu)造一個(gè)參數(shù)化的酉變換(如果算法處理的任務(wù)涉及到經(jīng)典數(shù)據(jù),則需要額外的編碼過程將數(shù)據(jù)轉(zhuǎn)換成量子數(shù)據(jù)).此外,變分量子算法中采用的經(jīng)典優(yōu)化方法往往會(huì)對(duì)算法的效率和準(zhǔn)確度產(chǎn)生影響.特別的,相比于不基于梯度的優(yōu)化方法,解析梯度以及解析高階導(dǎo)數(shù)因?yàn)樾枰\(yùn)行更少的量子電路來決定優(yōu)化方向已經(jīng)成為當(dāng)前變分量子算法所關(guān)注的重點(diǎn).本節(jié)接下來將簡(jiǎn)要介紹變分量子算法中代價(jià)函數(shù)和參數(shù)化酉變換兩者基本概念.
變分量子算法中的代價(jià)函數(shù)一般具有如下形式:
其中:ρj是一組輸入量子態(tài);Hj是一組厄密算符;〈Hj〉=Tr(HjU(→θ)ρjU(→θ)?)表示在線路末端進(jìn)行Hj測(cè)量的結(jié)果;fj是一組經(jīng)典函數(shù),表示對(duì)測(cè)量結(jié)果的經(jīng)典后處理.由變分量子算法的框架可知,代價(jià)函數(shù)的設(shè)計(jì)必須滿足:當(dāng)且僅當(dāng)代價(jià)函數(shù)達(dá)到全局最小時(shí),計(jì)算任務(wù)求得解.這被稱為變分量子算法的忠實(shí)性(faithfulness)條件[17].
值得注意的是,考慮到在帶噪聲中等規(guī)模量子設(shè)備上的適用性,變分量子算法的代價(jià)函數(shù)必須能夠高效地計(jì)算.在實(shí)際中,Hj一般為泡利算符.此時(shí)損失函數(shù)可以直接通過對(duì)量子態(tài)的泡利測(cè)量得到.特別的,在許多常見的物理模型(如伊辛模型)中,Hj寫成局部泡利算符的線性組合
其中Pj,k是泡利算符,且只不平凡地作用在局部的量子比特上.若每一個(gè)Pj,k最多只作用于m個(gè)量子比特,則稱損失函數(shù)為m-局部的(m-local).局部損失函數(shù)相較于全局損失函數(shù)在梯度消失問題[18]上被認(rèn)為更具有優(yōu)勢(shì).
在帶噪聲中等規(guī)模量子計(jì)算設(shè)備實(shí)現(xiàn)參數(shù)化的酉變換是變分量子算法的一個(gè)關(guān)鍵.參數(shù)化量子電路(parameterized quantum circuit,PQC)是一種通用的參數(shù)化酉變換實(shí)現(xiàn)方式.在參數(shù)化量子電路中,電路一般采用分層結(jié)構(gòu):
而不含參數(shù)的酉變換Wl作為連接層,一般由鄰近量子比特間的CNOT或CZ雙比特門構(gòu)成,為電路提供糾纏能力.參數(shù)化電路的結(jié)構(gòu)也常被稱為擬設(shè)(ansatz).從PQC的結(jié)構(gòu)邏輯來看,變分量子算法可以說是經(jīng)典計(jì)算機(jī)器學(xué)習(xí)方法(如神經(jīng)網(wǎng)絡(luò))的量子擴(kuò)展,故參數(shù)化量子線路又可以認(rèn)為是量子神經(jīng)網(wǎng)絡(luò)(quantum neural network,QNN)[19].
盡管變分量子算法的發(fā)展迅速,但該領(lǐng)域仍有許多挑戰(zhàn)需要解決.這里簡(jiǎn)單介紹變分量子算法的可訓(xùn)練性(trainability)問題.
經(jīng)典的機(jī)器學(xué)習(xí)中,自編碼器(autoencoder,AE)可以看成一種神經(jīng)網(wǎng)絡(luò),可以學(xué)習(xí)高維空間中數(shù)據(jù)有效的低維表示.其任務(wù)是給定輸入x,將x映射到低維表示h,而x可以從h中重構(gòu).該網(wǎng)絡(luò)可以分為兩部分:一個(gè)由映射h=e(x)表示的編碼器和一個(gè)生成重構(gòu)的解碼器,由映射r=d(h)表示.圖2展示了自編碼器的一般結(jié)構(gòu).自編碼器的學(xué)習(xí)過程可以表述為最小化一個(gè)損失函數(shù)
圖2 經(jīng)典自編碼器的一般結(jié)構(gòu),通過內(nèi)部表示h將輸入x映射到輸出(重構(gòu))rFig.2 The general structure of a classical autoencoder,mapping an input x to an output(reconstruction)r through an internal representation h
其中g(shù)(·,·)是一個(gè)損失函數(shù),表示懲罰d(e(x))與x之間的差異.
基于經(jīng)典自編碼器的思想,圖3為一種基于量子變分算法的量子自編碼器模型,可以用來執(zhí)行量子數(shù)據(jù)的自編碼任務(wù).與經(jīng)典的自編碼器模型相似,量子自編碼器由一組節(jié)點(diǎn)表示輸入,每個(gè)節(jié)點(diǎn)代表一個(gè)量子比特,網(wǎng)絡(luò)的第1層代表輸入寄存器,最后一層代表輸出寄存器.對(duì)于量子自編碼器中的量子線路,輸入態(tài)包含的部分信息在經(jīng)過編碼部分的量子線路后被丟棄(被測(cè)量的量子比特稱為“丟棄比特”),然后初始化為一些參考態(tài)(通常為|0〉態(tài)),并使用它實(shí)現(xiàn)解碼操作,并將其與初態(tài)進(jìn)行比較.最后,計(jì)算輸入態(tài)與重構(gòu)輸出態(tài)的偏差,本文用兩量子態(tài)之間的保真度進(jìn)行度量,如下式所示:
圖3 一種量子自編碼器的結(jié)構(gòu)Fig.3 The structure of a quantum autoencoder
時(shí),量子自編碼器訓(xùn)練成功.
量子自編碼器的編碼部分可以由參數(shù)化量子線路組成,由U(θ)表示.簡(jiǎn)單地,解碼部分可以用U(θ)?表示.這時(shí)候當(dāng)“丟棄比特”的測(cè)量結(jié)果等于參考態(tài),則被編碼的量子態(tài)可以完美地重構(gòu)為輸出態(tài).本文可以采用“丟棄比特”與參考態(tài)之間的保真度作為損失函數(shù),這樣可以使用基于梯度下降的算法對(duì)參數(shù)進(jìn)行優(yōu)化,并且在優(yōu)化時(shí)忽略解碼部分的量子線路.
文獻(xiàn)[14]基于卷積神經(jīng)網(wǎng)絡(luò)提出了一種量子-經(jīng)典混合神經(jīng)網(wǎng)絡(luò),主要是利用隨機(jī)量子線路代替卷積神經(jīng)網(wǎng)絡(luò)中的卷積操作,可以把量子線路看作量子“濾波器”.動(dòng)機(jī)是使用隨機(jī)的非線性特征可以提高機(jī)器學(xué)習(xí)算法的性能和減少訓(xùn)練時(shí)間,而量子線路可以映射經(jīng)典計(jì)算機(jī)難以高效計(jì)算復(fù)雜的函數(shù)關(guān)系.然而因?yàn)椤柏汃じ咴爆F(xiàn)象的存在,許多隨機(jī)挑選的參數(shù)化量子線路在很大的參數(shù)空間內(nèi),其輸出態(tài)的量子性質(zhì)是相似的,這會(huì)使得隨機(jī)量子線路產(chǎn)生的非線性特征相近.本節(jié)將介紹一種結(jié)合量子自編碼器和Kmedoids聚類方法的量子“濾波器”選取方法,并用于量子特征提取.
總體上看,無監(jiān)督學(xué)習(xí)過程可以分為以下3個(gè)步驟:
1) 隨機(jī)選取多個(gè)數(shù)據(jù)塊和參數(shù)化量子線路的結(jié)構(gòu),對(duì)每個(gè)數(shù)據(jù)塊訓(xùn)練一個(gè)量子自編碼器;
2) 通過K-medoids算法對(duì)訓(xùn)練得到的量子自編碼器進(jìn)行聚類;
3) 對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行預(yù)處理并分類.
正如第2.2節(jié)所提及的,文獻(xiàn)[21]列舉了若干能夠在含噪聲中等規(guī)模量子計(jì)算設(shè)備(NISQ)上實(shí)現(xiàn)的量子線路結(jié)構(gòu)(ansatz).本文將采取表達(dá)能力較強(qiáng)的4個(gè)量子線路,即circuit 5,13,4,6進(jìn)行實(shí)驗(yàn).
選取好量子線路結(jié)構(gòu)的寬度和深度,初始化好線路的參數(shù)之后,對(duì)選取的數(shù)據(jù)塊訓(xùn)練一個(gè)量子自編碼器.然后運(yùn)行編碼部分的線路,得到末態(tài).可知可以通過量子編碼線路的末態(tài)表征該量子自編碼器,所以對(duì)量子自編碼器進(jìn)行聚類本質(zhì)上是對(duì)量子編碼線路的末態(tài)進(jìn)行聚類.由于需要聚類的量子態(tài)眾多,為了方便,本文對(duì)所有量子態(tài)在計(jì)算基矢上進(jìn)行多次測(cè)量,得到了每個(gè)量子態(tài)的概率分布描述xi.通過對(duì)量子態(tài)概率分布進(jìn)行聚類從而實(shí)現(xiàn)對(duì)量子線路的聚類.假設(shè)有m個(gè)不同量子線路,所得樣本集為
其中每一個(gè)樣本為以向量表示的概率分布.若希望將X劃分為k類,則算法如表2所示.
表2 用于量子線路的K-medoids聚類算法Table 2 K-medoids for clustering quantum circuit
需要注意的是,由于輸入數(shù)據(jù)本質(zhì)上是一個(gè)概率分布,距離度量函數(shù)d(xj,xi)=dji選取兩個(gè)概率分布之間的JS散度(jensen-shannon divergence,JSD),如下式:
其中P,Q為兩個(gè)概率分布.
得到聚類的結(jié)果之后,選取每個(gè)簇類中心的概率分布所代表的量子線路作為一個(gè)“量子”濾波器,這樣便可以得到k個(gè)“量子”濾波器.可以根據(jù)“量子”濾波器的需求選取k,為了更好的收斂也可通過手肘法確定k.
通過上述無監(jiān)督學(xué)習(xí),可以得到k個(gè)“量子”濾波器,這樣對(duì)于輸入x ∈RN可以學(xué)習(xí)到新的表示y=g(x)∈RM.
4.3.1 特征提取
本節(jié)將通過數(shù)值實(shí)驗(yàn)驗(yàn)證所提方法的可行性,該實(shí)驗(yàn)主要關(guān)注軸承的異常檢測(cè)問題.主要因?yàn)楫惓z測(cè)是一個(gè)復(fù)雜的問題,在相當(dāng)長的一段時(shí)間內(nèi),一直是機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)具有挑戰(zhàn)性的問題[23-24].而軸承是在機(jī)械設(shè)備中具有廣泛應(yīng)用的關(guān)鍵部件之一.由于過載、疲勞、磨損、腐蝕等原因,軸承在機(jī)器操作過程中容易損壞,造成設(shè)備劇烈搖晃、設(shè)備停機(jī)、停止生產(chǎn)、甚至人員傷亡,所以軸承狀態(tài)的監(jiān)測(cè)和分析非常重要.如果可以發(fā)現(xiàn)軸承的早期弱故障,則防止故障造成損失.一般來說,早期的軸承弱故障是復(fù)雜的,難以檢測(cè).
本實(shí)驗(yàn)使用一個(gè)小型的真實(shí)軸承振動(dòng)信號(hào)數(shù)據(jù)集.該數(shù)據(jù)集中,軸承有3種故障:外圈故障、內(nèi)圈故障、滾珠故障,外加正常的工作狀態(tài).如表3所示,結(jié)合軸承的3種直徑(直徑1、直徑2、直徑3),軸承的工作狀態(tài)有10類,見表1所示.
表3 故障類別Table 3 The fault categories
數(shù)據(jù)集中,訓(xùn)練集樣本數(shù)為629,測(cè)試集個(gè)數(shù)為163.每一個(gè)樣本由6000個(gè)時(shí)間序列的采樣點(diǎn)組成,標(biāo)簽使用獨(dú)熱(one-hot)編碼.
本實(shí)驗(yàn)訓(xùn)練一層基于量子自編碼器的量子“卷積”層.對(duì)于每種量子線路的擬設(shè),需要選擇的參數(shù)有兩個(gè):線路的寬度,即量子比特的數(shù)目n;線路的深度,即擬設(shè)的層數(shù)L.對(duì)于線路的量子比特?cái)?shù)目,統(tǒng)一選取n=6.對(duì)于線路的深度,對(duì)于每種結(jié)構(gòu)的線路,選取L=2.而量子線路參數(shù)的選取則從區(qū)間[0,2π]中隨機(jī)均勻選取.總共訓(xùn)練600個(gè)量子自編碼器.
經(jīng)過K-medoids聚類之后,得到9個(gè)聚類中心,即9個(gè)“量子”濾波器.在“量子”卷積操作中,步長s=32,每個(gè)樣本對(duì)應(yīng)的輸出數(shù)據(jù)為9個(gè)通道,每個(gè)通道數(shù)據(jù)長度為188,展開之后得到1692維的特征.通過PCA降維之后,由SVM進(jìn)行分類,核函數(shù)為高斯核(Gaussian kernel)函數(shù).最終效果如下.
圖4為測(cè)試集準(zhǔn)確率(十分類)與經(jīng)過PCA后的特征數(shù)個(gè)數(shù)的關(guān)系.在每種特征數(shù)情況下,采用十折交叉驗(yàn)證方法,取最好結(jié)果.由圖可知,測(cè)試集準(zhǔn)確率隨著PCA后的特征數(shù)個(gè)數(shù)的增大,先上升后下降.存在一個(gè)合適的特征數(shù)(大約在32左右),使得測(cè)試集的準(zhǔn)確率最高.
圖4 經(jīng)過PCA后的特征數(shù)與測(cè)試集準(zhǔn)確率的關(guān)系Fig.4 The relationship between the number of components after PCA and the accuracy on test set
圖5為特征數(shù)為32時(shí)測(cè)試集的混淆矩陣.可以看到,在判斷數(shù)據(jù)是否異常時(shí)(二分類),模型在測(cè)試集上的準(zhǔn)確率為100%;在判斷數(shù)據(jù)為外圈故障、內(nèi)圈故障、滾珠故障還是正常數(shù)據(jù)時(shí)(四分類),模型在測(cè)試集上的準(zhǔn)確率為89.6%;而到進(jìn)一步的具體故障(十分類)時(shí),模型在測(cè)試集上的準(zhǔn)確率為81.6%.
圖5 特征數(shù)為32時(shí),測(cè)試集的混淆矩陣Fig.5 The confusion matrix of test set when the number of components is 32
5.2.1 對(duì)比
基于同樣的數(shù)據(jù)集,使用PCA和SVM相結(jié)合的分類模型作為對(duì)比,效果如下.
圖6為使用PCA和SVM相結(jié)合的分類模型時(shí),測(cè)試集準(zhǔn)確率(十分類)與經(jīng)過PCA后的特征數(shù)個(gè)數(shù)的關(guān)系.在每種特征數(shù)情況下,采用十折交叉驗(yàn)證方法,取最好結(jié)果.由圖可知,當(dāng)經(jīng)過PCA后的特征數(shù)為128時(shí),測(cè)試集的準(zhǔn)確率最高,為55.2%.
圖6 經(jīng)過PCA后的特征數(shù)與測(cè)試集準(zhǔn)確率的關(guān)系(PCA+SVM)Fig.6 The relationship between the number of components after PCA and the accuracy on test set(PCA+SVM)
圖7為使用PCA和SVM相結(jié)合的分類模型時(shí),特征數(shù)為128時(shí)測(cè)試集的混淆矩陣.可以看到,在判斷數(shù)據(jù)是否異常時(shí)(二分類),模型在測(cè)試集上的準(zhǔn)確率為99.4%;在判斷數(shù)據(jù)為外圈故障、內(nèi)圈故障、滾珠故障還是正常數(shù)據(jù)時(shí)(四分類),模型在測(cè)試集上的準(zhǔn)確率為57.7%;而到進(jìn)一步的具體故障(十分類)時(shí),模型在測(cè)試集上的準(zhǔn)確率為55.2%.對(duì)比可知,經(jīng)過無監(jiān)督特征學(xué)習(xí)所得到量子“濾波器”的特征提取有助于模型對(duì)異常檢測(cè)數(shù)據(jù)集分類性能的提高.
基于量子-經(jīng)典混合卷積神經(jīng)網(wǎng)絡(luò)模型,本文給出了一種無監(jiān)督學(xué)習(xí)的特征學(xué)習(xí)方法.該方法的關(guān)鍵是利用K-mediods算法對(duì)訓(xùn)練得到的量子自編碼器進(jìn)行聚類,將得到的“質(zhì)點(diǎn)”作為量子-經(jīng)典混合神經(jīng)網(wǎng)絡(luò)的“濾波器”對(duì)數(shù)據(jù)進(jìn)行特征提取.由于每次只需要訓(xùn)練一個(gè)小型的量子自編碼器,可緩解當(dāng)前量子-經(jīng)典混合神經(jīng)網(wǎng)絡(luò)當(dāng)前難以大規(guī)模訓(xùn)練的問題.進(jìn)一步,本文通過軸承異常檢測(cè)問題驗(yàn)證了該方法的有效性.與PCA和SVM結(jié)合的模型相比,實(shí)驗(yàn)結(jié)果表明,基于無監(jiān)督學(xué)習(xí)的特征學(xué)習(xí)方法有助于提高分類模型的性能.需要說明的是,本文實(shí)驗(yàn)只用了一層“量子”卷積層,具有兩層及多層“量子”卷積層的混合卷積神經(jīng)網(wǎng)絡(luò)模型的性能有待進(jìn)一步研究.實(shí)際上該過程可以看作一個(gè)預(yù)訓(xùn)練的過程,可用于全監(jiān)督學(xué)習(xí)精調(diào)之前,從而節(jié)約量子計(jì)算資源.