胡站偉 焦立國 徐勝金 黃 勇
?
基于多尺度重采樣思想的類指數(shù)核函數(shù)構(gòu)造
胡站偉①②焦立國③徐勝金*①黃 勇②
①(清華大學(xué)航空航天學(xué)院流體力學(xué)所 北京 100084),②(中國空氣動(dòng)力研究與發(fā)展中心 綿陽 621000),③(大慶地區(qū)防洪工程管理處 大慶 163311)
該文按照多尺度重采樣思想,構(gòu)造了一種類指數(shù)分布的核函數(shù)(ELK),并在核回歸分析和支持向量機(jī)分類中進(jìn)行了應(yīng)用,發(fā)現(xiàn)ELK對局部特征具有捕捉優(yōu)勢。ELK分布僅由分析尺度決定,是單參數(shù)核函數(shù)。利用ELK對階躍信號和多普勒信號進(jìn)行Nadaraya-Watson回歸分析,結(jié)果顯示ELK降噪和階躍捕捉效果均優(yōu)于常規(guī)Gauss核,整體效果接近或優(yōu)于局部加權(quán)回歸散點(diǎn)平滑法(LOWESS)。多個(gè)UCI數(shù)據(jù)集的SVM分析顯示,ELK與徑向基函數(shù)(RBF)分類效果相當(dāng),但比RBF具有更強(qiáng)的局域性,因此具有更細(xì)致的分類超平面,同時(shí)分類不理想時(shí)可能產(chǎn)生更多的支持向量。對比而言,ELK對調(diào)節(jié)參數(shù)敏感性低,這一性質(zhì)有助于減少參數(shù)優(yōu)選的計(jì)算量。單參數(shù)的ELK對局域特征的良好捕捉能力,有助于這類核函數(shù)在相關(guān)領(lǐng)域得到推廣。
多尺度重采樣;Nadaraya-Watson回歸;支持向量機(jī);類指數(shù)核函數(shù)
1 引言
核方法(kernel method)自二十世紀(jì)90年代引入模式識別與機(jī)器學(xué)習(xí)后,取得了巨大的成功,在信號回歸、特征識別、聚類分析、運(yùn)動(dòng)檢測等非參數(shù)機(jī)器學(xué)習(xí)領(lǐng)域有廣泛的應(yīng)用,其中支持向量機(jī)(Support Vector Machine, SVM)的發(fā)展尤為迅速。核方法的研究主要集中在兩方面:(1)核方法與常規(guī)的線性學(xué)習(xí)方法的結(jié)合,如基于核函數(shù)的主成分分析(KPCA)[5];(2)核方法中核函數(shù)的構(gòu)造與核參數(shù)的優(yōu)選。本文對(2)進(jìn)行研究。
核函數(shù)的構(gòu)造通常有3種途徑[6,7]:改造常用分布函數(shù)、構(gòu)造核函數(shù)、組合核函數(shù)。一些應(yīng)用通過構(gòu)造核矩陣來代替一個(gè)顯式的核函數(shù),來實(shí)現(xiàn)對具體問題核參數(shù)調(diào)整的要求[8]。常見核函數(shù)大多基于線性、多項(xiàng)式、高斯分布、樣條函數(shù)等分布,通過改造使其性質(zhì)滿足Mercer定理要求。構(gòu)造核函數(shù)針對字符、圖像、生物信息等特殊應(yīng)用,以實(shí)現(xiàn)對信息的高效提取。組合核函數(shù)原則上可實(shí)現(xiàn)核函數(shù)程序化優(yōu)化,組合形式包括不同適用范圍核函數(shù)的組合、不同局域性的核函數(shù)組合、不同尺度的同一核函數(shù)的多分辨組合等形式[9]。
多分辨組合的小波核函數(shù),使用多尺度小波的非負(fù)線性組合,實(shí)現(xiàn)對某一空間上目標(biāo)函數(shù)的高精度逼近[10]。借鑒這一思想,對空間上的目標(biāo)函數(shù)直接進(jìn)行多尺度重采樣,也可以獲得對目標(biāo)函數(shù)的穩(wěn)健估計(jì);將這一過程使用單一核函數(shù)進(jìn)行描述,可使多分辨組合核函數(shù)參數(shù)優(yōu)化的計(jì)算量顯著降低。
以提升信號局部信噪比為分析樣本,通過對瞬態(tài)信號進(jìn)行時(shí)域多尺度重采樣,本文構(gòu)造了一種以分析尺度為唯一參量的類指數(shù)核函數(shù)(Exponential- Like Kernel, ELK),并通過數(shù)值仿真來討論該核函數(shù)在回歸分析和SVM中的適應(yīng)性。
本文首先對局部回歸和SVM這兩種核方法簡單介紹;然后,通過引入時(shí)域多尺度重采樣的概念,導(dǎo)出了ELK。利用ELK對兩類典型非穩(wěn)態(tài)信號進(jìn)行了回歸處理,分析了ELK的降噪和瞬態(tài)信號捕捉性能。通過對比幾組UCI標(biāo)準(zhǔn)數(shù)據(jù)的SVM分類效果,討論了ELK的參數(shù)敏感特征;最后,對ELK的應(yīng)用和局限進(jìn)行了討論。
2 兩種核方法的介紹
2.1 局部回歸
信號回歸中一項(xiàng)重要內(nèi)容就是對瞬態(tài)信號的提取[11]。在常見的樣條平滑、正交回歸等方法中,大多隱含了對數(shù)據(jù)分布形式的強(qiáng)制擬合(使用樣條函數(shù)、小波基函數(shù)等),容易引起信號畸變。局部回歸是一類易于保留信號局域特征的非參數(shù)回歸分析,主要包括:核回歸分析、局部多項(xiàng)式回歸分析、穩(wěn)健回歸分析等方法[12]。N-W(Nadaraya-Watson)回歸在核回歸方法中發(fā)展歷史較早,形式簡單、便于分析[13],其核概率密度分布加權(quán)累加形式為
常見的核函數(shù)包括:均勻核函數(shù)、高斯(Gauss)核函數(shù)、三角核函數(shù)等[12]。核回歸分析的研究表明,相對于核函數(shù)的選擇,更為關(guān)鍵的是分析帶寬的選取[2,4]。
2.2 SVM
SVM是由文獻(xiàn)[14,15]在20世紀(jì)末提出的一種基于統(tǒng)計(jì)學(xué)習(xí)理論的新型機(jī)器學(xué)習(xí)方法。在SVM方法中,高效和具有良好擴(kuò)展性的核函數(shù)的選擇,是模型復(fù)雜度和魯棒性的關(guān)鍵[14,16]。方法中核參數(shù)選擇算法包括:grid search 暴力搜索方法,啟發(fā)式GA, PSO方法等[17]。恰當(dāng)選擇核函數(shù)及其參數(shù),或者尋求對低參數(shù)敏感性的核函數(shù)以降低參數(shù)計(jì)算成本也是該類問題的研究熱點(diǎn)[16]。
SVM常見的核函數(shù)類型有:線性、多項(xiàng)式、徑向基函數(shù)(Radial Basis Function, RBF)和Sigmoid函數(shù)、樣條核函數(shù)等。其中,RBF具有高維數(shù)映射能力和參數(shù)相對簡單的特點(diǎn),常被用作未知數(shù)據(jù)集處理的默認(rèn)核函數(shù)。RBF的形式為
SVM算法在機(jī)器學(xué)習(xí)的幾大領(lǐng)域:模式識別、回歸估計(jì)、概率密度函數(shù)估計(jì)等都有應(yīng)用。特別地用于分類的模式識別方面,對于手寫數(shù)字識別、語音識別、人臉圖像識別、文章分類等問題,SVM算法在精度上達(dá)到甚至優(yōu)于其他傳統(tǒng)算法。
3 方法介紹
過采樣技術(shù)可以有效地增加信噪比,但在采樣樣本既定的情況下,充分并合理利用有限的采樣點(diǎn),有效減小估計(jì)偏差,是信號識別的重要內(nèi)容。借鑒微弱信號識別中采用的取樣積分方法的思想[21],可以對信號進(jìn)行多尺度重采樣,并利用多個(gè)采樣樣本的組合來提高信噪比。
3.1多尺度重采樣
對于同一個(gè)弱的脈沖信號,相同背景噪音下多探測器同步測量,其累加結(jié)果會(huì)類似于取樣積分的效果。按照這一思路,可以將一個(gè)高頻采樣信號(),人工分為多組較低頻率的采樣信號x(t),構(gòu)成重采樣信號組。
從采樣間隔的設(shè)定方法上區(qū)分,重采樣可分為定間隔的采樣法dTc、間隔遞增的采樣法dTn兩種。dTc方法與常規(guī)的降采樣過程類似,對信號總長度為的原始數(shù)據(jù),從任意一點(diǎn)開始,以固定的間隔選取樣本點(diǎn)就可以獲得一組單尺度重采樣數(shù)據(jù)。記原始樣本間隔為, dTc方法可表述為
圖1展示了對含噪矩形階躍信號,不同重采樣方法的效果。原始信號總長度201,脈沖位于時(shí)間序列中部、寬度21,信噪比()設(shè)為5.6 dB??梢钥吹?,dTc方法各樣本尺度相同,在階躍點(diǎn)附近失真顯著。dTn不同尺度樣本對階躍特征的捕捉效果存在差異,且數(shù)據(jù)樣本間的采樣點(diǎn)數(shù)不同,在樣本累加處理上需要進(jìn)行樣本重構(gòu)。以下重點(diǎn)討論dTn方法。
圖 1 多尺度重采樣點(diǎn)示意圖
3.2 時(shí)域多尺度重采樣構(gòu)造的窗函數(shù)
多尺度重采樣數(shù)據(jù)重構(gòu)時(shí),需要充分利用瞬態(tài)信號在時(shí)域上影響范圍有限的特征??紤]局部長度為的一段信號進(jìn)行采樣,按照dTn方法共取組多尺度重采樣樣本,即存在個(gè)有效數(shù)據(jù)點(diǎn)。某一時(shí)刻多尺度重采樣樣本累加結(jié)果可表示為
該權(quán)函數(shù)端點(diǎn)值非0,關(guān)于中心對稱,且自然滿足歸一化,如圖2(a)。由于該分布的形狀與指數(shù)分布相似,因此將該分布記作類指數(shù)(Exponential Like, EL)分布。EL分布在中心區(qū)具有局部極大,近似指數(shù)分布;在遠(yuǎn)端迅速衰減,更接近高斯分布。
圖 2 ELK分布與高斯分布、指數(shù)分布之間的對比
以上分析中,分別提到基于dTc的采樣平均(記作dTc AVG)、基于dTn的線性插值(dTn LInter)和基于dTn的原始信號填充(dTn OSP)3種方法??梢詮姆蹈?、階躍位置逼近和降噪效果3個(gè)方面對比這幾種方法的降噪處理效果。根據(jù)圖3,最大采樣樣本尺度越窄,降噪效果越差,但對于階躍捕捉越準(zhǔn)確。具體而言,dTc AVG方法造成過度平滑,在幅值跟蹤和邊緣檢測方面較差;dTn LInter方法在幅值跟蹤、階躍位置逼近方面均不理想;dTn OSP方法各指標(biāo)均最佳,但隨分析尺度增加,其階躍位置也會(huì)產(chǎn)生模糊。
圖 3 不同降噪方法的效果對比
3.3 類指數(shù)分布核函數(shù)
式(9)所示加權(quán)函數(shù),滿足式(2)的核函數(shù)條件,因此可以稱之為類指數(shù)分布核函數(shù)(ELK)。 用于SVM時(shí),不關(guān)心歸一化,也可以表述為基于向量空間范數(shù)的ELK形式:
由于ELK是對稱正分布,ELK的Gram矩陣是正定的。使用數(shù)值仿真可以證明,ELK對于任意兩個(gè)維向量映射的核函數(shù)矩陣,都是對稱半正定的。按照Mercer定理[22],ELK是一個(gè)有效核函數(shù)。從分布上看,ELK與高斯核一樣,同屬于徑向?qū)ΨQ核函數(shù),計(jì)算復(fù)雜程度一致。由于ELK具有強(qiáng)局域性,作用于核方法時(shí)可以獲得精細(xì)的局部特征。
4 類指數(shù)分布函數(shù)回歸分析
對于不同的信號類型,不同核函數(shù)在最優(yōu)的帶寬選擇下會(huì)有近似的結(jié)果,但核函數(shù)對于帶寬的敏感性會(huì)有所不同。核回歸分析中常用Gauss核,以下即對ELK與Gauss核在N-W回歸中的效果進(jìn)行對比。為增強(qiáng)對比的有效性,引入局部加權(quán)回歸散點(diǎn)平滑法(LOWESS)作為參照。
模擬分析信號采用Matlab軟件的Wnoise函數(shù)產(chǎn)生,主要討論包括階躍和多普勒兩種典型信號。為保證對瞬態(tài)細(xì)節(jié)顯示,信號的長度選擇為1024點(diǎn)。通過改變原始信號SNR、調(diào)整核函數(shù)的帶寬進(jìn)行分析。模擬信號回歸估計(jì)效果的評估,采用均方誤差(Mean Squared Error, MSE)??紤]到N-W回歸的邊界效應(yīng),設(shè)計(jì)歸一化MSE并不引入邊界部分的影響:
此外,為了衡量算法對于階躍量的擬合效果,構(gòu)造階躍平方誤差(Step Squared Error, SSE)函數(shù)。記,階躍平方誤差僅包含強(qiáng)階躍信號:
4.1 階躍信號回歸分析
圖4 含噪階躍信號不同回歸方法的參數(shù)影響對比
ELK的N-W回歸結(jié)果,整體上效果優(yōu)于以上兩種方法。除了在局部小帶寬低SNR的情況下,ELK由于具有對局部的高加權(quán)因子的性質(zhì),得到了與LOWESS方法相似的高M(jìn)SE。這一現(xiàn)象的成因在于低SNR信號回歸中,需要較大樣本才能取得相對較好的回歸效果,因此需要選擇較大的帶寬。
圖 5 含噪階躍信號不同回歸方法的效果對比
4.2 多普勒信號回歸分析
對于含噪多普勒信號,SNR和帶寬對回歸效果的整體影響與階躍信號類似(圖略)。同樣以各算法最優(yōu)帶寬對含噪多普勒信號進(jìn)行回歸,其效果對比參見圖5(b)。
5 類指數(shù)分布函數(shù)SVM性能分析
不同核函數(shù)對SVM的分類性能會(huì)有影響,同時(shí)核函數(shù)參數(shù)也對分類問題的效果影響顯著[23]。在考察在分類問題中不同核函數(shù)的性質(zhì)時(shí),均選擇C-SVC(C-Support Vector Classification)算法,并采用SMO求解;核函數(shù)效果檢驗(yàn)使用多組UCI 數(shù)據(jù)集。
5.1 ELK用于SVM時(shí)的分類超平面對比
以fisheriris的部分?jǐn)?shù)據(jù)為例[24],以花萼寬度和花萼長度對兩類(Verg., Vers.)鳶尾花進(jìn)行分類,直觀考察不同核函數(shù)的分類特征。選擇默認(rèn)罰函數(shù),對參數(shù)的影響進(jìn)行了分析(圖略)。兩個(gè)核函數(shù)在各自的最優(yōu)參數(shù)下最大失誤率相當(dāng),參數(shù)變化范圍內(nèi)ELK分類效果整體上更接近最優(yōu)。圖6給出了最優(yōu)時(shí)支持向量分布,可以看出ELK相對于RBK,對于同樣的參數(shù),其分類超平面更為細(xì)致,表明具有顯著的局域性。
圖 6 RBK與ELK用于fisheriris數(shù)據(jù)分類
5.2 ELK在SVM中的性能對比
在核函數(shù)效果的對比驗(yàn)證中,使用UCI數(shù)據(jù)庫的fisheriris, glass, heart, wine數(shù)據(jù)集[24],進(jìn)行分類效果檢驗(yàn)。數(shù)據(jù)集的參數(shù)描述見表1。分類計(jì)算使用LibSVM工具箱。為了考察核函數(shù)的性能,罰函數(shù)和部分參數(shù)的使用網(wǎng)格搜索法對最優(yōu)核參數(shù)進(jìn)行選擇,并使用5-折交叉驗(yàn)證正確率(5-Cross Validation Accuracy, 5-CVA)、使用支持向量數(shù)(number of Support Vector, nSVs)來估計(jì)LOO (Leave-One-Out) 誤差上限等方法對最優(yōu)參數(shù)下不同核函數(shù)的效果進(jìn)行對比。仿真過程中,首先對各參變量進(jìn)行歸一化預(yù)處理,防止出現(xiàn)參數(shù)特征對分類效果的影響。
表1 各UCI數(shù)據(jù)集使用不同核函數(shù)的最優(yōu)分類效果
各數(shù)據(jù)集最佳分類正確率下,不同核函數(shù)的參數(shù)值及支持向量數(shù)見表1。不同數(shù)據(jù)集下,ELK參數(shù)整體上量級更為接近,因此在參數(shù)選擇上可以以較小的代價(jià)進(jìn)行參數(shù)優(yōu)選。從5-CVA效果看, ELK比RBF具有相當(dāng)或者更優(yōu)的結(jié)果。這一結(jié)果與ELK對于局部特征的顯著捕捉能力有關(guān),這一點(diǎn)也體現(xiàn)在ELK在分類效果不良時(shí)所需要的支持向量數(shù)量遠(yuǎn)大于RBF的支持向量數(shù)量。支持向量增加會(huì)引起LOO誤差上限增大,也增加過擬合的風(fēng)險(xiǎn)。
圖7給出了不同參數(shù)組合下兩種核函數(shù)的對Iris分類準(zhǔn)確率分布。ELK最優(yōu)參數(shù)的分布區(qū)間相對集中,且在優(yōu)選區(qū)域內(nèi)罰函數(shù)的變化對分類準(zhǔn)度的影響相對較小,更多的影響到支持向量的數(shù)目。這一性質(zhì)有助于大大減少參數(shù)選擇所需的計(jì)算量。
圖 7 UCI數(shù)據(jù)集使用RBF和ELK的參數(shù)選擇效果對比
6 結(jié)論
通過對多尺度重采樣過程建模,從理論上導(dǎo)出了時(shí)域瞬態(tài)信號的局部加權(quán)函數(shù),并將這種具有顯著中心權(quán)重的正對稱分布函數(shù)發(fā)展為一種類指數(shù)分布核函數(shù)(ELK)。ELK既具有穩(wěn)定的強(qiáng)局域性,也在一定程度上可以感受大尺度范圍的影響。
ELK用于核回歸分析,在分析尺度樣本的規(guī)模,比Gauss核函數(shù)具有更好的信號降噪和局部階躍捕捉能力,綜合效果甚至優(yōu)于LOWESS方法。ELK用于SVM分析時(shí),比使用RBF時(shí)更為細(xì)致的分類超平面,整體上具有更佳的分類效果,但數(shù)據(jù)集分類不良時(shí)需要更多的支持向量。此外,ELK在一定區(qū)域內(nèi)對于罰函數(shù)的變化不敏感,有助于減少參數(shù)選擇所需的計(jì)算量。ELK對局域信號的捕捉能力,以及其形狀僅由分析尺度單參數(shù)決定的性質(zhì),使得該函數(shù)的尺度選擇上物理意義明確。這一性質(zhì)有助于這類核函數(shù)在其他諸如模式識別、聚類分析等領(lǐng)域的應(yīng)用中得到推廣。
[1] SMOLA A J and SCHLKOPF B. On a kernel-based method for pattern recognition, regression, approximation, and operator inversion[J]., 1998, 22(1): 211-231. doi: 10.1007/PL00013831.
[2] KOHLER M, SCHINDLER A, and SPERLICH S. A review and comparison of bandwidth selection methods for kernel regression [J]., 2014, 82(2): 243-274. doi: 10.1111/insr.12039.
[3] DAS D, DEVI R, PRASANNA S,Performance comparison of online handwriting recognition system for assamese language based on HMM and SVM modelling[J].&, 2014, 6(5): 87-95. doi: 10.5121/csit.2014.4717.
[4] HASTIE T and LOADER C. Local regression: Automatic kernel carpentry[J]., 1993, 8(2): 120-143. doi: 10.1214/ss/1177011002.
[5] Sch?lkopf B, Smola A, and Müller K R. Nonlinear component analysis as a kernel eigenvalue problem[J]., 1998, 10(5): 1299-1319. doi: 10.1162/ 089976698300017467.
[6] BUCAK S S, JIN R, and JAIN A K. Multiple kernel learning for visual object recognition: A review [J]., 2014, 36(7): 1354-1369. doi: 10.1109/TPAMI.2013.212.
[7] BACH F R, LANCKRIET G R, and JORDAN M I. Multiple kernel learning, conic duality, and the SMO algorithm[C]. Proceedings of the Twenty-first International Conference on Machine Learning, Banff, Canada, 2004: 1-6. doi: 10.1145/1015330.1015424.
[8] 吳濤, 賀漢根, 賀明科. 基于插值的核函數(shù)構(gòu)造[J]. 計(jì)算機(jī)學(xué)報(bào), 2003, 26(8): 990-996.
WU Tao, HE Hangen, and HE Mingke. Interpolation based kernel function’s construction[J]., 2003, 26(8): 990-996.
[9] JAIN P, KULIS B, and DHILLON I S. Inductive regularized learning of kernel functions[C]. Proceedings of the Advances in Neural Information Processing Systems, Vancouver, Canada, 2010: 946-954.
[10] ZHANG L, ZHOU W, and JIAO L. Wavelet support vector machine[J].,,,:, 2004, 34(1): 34-39. doi: 10.1109/TSMCB.2003.811113.
[11] NADARAYA E A. On estimating regression[J].&, 1964, 9(1): 141-142. doi: 10.1137/1109020.
[12] Wasserman L著, 吳喜之譯. 現(xiàn)代非參數(shù)統(tǒng)計(jì)[M]. 北京: 科學(xué)出版社, 2008: 163-179.
[13] WATSON G S. Smooth regression analysis[J].:,, 1964, 26(4): 359-372.
[14] CRISTIANINI N and SHAWE-TAYLOR J. An Introduction to Support Vector Machines and Other Kernel-based Learning Methods[M]. Cambridge: Cambridge University Press, 2000: 93-112.
[15] VLADIMIR V N and VAPNIK V. Statistical Learning Theory[M]. New York: Wiley, 1998: 293-394.
[16] CHANG C C and LIN C J. LIBSVM: A library for support vector machines[J]., 2011, 2(3): 27. doi: 10.1145 /1961189.1961199.
[17] REN Y and BAI G. Determination of optimal SVM parameters by using GA/PSO[J]., 2010, 5(8): 1160-1168. doi: 10.4304/jcp.5.8.1160-1168.
[18] SARAFIS I, DIOU C, and TSIKRIKA T. Weighted SVM from click through data for image retrieval[C]. 2014 IEEE International Conference on Image Processing (ICIP 2014), Paris, 2014: 3013-3017. doi: 10.1109/ICIP.2014.7025609.
[19] SONKA M, HLAVAC V, and BOYLE R. Image Processing, Analysis, and Machine Vision[M]. Kentucky: Cengage Learning, 2014: 257-749. doi: 10.1007/978-1-4899-3216-7.
[20] SELLAM V and JAGADEESAN J. Classification of normal and pathological voice using SVM and RBFNN[J]., 2014, 5(1): 1-7. doi: 10. 4236/jsip.2014.51001.
[21] 高晉占. 微弱信號檢測[M]. 北京: 清華大學(xué)出版社有限公司, 2004: 154-299.
GAO Jinzhan. Weak Signal Detection[M]. Beijing: Tsinghua University Press Ltd., 2004: 154-299.
[22] MERCER J. Functions of positive and negative type, and their connection with the theory of integral equations[J].,, 1909, 209(456): 415-446. doi: 10.1098/rsta.1909. 0016.
[23] MARRON J and CHUNG S. Presentation of smoothers: The family approach[J]., 2001, 16(1): 195-207. doi: 10.1007/s001800100059.
[24] LICHMAN M. UCI machine learning repository[OL]. http://archive.ics.uci.edu/ml. 2013.
Design of An Exponential-like Kernel Function Based on Multi-scale Resampling
Hu Zhanwei①②Jiao Liguo③Xu Shengjin①Huang Yong②
①(,,,100084,),②(&,621000,),③(,163311,)
Based on multi-scale resampling, an Exponential-Like Kernel (ELK) function is designed, and evaluated with local feature extraction in kernel regression and Support Vector Machine (SVM) classification. The ELK is a one-parameter kernel, whose distribution is controlled only by the resolution of analysis. With block and Doppler noisy signals, Nadaraya-Watson regression with ELK mainly shows more noise and step error than with Gaussian kernel, it also has better precision and is more robust than LOcally WEighted Scatterplot Smoothing (LOWESS). Data sets from the UCI Machine Learning Repository used in SVM test demonstrate that, ELK has nearly equal classification accuracy as RBF does, and its locality results in more detailed margin hyperplanes, in consequence, a big number of support vectors in low classification accuracy situation. Moreover, the insensitivity of ELK to the adjustive coefficient in kernel methods shows the potential to facilitate the parameter optimization progress. ELK, as a single parameter kernel with significant locality, is hopefully to be extensively used in relative kernel methods.
Multi-scale resampling; Nadaraya-Watson regression; Support Vector Machine (SVM); Exponential- Like Kernel (ELK) function
TN911.7
A
1009-5896(2016)07-1689-07
10.11999/JEIT151101
2015-09-25;改回日期:2016-05-03;網(wǎng)絡(luò)出版:2016-06-03
徐勝金 xu_shengjin@tsinghua.edu.cn
國家自然科學(xué)基金(11472158)
The National Natural Science Foundation of China (11472158)
胡站偉: 男,1984年生,工程師,博士生,研究方向?yàn)閷?shí)驗(yàn)流體力學(xué)、信號處理.
焦立國: 男,1970年生,高級工程師,研究方向?yàn)樾盘柼幚?、防洪工?
徐勝金: 男,1969年生,副教授,博士生導(dǎo)師,研究方向?yàn)閷?shí)驗(yàn)流體力學(xué)、流固耦合.
黃 勇: 男,1973年生,副研究員,研究方向?yàn)榱鲃?dòng)控制和動(dòng)力模擬.