劉天華
摘 要: 電子音樂具有獨(dú)特的節(jié)奏質(zhì)感,傳統(tǒng)電子音樂分類過程中,無法將多特征進(jìn)行融合式的分類。為此,設(shè)計(jì)基于多特征融合和神經(jīng)網(wǎng)絡(luò)的電子音樂分類模型。創(chuàng)建特征融合模塊,進(jìn)行自適應(yīng)特征融合,根據(jù)自適應(yīng)機(jī)制調(diào)整特征融合頻率;利用神經(jīng)網(wǎng)絡(luò)元承接融合特征因子,形成分布式的電子音樂多特征分類結(jié)構(gòu);利用電子音樂特頻效應(yīng)完成特征融合分類,實(shí)現(xiàn)電子音樂分類模型的構(gòu)建。實(shí)驗(yàn)數(shù)據(jù)表明,設(shè)計(jì)的電子音樂分類模型,能夠以特征融合方式進(jìn)行分類,并且分類結(jié)果十分精準(zhǔn)。
關(guān)鍵詞: 多特征融合; 神經(jīng)網(wǎng)絡(luò); 電子音樂; 分類模型; 自適應(yīng)多特征融合; 多層感知分類
中圖分類號(hào): TN919.3?34 文獻(xiàn)標(biāo)識(shí)碼: A 文章編號(hào): 1004?373X(2018)19?0173?04
Abstract: The electronic music has the unique rhythm feeling. Since the traditional electronic music classification can′t classify the multi?feature fusion, the electronic music classification model based on multi?feature fusion and neural network is designed. The feature fusion module is created to perform the adaptive feature fusion, and adjust the frequency of feature fusion according to the adaptive mechanism. The neural network cell is used to receive the fusion feature factors, so as to form the distributed multi?feature classification structure of electronic music. The special frequency effect of electronic music is adopted to complete the classification of feature fusion, and realize the construction of the electronic music classification model. The experimental data shows that the designed electronic music classification model can classify the feature fusion modes, and has accurate classification results.
Keywords: multi?feature fusion; neural network; electronic music; classification model; adaptive multi?feature fusion; multilayer perception classification
電子音樂分類被廣泛的應(yīng)用在各大音樂平臺(tái)之中,但是電子音樂自身的節(jié)奏感較強(qiáng),且特點(diǎn)識(shí)別不明顯,因此傳統(tǒng)的電子音樂分類方法無法進(jìn)行特征融合式的分類[1]。針對(duì)上述問題,本文設(shè)計(jì)基于多特征融合和神經(jīng)網(wǎng)絡(luò)的電子音樂分類模型。應(yīng)用多特征融合的方式創(chuàng)建特征識(shí)別模塊,對(duì)電子音樂進(jìn)行自適應(yīng)特征融合,使用自適應(yīng)機(jī)制進(jìn)行調(diào)整便于高校特征融合。通過神經(jīng)網(wǎng)絡(luò)承接融合后的特征因子,導(dǎo)入分布結(jié)構(gòu)進(jìn)行多層感知分類,利用電子音樂特頻效應(yīng)實(shí)現(xiàn)電子音樂分類模型的構(gòu)建。為了保證設(shè)計(jì)的有效性,模擬使用環(huán)境進(jìn)行仿真模擬實(shí)驗(yàn),試驗(yàn)結(jié)果表明,設(shè)計(jì)的電子音樂分類模型能夠以特征融合的方式進(jìn)行分類,并且分類結(jié)果十分精準(zhǔn)。
1.1 自適應(yīng)多特征融合
電子音樂的自適應(yīng)多特征融合過程實(shí)際上是一個(gè)篩選過程,當(dāng)電子音樂的背景節(jié)奏頻率發(fā)生劇烈變化時(shí),電子音效的特征以連續(xù)的形式發(fā)生變化,單獨(dú)多特征融合得到的特征結(jié)果非常的單一,無法進(jìn)行分類使用[2?3]。因此,本文使用自適應(yīng)機(jī)制將電子音樂進(jìn)行自適應(yīng)處理,處理后的特征音效變得十分具象,并且能夠提升分類過程中跟蹤性能,增加分類過程的精準(zhǔn)程度。當(dāng)電子音樂的特效進(jìn)行加持以后即使發(fā)生特征的轉(zhuǎn)變,由于自適應(yīng)機(jī)制的存在也會(huì)隨時(shí)地進(jìn)行追蹤判定[4?5]。自適應(yīng)機(jī)制識(shí)別后的電子音樂就像是被去掉包裝的商品方便辨認(rèn),多特征融合過程好比是將去包裝的商品進(jìn)行組裝的過程,但是還有別于機(jī)械化的組裝。如圖1所示為本文設(shè)計(jì)的自適應(yīng)多特征融合流程圖多特征融合過程中一定要進(jìn)行特征互補(bǔ)處理。如果電子音樂上存在差分梯度,那么按照差分梯度的大小進(jìn)行互補(bǔ)處理;如果電子音頻的特征不是十分明顯,采用自適應(yīng)對(duì)接的方式進(jìn)行互補(bǔ)處理。每次對(duì)互補(bǔ)特征進(jìn)行記錄,這樣可從不同方面對(duì)電子音樂的特征進(jìn)行表達(dá)融合[6?7]。高音和低音對(duì)多特征融合過程中影響比較明顯,高音中不同音頻呈現(xiàn)的融合特征也是不同的。從不同的層面對(duì)電子音樂效果進(jìn)行特征的采集提取,能夠保證融合方式的充分程度。特征融合最大的好處能夠?qū)㈦娮右魳返奶卣鬟M(jìn)行一體化,電子音樂一般在副歌的部分都是忽然高音突然低音。進(jìn)行融合的電子音樂,是一個(gè)平穩(wěn)的有旋律波動(dòng)的音樂[8],在自適應(yīng)機(jī)制下,特征融合后的音律凸顯程度是標(biāo)準(zhǔn)化的結(jié)果,這樣才能夠進(jìn)行分布式的分類。
1.2 自適應(yīng)更新機(jī)制
經(jīng)過自適應(yīng)多特征融合的電子音樂其特征音效發(fā)生明顯的變化,但是隨著音樂的推進(jìn),特征也會(huì)隨之發(fā)生改變,需要對(duì)跟蹤的音律進(jìn)行實(shí)時(shí)更新,才能滿足全部特征融合過程。自適應(yīng)更新機(jī)制采用線性插值方法進(jìn)行更新,能夠保留電子音樂在之前融合特征基礎(chǔ)上進(jìn)行融合,同時(shí)也可以及時(shí)將最新采集的調(diào)整導(dǎo)入特征融合機(jī)制中。但是當(dāng)電子音頻出現(xiàn)有規(guī)律的重復(fù)時(shí),或者雙特征同時(shí)顯現(xiàn)時(shí),會(huì)出現(xiàn)錯(cuò)誤特征的融入,隨著特征融合不斷累積,最終導(dǎo)致音頻特征融合失敗[9]。本文通過自適應(yīng)更新機(jī)制,進(jìn)行實(shí)時(shí)的更新融合以及監(jiān)測(cè)。
為了保證更新音頻的特征是正確的,大多數(shù)模型都會(huì)使用跟蹤算法或是對(duì)照的形式進(jìn)行檢測(cè),通過對(duì)多特征音頻的實(shí)時(shí)跟蹤,來檢測(cè)融合中特征是否存在重復(fù)的現(xiàn)象。但是經(jīng)過自適應(yīng)處理后融合特征是無法進(jìn)行跟蹤計(jì)算或者是對(duì)照檢測(cè)的[2]。因此,本文使用濾波響應(yīng)值的形式有效反映出特征融合的結(jié)果是否重復(fù)。當(dāng)音頻特征再次融合了特征屬性時(shí),濾波響應(yīng)值會(huì)產(chǎn)生極限最小值;當(dāng)雙向特征被默認(rèn)時(shí)會(huì)出現(xiàn)極限最大值,濾波響應(yīng)值的峰值附近會(huì)產(chǎn)生相應(yīng)的偽峰值,說明多特征融合中的特征融合點(diǎn)不夠突出。
多層感知特征分類過程中,應(yīng)用神經(jīng)網(wǎng)絡(luò)多層感知器(Multilayer Perceptron,MLP) [10]將分類過程分為三個(gè)層面:導(dǎo)入層、分類層(一層或者多層)及輸出層。神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)分類框架中包含神經(jīng)元,能夠承接特征融合因子,能夠解決單層感知分類中不能解決的線性分類問題,其既能夠以多特征的形式進(jìn)行分類,又能夠體現(xiàn)多種分類路徑。設(shè)計(jì)的多層感知特征分類神經(jīng)網(wǎng)結(jié)構(gòu)圖如圖2所示。
導(dǎo)入層神經(jīng)元接收到融合后的特征融合因子后,分類層和輸出層的每一個(gè)神經(jīng)元之間相鄰的屬相是相同的,并且是互動(dòng)式連接,但是所在同一層的全部神經(jīng)元是相互獨(dú)立的。如圖2所示,箭頭表示神經(jīng)元間的連接特征因子傳輸方向,并且每個(gè)特征因子都有特定的連接權(quán)值[11?12]。分類層中的特定因子在分類層中進(jìn)行多項(xiàng)分類,按照不同的特征特點(diǎn)分配到不同的神經(jīng)元中,假設(shè)每個(gè)神經(jīng)元中只能承接一個(gè)特征因子,在輸出層的調(diào)用過程中調(diào)用的是神經(jīng)元的權(quán)值,但是輸出的卻是神經(jīng)元承載的特征因子[13]。神經(jīng)網(wǎng)絡(luò)多層感知器用于同特征因子的分類,其導(dǎo)入神經(jīng)元個(gè)數(shù)與輸出神經(jīng)元的層數(shù)相同時(shí),輸出特征因子個(gè)數(shù)將會(huì)通過神經(jīng)網(wǎng)絡(luò)多層感知器進(jìn)行多層分離。分類層中的每一項(xiàng)神經(jīng)元都是獨(dú)立個(gè)體,但是連接路徑是不同的,其能夠有效地摒棄雙向特征因子的分類過程。
電子音樂分類本質(zhì)上是一種模式分類過程。本文設(shè)計(jì)的電子音樂分類模型采用的模型結(jié)構(gòu)如圖3所示。
從圖3可以看出,電子音樂分類模型主要包括以下幾個(gè)功能模塊:電子音樂特征采集模塊、多特征識(shí)別模塊、特征融合分類模塊以及分類輸出模塊。電子音樂特征采集模塊將電子音樂特征進(jìn)行采集,并對(duì)電子音樂進(jìn)行特征處理,過濾掉其中的非特征因子及參雜因子,并對(duì)電子音樂進(jìn)行除分幀以外的特征采集處理工作。多特征識(shí)別模塊能夠?qū)㈦娮右魳返奶卣饕蜃舆M(jìn)行導(dǎo)入,將關(guān)鍵特征因子進(jìn)行標(biāo)記,在降低參雜因子的同時(shí)對(duì)特征進(jìn)行融合。特征融合分類模塊能夠?qū)⑻崛〉奶卣饕蜃舆M(jìn)行承接,將每種特征因子以不同的分類特征進(jìn)行導(dǎo)入,神經(jīng)網(wǎng)絡(luò)多層感知器能夠?qū)﹄p向特征分類結(jié)果進(jìn)行分離,以此來辨別雙向分類過程。
為了驗(yàn)證設(shè)計(jì)的基于多特征融合和神經(jīng)網(wǎng)絡(luò)的電子音樂分類模型的有效性,設(shè)計(jì)對(duì)比仿真試驗(yàn)。試驗(yàn)一共進(jìn)行2次,分別測(cè)試模型的特征融合能力以及特征分類結(jié)果。為了保證試驗(yàn)的有效性,使用傳統(tǒng)的電子音樂分類方法與本設(shè)計(jì)的電子音樂分類模型進(jìn)行比較,觀察試驗(yàn)結(jié)果。實(shí)驗(yàn)過程中需要對(duì)基本試驗(yàn)參數(shù)進(jìn)行設(shè)定,其實(shí)驗(yàn)參數(shù)設(shè)定結(jié)果如表1所示。
4.1 數(shù)據(jù)準(zhǔn)備
實(shí)驗(yàn)數(shù)據(jù)的準(zhǔn)備過程中,對(duì)試驗(yàn)數(shù)據(jù)進(jìn)行隨機(jī)的搭配,本次實(shí)驗(yàn)需要進(jìn)行兩組試驗(yàn)對(duì)比,因此在試驗(yàn)數(shù)據(jù)配比上比較繁雜。電子音樂分類過程中,選用不同類型的電子音樂作為試驗(yàn)樣品,以某音樂平臺(tái)為實(shí)驗(yàn)數(shù)據(jù)平臺(tái)進(jìn)行試驗(yàn)。特征融合能力試驗(yàn)隨機(jī)選用10首電子音樂進(jìn)行特征融合的對(duì)比。
4.2 多特征融合試驗(yàn)
本文設(shè)計(jì)的電子音樂分類模型與傳統(tǒng)電子音樂分類方法對(duì)比結(jié)果如表2所示。多特征融合過程中試驗(yàn)數(shù)據(jù)隨機(jī)進(jìn)行搭配,通過多特征融度能夠看出,本文設(shè)計(jì)的多特征融合方式在高極限融合程度上能夠做到80%以上,足以說明已經(jīng)能夠?qū)υ囼?yàn)中的電子音樂的特征進(jìn)行融合采集,并且使用的電子音樂數(shù)量多于傳統(tǒng)分類方法。因此在多特征融合試驗(yàn)中本文設(shè)計(jì)的電子音樂分類模型表現(xiàn)較好。
從圖4可以看出,本文設(shè)計(jì)的電子音樂分類模型的融合適用度明顯好于傳統(tǒng)電子音樂分類方法。本文的電子音樂分類模型融合適用度呈現(xiàn)規(guī)律的變化,沒有明顯的異常痕跡;但是傳統(tǒng)電子音樂分類方法的融合適用度存在異常外延。融合適用度能夠反映電子音樂分類過程的特征融合率,隨著更新機(jī)制的使用不斷出現(xiàn)規(guī)律性的變化,但是異常情況說明特征融合程度不佳。
4.3 特征分類試驗(yàn)
通過圖5可以看出,一共有5條辨識(shí)分類數(shù)據(jù)值數(shù)據(jù)線,其中Ⅲ為標(biāo)準(zhǔn)辨識(shí)分類數(shù)據(jù)值數(shù)據(jù)線,標(biāo)準(zhǔn)線以上的數(shù)據(jù)為有效數(shù)據(jù),以下的為可用數(shù)據(jù),直線表示無分類偏差,曲線表示存在分類偏差。觀察圖5可以發(fā)現(xiàn)本文設(shè)計(jì)的電子音樂分類模型全部在標(biāo)準(zhǔn)線以上,并且全部都是直線說明,沒有分類數(shù)據(jù)偏差產(chǎn)生。
分類輸出率對(duì)比結(jié)果如圖6所示。分類輸出率是一項(xiàng)輸出值,能夠從側(cè)面反映出電子音樂分類過程,沒有經(jīng)過多特征分類處理的數(shù)據(jù)無法進(jìn)行輸出,同時(shí)分類不精確的數(shù)據(jù)也會(huì)被隔離,不會(huì)進(jìn)行輸出。觀察圖6可以看出,本文設(shè)計(jì)的電子音樂分類模型其分類輸出率明顯高于傳統(tǒng)電子音樂分類方法,說明設(shè)計(jì)的電子音樂分類模型具備較高的多特征分類能力。
本文設(shè)計(jì)基于多特征融合和神經(jīng)網(wǎng)絡(luò)的電子音樂分類模型,使用多特征融合對(duì)電子音樂進(jìn)行特征處理,通過神經(jīng)網(wǎng)絡(luò)進(jìn)行有效分類。試驗(yàn)數(shù)據(jù)表明設(shè)計(jì)的電子音樂分類模型具有較高的特征分類能力。
參考文獻(xiàn)
[1] 魏曉玲,劉明,苑新,等.基于多特征融合與卷積神經(jīng)網(wǎng)絡(luò)的房顫?rùn)z測(cè)[J].激光雜志,2017,38(5):176?179.
WEI Xiaoling, LIU Ming, YUAN Xin, et al. Atrial fibrillation detection based on multi?feature fusion and convolution neural network [J]. Laser journal, 2017, 38(5): 176?179.
[2] 郝睿,徐俊峰,王慶寶,等.基于BP神經(jīng)網(wǎng)絡(luò)的多特征融合變化檢測(cè)方法[J].海洋測(cè)繪,2016,36(1):79?82.
HAO Rui, XU Junfeng, WANG Qingbao, et al. Change detection method using multi?feature fusion based on BP neural network [J]. Hydrographic surveying and charting, 2016, 36(1): 79?82.
[3] 劉光達(dá),王燦,李明佳,等.基于多特征和BP神經(jīng)網(wǎng)絡(luò)的腦?機(jī)接口研究[J].電子技術(shù)應(yīng)用,2017,43(9):72?75.
LIU Guangda, WANG Can, LI Mingjia, et al. Research of brain?computer interface based on multi?feature integration and BP neural network [J]. Application of electronic technique, 2017, 43(9): 72?75.
[4] 蔣婷,沈旭東,陸偉,等.基于多特征融合的人臉顏值預(yù)測(cè)[J].網(wǎng)絡(luò)新媒體技術(shù),2017,6(2):7?13.
JIANG Ting, SHEN Xudong, LU Wei, et al. The prediction of facial beauty based on multi?feature fusion [J]. Journal of network new media, 2017, 6(2): 7?13.
[5] 梁銳,朱清新,廖淑嬌,等.基于多特征融合的深度視頻自然語言描述方法[J].計(jì)算機(jī)應(yīng)用,2017, 37(4):1179?1184.
LIANG Rui, ZHU Qingxin, LIAO Shujiao, et al. Deep natural language description method for video based on multi?feature fusion [J]. Journal of computer applications, 2017, 37(4): 1179?1184.
[6] 趙偉.基于BP神經(jīng)網(wǎng)絡(luò)的音樂情感分類及評(píng)價(jià)模型[J].電子設(shè)計(jì)工程,2015,23(8):71?74.
ZHAO Wei. Music emotion classification and evaluation model based on BP neural network [J]. Electronic design engineering, 2015, 23(8): 71?74.
[7] 王鐵君,王維蘭.基于多特征融合的唐卡圖像法器識(shí)別方法[J]. 計(jì)算機(jī)工程,2016,42(3):198?203.
WANG Tiejun, WANG Weilan. Religious ritual implement re?cognition method in Thangka image based on multi?feature fusion [J]. Computer engineering, 2016, 42(3): 198?203.
[8] 吳冬梅,李白萍,沈燕,等.基于多特征融合的煙霧檢測(cè)[J].圖學(xué)學(xué)報(bào),2015,36(4):587?592.
WU Dongmei, LI Baiping, SHEN Yan, et al. Smoke detection based on multi?feature fusion [J]. Journal of graphics, 2015, 36(4): 587?592.
[9] 張鍵鋒,王勁.基于文本挖掘與神經(jīng)網(wǎng)絡(luò)的音樂風(fēng)格分類建模方法[J].電信科學(xué),2015,31(7):86?91.
ZHANG Jianfeng, WANG Jin. A classification method of music style based on text mining and neural network [J]. Telecommunications science, 2015, 31(7): 86?91.
[10] XU Qingyong, JIANG S, HUANG W, et al. Image classification algorithm for deep belief network based on multi?feature fusion [J]. Computer engineering, 2015, 41(11): 99?120.
[11] YANG W, WEI L, ZHANG Z, et al. Road surface condition classification method based on multi?feature fusion and SVM classifier [J]. An international journal of research & surveys, 2015, 7(9): 90?134.
[12] LIU F, CHEN Z, CHAI J. A new multi?focus image fusion method based on deep neural network model [J]. Journal of Shandong University, 2016, 45(4): 89?130.
[13] SONG S, MIAO Z. Research on vehicle type classification based on spatial pyramid representation and BP neural network [C]// 2015 International Conference on Image and Graphics. [S.l.]: Springer, 2015: 132?144.