国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于多分辨率時頻特征融合的聲學(xué)場景分類

2020-09-15 08:05楊吉斌張雄偉鄭昌艷
聲學(xué)技術(shù) 2020年4期
關(guān)鍵詞:時頻音頻卷積

姚 琨,楊吉斌,張雄偉,鄭昌艷,孫 蒙

(陸軍工程大學(xué),江蘇南京210007)

0 引 言

智能系統(tǒng)要想充分利用聲音信息,不僅要識別語音[1]和音樂[2]等單一的聲音信號,還要充分利用周圍環(huán)境中的聲音信息,聲學(xué)場景分類(Acoustic Scenes Classification, ASC)的目的就是利用周圍環(huán)境中的聲音信息對預(yù)先定義的有限場景類型進行分類。近幾年,ASC已經(jīng)成為聲學(xué)場景和事件的分類和檢測(Detection and Classification of Acoustic Scenes and Events, DCASE)挑戰(zhàn)賽中最熱門的任務(wù)之一[3-6],在智能穿戴設(shè)備的自動模式調(diào)整等方面有著廣泛的應(yīng)用前景。

ASC的目的是通過選擇一個語義標簽來描述音頻流表達的聲學(xué)環(huán)境,是機器學(xué)習(xí)中典型的單標簽分類任務(wù)。與一般的音頻分類任務(wù)類似,ASC任務(wù)的關(guān)鍵就在于模型設(shè)計和音頻信號特征選取兩個方面。

在特征選取方面,多采用音頻信號的二維時頻表示,時間軸以幀為單位構(gòu)造長幀,頻率軸為幀信號短時傅里葉變換的降維表示。其中最為典型的有梅爾頻率倒譜系數(shù)(Mel-Frequency Cepstral Coefficients, MFCC)[7]、對數(shù)梅爾子帶能量(Log Mel-band energies, LME)等特征。它們都是對音頻信號譜包絡(luò)的整體描述,同時經(jīng)梅爾濾波器處理過后符合人的聽覺感受,具有較好的區(qū)分度和魯棒性。

文獻[8]對場景音頻信號的聲譜圖進行非負矩陣分解(Non-negative Matrix Factorization, NMF),輸出一組激活函數(shù)。這組激活函數(shù)對基函數(shù)的貢獻進行編碼,從而對聲學(xué)場景的屬性進行建模。

在分類模型方面,由于 ASC是語音識別和音樂識別的拓展研究,在這些任務(wù)中廣泛使用的模型[9-10]也被應(yīng)用到ASC任務(wù)中,如隱馬爾可夫模型(Hidden Markov Model, HMM)、高斯混合模型(Gaussian Mixed Model, GMM)和支持向量機(Support Vector Machine, SVM)。近年來,由于深度神經(jīng)網(wǎng)絡(luò)對非線性問題強大的表征能力,在語音和圖像方面取得巨大的成功,人們開始把深度學(xué)習(xí)的方法應(yīng)用到了 ASC任務(wù)中來,包括深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network, DNN)、卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)、循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)等。

Eghbal-Zadeh等[11]提出了兩種方案并且包攬DCASE 2016中ASC任務(wù)的前兩名。第一種方案是用音頻信號左聲道、右聲道、兩聲道的均值和差值4種MFCC特征分別訓(xùn)練身份認證矢量(Identity Vector,i-vector),最后以分類得分的均值作為結(jié)果輸出。第二種方案是在第一種方案的基礎(chǔ)上,融合以聲譜圖為特征的CNN網(wǎng)絡(luò)。Zheng等[12]在對音頻信號進行短時傅里葉變換時,通過改變滑動窗的寬度、FFT的點數(shù)、窗的重疊量、降維的尺度等提取不同的聲譜圖特征,并融合常數(shù)Q變換(Constant Q Transform, CQT)特征訓(xùn)練CNN模型。Han等[13]以LME為基礎(chǔ),從左右聲道、左右聲道和或差的音頻中提取LME及單聲道諧波和沖擊響應(yīng)特征等,分別訓(xùn)練視覺幾何組(Visual Geometry Group, VGG)結(jié)構(gòu)的模型,最后取所有模型分類精度的均值作為最終輸出。

雖然以上方案都取得了較好的分類效果,但還存在以下幾個問題:

(1) 聲譜圖特征的維度過高,需要以更深層的網(wǎng)絡(luò)以及更大的數(shù)據(jù)量作為支撐,極大地耗費計算資源,且含有大量的冗余信息,類別間的區(qū)分度也不夠高。

(2) 單一的低維度特征對音頻信號的表征能力有限,現(xiàn)有的特征融合方法可解釋性較差。

(3) 分類模型不具針對性,將在圖像任務(wù)中表現(xiàn)較好的模型(如VGG等)進行簡單的移植,并不能考慮到ASC任務(wù)中輸入聲音特征的時頻結(jié)構(gòu)。

為解決以上問題,本文以 CNN為基本識別模型,在時頻特征基礎(chǔ)上進行了包絡(luò)/結(jié)構(gòu)特征融合、適應(yīng)時頻結(jié)構(gòu)特征的多分辨率模型設(shè)計等融合處理。模型方面,本文基于CNN模型提出一種適應(yīng)聲音時頻結(jié)構(gòu)的多分辨率卷積池化方案,并構(gòu)造多分辨率卷積神經(jīng)網(wǎng)絡(luò)(Multi-resolution Convolutional Neural Network, MCNN)模型;特征選擇方面,采用低級包絡(luò)特征LME輔以高級結(jié)構(gòu)特征NMF,在特征表征能力增強的同時,數(shù)據(jù)量及冗余信息增加較少,從而在模型和特征兩方面共同完成對時頻特征的融合。在DCASE2017和DCASE2018數(shù)據(jù)集上進行實驗,結(jié)果驗證了本文提出方案的有效性。

1 方案框架

本文采用特征提取-模型分類的實現(xiàn)框架。聲音特征提取和模型分類系統(tǒng)的流程框圖如圖1所示。特征提取部分分為兩個分支,分別提取 LME特征和NMF特征。提取NMF特征時,首先提取音頻樣本的聲譜圖特征,然后利用由所有訓(xùn)練集樣本訓(xùn)練得到的字典矩陣W,對提取到的聲譜圖特征進行NMF,得到系數(shù)矩陣H作為NMF特征。特征融合部分,借鑒圖像任務(wù)中 RGB三通道的方法,把二維的LME和NMF特征堆疊為三維特征。最后把得到的三維特征送入MCNN模型得到分類結(jié)果。實驗證明,對于這兩類特征,本文的融合方法要優(yōu)于簡單拼接和模型結(jié)果融合的方法。

圖1 聲音特征提取和模型分類系統(tǒng)的流程框圖Fig.1 Block diagram of voice feature extraction and model classification system

2 MCNN模型

2.1 適應(yīng)聲音時頻結(jié)構(gòu)的CNN框架

對聲音信號進行短時處理后,其前后相鄰幀的頻譜分布高度相關(guān),而頻率軸上在經(jīng)過后續(xù)提取手工特征時的降維處理后,彼此相對獨立。針對這一特點,基于 CNN框架,提出一種適應(yīng)聲音時頻結(jié)構(gòu)的池化策略,即池化操作時只沿著時間軸進行(頻率軸采樣因子為1),并且在經(jīng)過兩次池化后,特征在時間軸上維度變?yōu)?而頻率軸維度保持不變。依此方法,可以設(shè)計出適應(yīng)聲音時頻結(jié)構(gòu)的CNN模型。

圖2為本文模型第二層卷積的卷積核在輸入特征圖上的感受野示意圖,深色部分為實際特征圖,白色為“補0”部分。由圖2可知,CNN提取到的高級特征是由輸入特征圖感受野上的數(shù)據(jù)經(jīng)過卷積層加權(quán)求和及池化層采樣得到的,卷積核在輸入特征圖上感受野的范圍取決于卷積核和池化窗的大小及形狀。采用帶狀的感受野,可以更好地適應(yīng)輸入特征圖的時頻結(jié)構(gòu)。

圖2 時頻感受野示意圖Fig.2 Schematic diagram of time-frequency sensing field

2.2 MCNN

改變卷積核和池化窗的大小會影響 CNN提取到的高級特征,從而直接影響到分類結(jié)果。采用不同大小的卷積核和池化窗可以捕捉到更全面的信息,小的卷積核和池化窗對應(yīng)輸入特征小的感受野,從而可以捕捉到特征圖上的細節(jié)信息,大的卷積核和池化窗則相反,二者互為補充。

為此,我們在 CNN中采用不同尺寸的卷積核和池化窗組合,力求同時捕捉細節(jié)和宏觀信息。由于第二層卷積輸出的高級特征來自于不同的子模型,每個子模型輸出特征由同一輸入特征圖上不同大小的感受野提取得到,所以稱之為多分辨率卷積神經(jīng)網(wǎng)絡(luò)(MCNN),模型結(jié)構(gòu)和參數(shù)如表1所示。其中,在輸入層分別采用了5×5卷積+1×5池化、7×7卷積+1×10池化、3×3卷積+1×2池化操作,在中間層分別采用了5×5卷積+1×100池化、7×7卷積+1×50池化、3×3卷積+1×250池化。這些參數(shù)都是經(jīng)過組合實驗優(yōu)選出來的結(jié)果。

表1 MCNN模型結(jié)構(gòu)Table 1 MCNN model structure

3 特征選取

LME特征能反映聲譜圖幀內(nèi)各頻帶的局部統(tǒng)計特性,對ASC任務(wù)中的音頻樣本有較好的低維表征能力,在近年來的ASC任務(wù)中使用最為廣泛[13-14]。因此本文對特征的研究以LME為基礎(chǔ),針對LME特征的不足,提出LME與NMF特征的融合思路。

3.1 LME特征

把音頻信號分幀、加窗后,對每幀信號進行離散傅里葉變換,可得:

其中:si(n)為第i幀時域信號,h(n)為長度為N的短時窗系數(shù),N是離散傅里葉變換的長度。

計算每個濾波器輸出的對數(shù)能量:

最后構(gòu)成的特征圖橫軸為時間軸,縱軸為各個濾波器下輸出的對數(shù)能量,維度等于濾波器個數(shù)。

3.2 NMF特征

NMF是一種無監(jiān)督的矩陣分解方法,它使分解后的所有分量均為非負值,并且同時實現(xiàn)非線性的維數(shù)約減。給定一個非負矩陣V,它的目標就是分解得到一個非負的字典矩陣W和一個系數(shù)矩陣H,即求解如下優(yōu)化問題:

其中,Dβ表示分離方式。本文中,我們把β設(shè)為2,則Dβ為歐氏距離。利用NMF得到的系數(shù)矩陣,作為NMF特征使用。

3.3 融合特征

LME特征每一維都對應(yīng)相應(yīng)Mel濾波器輸出的對數(shù)能量,在較好地表征音頻信號的同時,降低了對應(yīng)聲譜圖的維數(shù),去除了大量冗余信息,減輕了計算復(fù)雜度。但是,使用Mel濾波器對聲譜圖進行平滑處理使得諧波結(jié)構(gòu)(如圖 3 中的機場音頻樣本聲譜圖的低頻部分)這樣的細節(jié)不再顯著。圖 4為該樣本經(jīng)過40維Mel濾波器組后的輸出圖像。從圖4可以看出,原本低頻部分存在的明顯的諧波結(jié)構(gòu)已經(jīng)完全無法觀察到。實際上,Mel濾波器組對其相應(yīng)頻帶內(nèi)頻譜幅度進行了加權(quán)求和,從而實現(xiàn)降維處理,這就導(dǎo)致不同的頻譜可能對應(yīng)相同的濾波器輸出,造成不同類別音頻信號的 LME特征在某些子區(qū)域上很可能相似或相同。

圖3 機場音頻樣本聲譜圖Fig.3 Spectrogram of airport audio sample

圖4 LME特征圖Fig.4 LME feature map

有效彌補 LME特征中丟失的細節(jié),可以將聲譜圖上的典型諧波結(jié)構(gòu)作為細節(jié)信息補充上去,以增加原始LME特征的區(qū)分度。為此,提出一種為細節(jié)特征與整體效果特征相融合的辦法,對聲譜圖進行非負矩陣分解,之后將系數(shù)矩陣作為細節(jié)特征和LME特征相融合,在較少增加數(shù)據(jù)量和冗余信息的同時使得提取的特征具有更強的魯棒性。

NMF特征采用乘性更新規(guī)則來優(yōu)化提取。特征提取過程如下:

(1) 把聲譜圖矩陣作為待分解矩陣(1 025×500),將所有訓(xùn)練集樣本的聲譜圖擴展成1 025×500N的二維矩陣,其中N為訓(xùn)練集的樣本數(shù)。采用NMF,提取時間軸上的基,分解得到大小為1 025×40的字典矩陣W,如圖5所示。圖5橫軸上的每一維(時間軸上的每一維)對應(yīng)為字典的一個基。

圖5 字典矩陣WFig.5 Dictionary matrix W

(2) 固定由步驟(1)得到的字典矩陣W,對每個樣本的聲譜圖矩陣作NMF,得到40×500的非負矩陣系數(shù)H,如圖6所示。這個矩陣H作為樣本特征的一部分使用。

NMF分解得到的系數(shù)矩陣H保持了聲譜的低頻細節(jié)結(jié)構(gòu)。圖7為原始聲譜圖和NMF重構(gòu)的聲譜圖。對比圖 7(a)、7(b)可以看出,重構(gòu)聲譜圖在高頻部分存在一定的失真,而低頻部分的譜細節(jié)還原較好。從矩形框中的部分可以看出,聲譜圖低頻段的諧波結(jié)構(gòu)基本沒有失真。因此,利用系數(shù)矩陣H,可以構(gòu)造表征細節(jié)的低維特征。

圖6 系數(shù)矩陣HFig.6 Coefficient matrix H

圖7 原始聲譜圖和NMF重構(gòu)聲譜圖Fig.7 Original spectrogram and NMF reconstructed spectrogram

4 實驗結(jié)果與分析

采用對比實驗的方法,分別驗證所提出的LME+NMF融合特征和MCNN模型對ASC任務(wù)的有效性,并對實驗結(jié)果進行分析比較。

4.1 實驗數(shù)據(jù)

表2給出了DCASE2017和DCASE2018數(shù)據(jù)集包含的聲學(xué)場景類別及場景數(shù)。

在DCASE2017的ASC任務(wù)中,開發(fā)集提供了包括15個真實聲學(xué)場景的4 680個音頻樣本。每個場景的樣本都記錄于不同的地點,每個地點記錄18~25 個樣本,所有樣本都是采樣率為44.1 kHz、持續(xù)時間為10 s的雙聲道音頻[15],分配在4個折疊當中。折疊為樣本的構(gòu)成方式,用來做交叉驗證。以4折交叉驗證為例,每次取1/4作測試,剩余3/4做訓(xùn)練。用4次結(jié)果的均值來衡量模型的性能好壞。

在DCASE2018的ASC任務(wù)中,開發(fā)集提供了包括10個真實聲學(xué)場景的8 640個音頻樣本。這些樣本記錄于6個歐洲城市的不同地點,每個地點記錄30~36個樣本,所有樣本都是采樣率為48 kHz、持續(xù)時間為10 s的雙聲道音頻[4],全部分配在一個折疊當中。

表2 實驗使用的聲學(xué)場景數(shù)據(jù)集Table 2 Acoustic Scene Datasets in the Experiments

4.2 基線系統(tǒng)

DCASE2017的基線系統(tǒng)是一個多層感知機模型,包含兩層隱藏單元為 50的全連接層,隱層和輸出層激活函數(shù)分別為Relu和Softmax,損失函數(shù)為交叉熵,學(xué)習(xí)率為0.001,優(yōu)化器為Adam[16]。輸入樣本為單聲道40維、500幀(10 s)的LME特征圖,每幀長40 ms且有50%重疊。

DCASE2018的基線系統(tǒng)是一個包含兩層卷積和兩層全連接的CNN模型,卷積核大小為7×7,步長為 1,padding方式為 same,池化方式為最大池化,同時采用批量標準化和dropout,其余參數(shù)設(shè)置和DCASE2017基線系統(tǒng)相同。

4.3 結(jié)果分析

4.3.1 MCNN模型效果

為驗證MCNN模型的效果,用MCNN模型分別與2017年和2018年的基線系統(tǒng)進行對比。實驗中除模型外其余設(shè)置全部和基線系統(tǒng)相同,結(jié)果如圖8和圖9所示。

從圖 8和圖 9可以看出,MCNN模型在DCASE2017和DCASE2018數(shù)據(jù)集上都有較好的表現(xiàn),在大多數(shù)聲學(xué)場景類別上分類精度都有明顯提高,在少數(shù)幾個聲學(xué)場景類別上和基線系統(tǒng)表現(xiàn)類似,平均分類精度都得到了明顯提升,分別提升了5.9%和8.6%。

圖8 MCNN模型與基線系統(tǒng)在DCASE2017數(shù)據(jù)集上的分類精度對比Fig.8 Comparison of classification accuracy between MCNN model and baseline system on DCASE2017 dataset

圖9 MCNN模型與基線系統(tǒng)在DCASE2018數(shù)據(jù)集上的分類精度對比Fig.9 Comparison of classification accuracy between MCNN model and baseline system on DCASE2018 dataset

圖10為基線系統(tǒng)和MCNN模型在DCASE2018數(shù)據(jù)集上的損失(Loss)曲線,可以看到,MCNN模型的損失曲線整體都位于基線系統(tǒng)損失曲線下方,說明模型在收斂效果方面要優(yōu)于基線系統(tǒng)。

圖10 MCNN模型與基線系統(tǒng)在DCASE2018數(shù)據(jù)集的損失曲線Fig.10 Loss curves of MCNN model and baseline system on DCASE2018 dataset

4.3.2 融合特征效果

為驗證融合NMF特征和LME特征對分類效果的影響,在MCNN模型下分別使用40×500的LME特征和 40×500×2的融合特征進行對比實驗,同樣采用DCASE2017和DCASE2018數(shù)據(jù)集。

對比實驗結(jié)果如表3和表4所示。可以看出,在DCASE2017數(shù)據(jù)集上,融合特征在15個類別中的 8個類別上相對 LME特征精度有所提高;在DCASE2018數(shù)據(jù)集上,融合特征在10個類別中的7個類別上相對LME特征精度有所提高,且平均分類精度分別提高了1.6%和1.7%。相比于基線系統(tǒng),本文提出方案的平均分類精度分別提高了 7.5%和10.3%,用DCASE2017測試集數(shù)據(jù)進行測試,基線系統(tǒng)精度為61%,本文提出方案的精度為68.1%,提高了7.1%。

表3 DCASE2017數(shù)據(jù)集上的分類結(jié)果Table 3 Classification results on DCASE2017 dataset

表4 DCASE2018數(shù)據(jù)集上的分類結(jié)果Table 4 Classification results on DCASE2018 dataset

5 結(jié) 論

本文針對聲學(xué)場景分類任務(wù),提出一種低維度的特征融合機制,融合了低層次的 LME特征和高層次的NMF特征,得到一種既包含整體包絡(luò)信息又包括細節(jié)諧波結(jié)構(gòu)信息的特征;提出適應(yīng)于聲音時頻結(jié)構(gòu)的多分辨率特征融合的 MCNN模型,使得模型可以從特征圖中學(xué)習(xí)到更全面的信息。在DCASE2017和DCASE2018數(shù)據(jù)集上的實驗結(jié)果表明,分類精度得到了顯著提升,驗證了本文所提方法的有效性。

猜你喜歡
時頻音頻卷積
基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
卷積神經(jīng)網(wǎng)絡(luò)的分析與設(shè)計
從濾波器理解卷積
必須了解的音頻基礎(chǔ)知識 家庭影院入門攻略:音頻認證與推薦標準篇
基于Daubechies(dbN)的飛行器音頻特征提取
基于稀疏時頻分解的空中目標微動特征分析
基于傅里葉域卷積表示的目標跟蹤算法
音頻分析儀中低失真音頻信號的發(fā)生方法
Pro Tools音頻剪輯及修正
基于時頻分析的逆合成孔徑雷達成像技術(shù)
永泰县| 宜川县| 密云县| 赣榆县| 镇赉县| 德令哈市| 新丰县| 鹰潭市| 奎屯市| 上饶县| 若尔盖县| 北碚区| 九龙城区| 平阴县| 平果县| 天门市| 化州市| 红安县| 华安县| 安平县| 安宁市| 涡阳县| 沧源| 阆中市| 阳江市| 清苑县| 白水县| 吉安市| 教育| 绥宁县| 仪征市| 九寨沟县| 台安县| 湛江市| 喀喇沁旗| 平乐县| 永靖县| 九龙城区| 伽师县| 奎屯市| 德钦县|