楊立東 焦慧媛
摘 要:虛擬現(xiàn)實技術(shù)(VR)的飛速發(fā)展使雙耳聽覺研究越來越深入,如何快速準(zhǔn)確地獲取個性化頭部相關(guān)傳遞函數(shù)HRTF成為研究熱點。介紹了HRTF獲取關(guān)鍵技術(shù)研究現(xiàn)狀,總結(jié)出HRTF的4種獲取方式:實驗測量法、數(shù)學(xué)建模法、數(shù)據(jù)庫匹配法和主觀選擇法,并闡述各方法的基本原理。將各方法進(jìn)行對比,指出HRTF獲取工作中需解決的問題和未來研究方向。
關(guān)鍵詞:虛擬現(xiàn)實技術(shù)(VR);HRTF;實驗測量法;數(shù)學(xué)建模法;數(shù)據(jù)庫匹配法;主觀選擇法
DOI:10. 11907/rjdk. 181758
中圖分類號:TP3-05文獻(xiàn)標(biāo)識碼:A文章編號:1672-7800(2019)001-0034-06
Abstract:The rapid development of virtual reality technology makes the study of binaural hearing deeper and deeper. How to quickly and accurately obtain a personalized head-related transfer function (HRTF) has become a hot spot for scholars in various countries. This article gives a detailed introduction to the research status of HRTF access to key technologies, and summarizes four main acquisition methods of HRTF based on the current development trends: experimental measurement method, mathematical modeling method, database matching method and subjective selection method. The basic principle of the method is described. The advantages and disadvantages of the current methods are compared. Finally, the issues that need to be resolved in the HRTF acquisition work and future research directions are pointed out.
0 引言
虛擬現(xiàn)實(Virtual Reality,VR)的不斷發(fā)展掀起了VR技術(shù)應(yīng)用浪潮,越來越多的人希望通過VR設(shè)備獲得更加逼真的現(xiàn)實感受。2018年1月的國際消費類電子產(chǎn)品展覽會(International Consumer Electronics Show,簡稱CES)上,HTC公司推出了一款新的VR(Virtual Reality)設(shè)備——VIVE Pro虛擬現(xiàn)實系統(tǒng)。在4月份的新品發(fā)布會上,HTC公司又推出與之對應(yīng)的操控手柄,配置了兩個支持Steam VR的追蹤器2.0,這一改進(jìn)的VIVE Pro設(shè)備已正式投入商業(yè)生產(chǎn)與線下銷售中。2018年5月,上海位視達(dá)信息科技有限公司率先啟動了朗文WTE英語VR教室項目,通過VR眼鏡給孩子們營造一個立體的虛擬動畫世界,引導(dǎo)孩子進(jìn)行角色扮演,生動活潑地完成課堂學(xué)習(xí),對教學(xué)方法改革進(jìn)行了探索和創(chuàng)新。VR技術(shù)是通過計算機仿真,給用戶提供虛擬視覺、聽覺、觸覺等多種感知,用戶通過感官感知虛擬環(huán)境中的物體以獲得如同現(xiàn)實中真實感的一門熱門技術(shù)。其中,虛擬視覺和虛擬聽覺可為用戶提供超過80%的空間感知,是目前虛擬技術(shù)研究的重點。虛擬聽覺空間技術(shù)(Virtual Auditory Space, VAS)就是根據(jù)人類聽覺特征,通過雙聲道播放系統(tǒng)再現(xiàn)聲源空間信息的技術(shù),它與決定人耳空間聽覺能力的頭部相關(guān)傳遞函數(shù)(Head-Related Transfer Function, HRTF)密切相關(guān)。因此,研究HRTF獲取關(guān)鍵技術(shù)是合成虛擬空間聲音的重要組成內(nèi)容,也是推動未來VR工作深入發(fā)展的關(guān)鍵。
1 HRTF簡介
HRTF是自由聲場中從聲源到雙耳的頻域傳輸函數(shù),它的時域表示為頭相關(guān)脈沖響應(yīng)( Head Related Impulse Response,HRIR),兩者都表達(dá)了人體生理結(jié)構(gòu)對聲波的綜合濾波效果[1],HRTF和HRIR是進(jìn)行雙耳定位研究的重要內(nèi)容。HRTF的函數(shù)表達(dá)式為:
其中,[PL]、[PR]分別表示人雙耳獲取的頻域復(fù)數(shù)聲壓,[P0]為在頭部不存在情況下,聲源到達(dá)近似頭部中心處的頻域復(fù)數(shù)聲壓,[P0]滿足空間點聲源的格林函數(shù):
對不同被試者進(jìn)行HRTF獲取時,[PL]和[PR]測量點的選取位置可以不同??啥x[PL]和[PR]是到達(dá)雙耳鼓膜處的聲壓,也可定義為到達(dá)耳道口與鼓膜間任意截面處的聲壓,甚至還可定義為將耳道入口封閉時封口處的聲壓。但由于耳道口和鼓膜之間的傳輸是一維的,因而對于不同測量點,[PL]和[PR]計算得到的 HRTF 可以相互轉(zhuǎn)換。
HRTF是聲源到頭部中心距離[r](當(dāng)[r]>1.2m 時,一般認(rèn)為是遠(yuǎn)場測量,這時[r]對HRTF的影響可忽略不計)、聲源位置與頭部中心之間的仰角[θ]、方位角[φ]和聲源頻率[f]的函數(shù),可以表示為[H(r,θ,φ,f)]。同時,HRTF是一個個性化函數(shù),它與測試者的生理結(jié)構(gòu)和尺寸密切相關(guān),對不同的測試者進(jìn)行測量會得到不同的HRTF值。
2 HRTF獲取方式
國內(nèi)外學(xué)者對HRTF的獲取進(jìn)行了深入研究,主要獲取方式有實驗測量法、數(shù)學(xué)建模法、數(shù)據(jù)庫匹配法和主觀選擇法4種。
2.1 實驗法測量HRTF
2.1.1 實驗法回顧
HRTF的測量工作最早可追溯到1947年,Wiener[2]基于球頭模型測量了相應(yīng)的HRTF。1983年,Kuhn & Guernsey[3]根據(jù)KEMAR人工頭模型測量得出HRTF數(shù)據(jù)。那時測量的HRTF數(shù)據(jù)較少,并且是基于頭部模型測得,所測數(shù)據(jù)準(zhǔn)確意義上并未稱為“頭部相關(guān)傳遞函數(shù)”。直到1989年,Wightman和Kistler[4]測量得到10名真人(6女4男)的HRTF數(shù)據(jù),并構(gòu)建出HRTF估計模型,“頭部相關(guān)傳遞函數(shù)”概念被廣泛應(yīng)用,HRTF的測量工作開始逐漸展開。
1994年,美國MIT實驗室將KEMER人工頭作為實驗對象,左耳使用DB-61小型耳廓,右耳使用DB-65大型耳廓,MLS序列作為測量信號,測量得到空間710個方向的雙耳數(shù)據(jù)[5]。這是一個被公開的HRTF數(shù)據(jù)庫,此后被廣泛應(yīng)用于聲學(xué)研究中。密歇根大學(xué)在1999年測量23名男性、22名女性HRTF數(shù)據(jù),包括33項人體測量數(shù)據(jù),但此數(shù)據(jù)庫在當(dāng)時未公開[6]。2000年以后,通過實驗法獲取HRTF的工作更加深入,美國加利福尼亞大學(xué)在2001年率先公開了基于真人受試者的CIPIC數(shù)據(jù)庫,被試者由27個男性、16個女性以及2個平均人工頭組成,此數(shù)據(jù)庫除測量得到空間25個水平角、50個高度角共1 250個數(shù)據(jù)外,還記錄了真人被試頭部、耳部、軀干共27個人體測量參數(shù)[7]。此數(shù)據(jù)庫是目前為止應(yīng)用最廣泛的公開數(shù)據(jù)庫,各國HRTF的研究都是在此數(shù)據(jù)庫上展開。日本東北大學(xué)在2002年利用封閉耳道法測量得到3名被試者頭部上半部分區(qū)域的共454個位置的HRTF[8]。2006年,法國IRCAM室內(nèi)聲學(xué)小組測量得到51名被試在水平角0°~360°,仰角-45°~90°范圍內(nèi)共187個位置的HRTF[9]。
20世紀(jì)初,我國東南大學(xué)開始HRTF的研究工作,但其主要是在美國Wisconsin大學(xué)測量的數(shù)據(jù)上進(jìn)行研究[10]。由于中國人與國外被試在身體外形、生理參數(shù)上存在一定差異,基于國外HRTF數(shù)據(jù)庫的研究結(jié)果在實際應(yīng)用中往往會出現(xiàn)一定誤差,因此基于我國被試的HRTF測量成為當(dāng)時研究的重點。2002年清華大學(xué)的趙自立[11]提出在普通室內(nèi)環(huán)境下測量HRTF的總體設(shè)計方案。真正開展中國人頭HRTF測量工作的是華南理工大學(xué)謝菠蓀教授[12]負(fù)責(zé)的聲學(xué)研究小組,其在2006年對52名中國被試(26名男性、26名女性)進(jìn)行測量,以MLS序列為測試信號,得到中國人樣本的空間493個方向的HRTF數(shù)據(jù),這是中國第一個統(tǒng)計意義上的HRTF數(shù)據(jù)庫。2007年,中科院聲學(xué)所與北京大學(xué)視覺與聽覺信息處理國家重點實驗室合作,設(shè)計出測量距離可調(diào)整的HRTF測量系統(tǒng),實驗在中科院全消聲室中進(jìn)行,以BDMS1-040528便捷式脈沖發(fā)生器為發(fā)聲源,KEMER人工頭為被試對象,測量了聲源距離人工頭8個距離(20cm、30cm、40cm、50cm、75cm、100cm、130cm、160cm)下的HRTF數(shù)據(jù)[13]。2014年3月北京大學(xué)言語聽覺研究中心對KEMER人工頭進(jìn)行頭部、耳廓、軀干的分離實驗,測量了6個距離(20、30、40、50、75、100cm),以每個距離為半徑的球面上的793個點的3種結(jié)構(gòu)化函數(shù),得出頭相關(guān)傳遞函數(shù)是頭、軀干、耳廓分別作用結(jié)果的疊加[14]。上述對HRTF的測量都是在一個測試信號和預(yù)先設(shè)定好的空間方位角上進(jìn)行的,測量過程十分耗時,對于未測量空間角的HRTF值仍需要進(jìn)行插值計算。據(jù)此,東南大學(xué)楊飛然[15]在2014年提出了動態(tài)測試HRTF的構(gòu)想:聲源不斷發(fā)送信號,被試者以均勻角速度旋轉(zhuǎn),從而獲取整個水平面方位角的HRTF。2017年華南理工大學(xué)聲學(xué)研究所設(shè)計了近場頭相關(guān)傳遞函數(shù)多聲源快速測量系統(tǒng),將多個聲源利用支撐桿固定在半徑1.25m圓環(huán)的不同仰角處,通過上下移動和轉(zhuǎn)動座椅,改變被試者位置,通過伸縮支撐桿改變聲源空間距離,使測量單個距離下的HRTF數(shù)據(jù)時間縮短至20min左右,在一定誤差范圍內(nèi)保證其測量精度。這是目前為止HRTF測量效率最高的系統(tǒng),為今后HRTF的獲取提供了便利[16]。
2.1.2 實驗法測量HRTF原理
HRTF測量過程是一個線性時不變系統(tǒng),如果把發(fā)聲端信號看作輸入信號[x(t)],無干擾下雙耳接收信號看作[y(t)],實際雙耳接收端信號看作[z(t)],傳輸過程中的干擾信號為[n(t)],那么求解HRTF即是求解[x(t)]與[y(t)]之間的傳遞函數(shù)[h(t)]。整個測量過程原理如圖1所示。
2.2 數(shù)值計算法獲得HRTF
2.2.1 數(shù)值計算法
由于實驗測量獲取HRTF的方法對實驗環(huán)境和實驗器材要求較高,近20年來,逐漸出現(xiàn)了通過數(shù)值計算獲取HRTF的方法。數(shù)值計算法一般分為兩步:首先構(gòu)造合適的計算模型,然后根據(jù)一定的數(shù)學(xué)方法計算獲得需要的HRTF。1998年,Martens[18]構(gòu)造出鋼球模型用于計算HRTF,2002年加州大學(xué)戴維斯分校使用頭部和軀干的“雪人模型”獲得近似HRTF[19]。這兩種模型是前期對人體形態(tài)的簡單模擬,均可通過求解波動方程或亥姆霍茲方程的方法獲得HRTF。另外還可通過掃描人工頭計算獲取HRTF。2001年,Katz[20]掃描獲得B&K4128C人工頭模型,通過邊界元法計算獲取HRTF,其計算頻率達(dá)到6kHz。2003年,Otani在Katz[21]研究的基礎(chǔ)上,得出快速邊界元法計算HRTF的方法。Kahana[22]在2007年掃描得到KEMAR人工頭和6個耳廓的尺寸模型,同樣利用邊界元法計算得到HRTF,此時其計算頻率提升到14kHz。2003 年杜克大學(xué)的TIAN Xiao等[23]提出使用時域有限差分法結(jié)合完全匹配層方法計算球模型和KEMAR人工頭的HRTF,上述兩種方法主要是基于近似模型的計算,后來逐漸出現(xiàn)了對真人頭部進(jìn)行掃描獲取計算頭模型的方法。2004年,F(xiàn)els[24]等研究了兒童生長變化與HRTF之間的關(guān)系,用相機拍下兒童(4~6歲)頭部模型,提取其頭部三維信息后用邊界元方法計算得出兒童的HRTF。2014年,Meshram等[25]研究出自適應(yīng)矩形分解方法模擬聲波的傳輸過程,使HRTF的計算在8核臺式機上的時間縮短至20多分鐘。
我國在HRTF建模計算上的研究有:2010年,西北工業(yè)大學(xué)根據(jù)GB/2428-1998標(biāo)準(zhǔn)構(gòu)造出一個橢球模型用于計算HRTF[26]。2012年,華南理工大學(xué)芮元慶[27]設(shè)計出簡化的橢球頭部-耳廓計算模型,分別得到KEMER人工頭和6名真人的計算模型,利用快速邊界元法計算其HRTF。2014年,陳嘉衍[28]提出用聲學(xué)互易原理加快邊界元法計算速度。同年,西北工業(yè)大學(xué)唐玲[29]通過光掃描獲取了中國人BHead210標(biāo)準(zhǔn)頭模三維模型,并計算得到其HRTF。數(shù)值計算法對于構(gòu)造模型的準(zhǔn)確性要求較高。2016年中國聲學(xué)會議上提出了一種更為準(zhǔn)確的耳廓測量方法,此方法利用計算機軟件處理,其中使用了法蘭福參考平面,使頭部建模更加準(zhǔn)確[30]。
實際計算HRTF時,根據(jù)式(16)先求出邊界上的聲壓值,然后將其帶入式(15)求出空間任意位置處的聲壓[P(r,r0,f)],最后將其帶入格林函數(shù)式(2)中,即可求得任意空間位置處的HRTF。其后,對于HRTF的計算方法大多是在傳統(tǒng)邊界元法的基礎(chǔ)上進(jìn)行改進(jìn),添加其它算法,如多級算法、球諧函數(shù)多級展開法等,快速降低邊界元算法的計算復(fù)雜度。
2.3 數(shù)據(jù)庫匹配與主觀選擇獲得HRTF
2.3.1 數(shù)據(jù)庫匹配與主觀選擇方法回顧
實驗測量和數(shù)值計算獲得HRTF的方法在時間和成本上消耗很大,不同人HRTF的頻譜特征不同,要想實際利用HRTF生產(chǎn)聲學(xué)產(chǎn)品并保證其可行性,需要測量或計算不同人的HRTF,這顯然非常耗時且不切實際。因此,快速準(zhǔn)確地尋找和獲取個性化HRTF的方法是研究的重點和熱點。
數(shù)據(jù)庫匹配法和主觀選擇法目前研究的結(jié)果主要是獲得近似化HRTF,這與實驗法和數(shù)值計算法獲取準(zhǔn)確的HRTF不同。數(shù)據(jù)庫匹配法是快速獲取HRTF的主流方法,其原理是使用統(tǒng)計分析的方法建立人體生理參數(shù)與HRTF模型之間的匹配關(guān)系。1998年,Brown[31]提出HRTF結(jié)構(gòu)模型,將人體對聲源的濾波過程劃分為頭部、軀干、耳廓3部分綜合濾波,分別定制各部分濾波器,調(diào)整濾波器參數(shù)以獲得個性化HRTF。Jin[32]在2000年使用主成分分析法對HRTF數(shù)據(jù)進(jìn)行降維,將HRTF分解為7個基函數(shù)和權(quán)重系數(shù)的線性組合,此方法獲得的HRTF有較好的定位效果。Zotkin[33]在2003年通過比較被試者與已知數(shù)據(jù)庫對象的耳部7個生理參數(shù),選擇已知數(shù)據(jù)庫中合適的HRTF作為被試者中高頻段的HRTF。CS Fahn[34]同年提出了一種空間聚類方法,將HRTF幅度譜進(jìn)行分類,獲取每一類下的代表HRTF,則空間任意方向的HRTF值都可由這些代表HRTF值合成。印度尼西亞大學(xué)的Hugeng[35]、Wahab[36]分別在2010年和2015年使用主成分分析法對HRIR、HRTF進(jìn)行重構(gòu),得出時域和頻域下的重構(gòu)性能最佳模型與代表性人體形態(tài)參數(shù)。華南理工大學(xué)在2013年改進(jìn)了Zotkin的生理參數(shù)匹配法,利用譜失真評價和相關(guān)分析方法使7個匹配生理參數(shù)降為3個[37]。2016年大連理工大學(xué)的袁康[38]提出對水平角和垂直角進(jìn)行主成分分析,獲取不同測量者在不同角度下的主成分系數(shù)值,從而獲取個性化HRTF。
主觀選擇法是獲取HRTF的又一類方法。2003年,Seeber[39]提出在水平面上進(jìn)行主觀聽覺測試實驗,但只是對前半水平面的部分位置進(jìn)行測量,結(jié)果僅滿足少量的HRTF。Iwaya[40]在2006年使用DOMISO方法從大量非個性化HRTF中選出需要的HRTF,但其只使用了組內(nèi)循環(huán)比較準(zhǔn)則。大連理工大學(xué)汪林、殷福亮等[41]在DOMISO方法的基礎(chǔ)上,為快速選擇出被試者的個性化HRTF,提出了一種基于競賽方式的主觀選擇方法。2016年袁康[38]提出對距離、水平角、高度角建模,通過調(diào)節(jié)模型參數(shù)進(jìn)行主觀試聽實驗獲得HRTF。主觀選擇法與數(shù)據(jù)庫匹配方法相比研究較少,主要原因是空間模擬聲播放受環(huán)境影響較大且其空間聽覺判斷具有隨機性,如何較好地解決這一問題是主觀方法能否真正得到應(yīng)用的關(guān)鍵。
2.3.2 主成分分析法(PCA)原理
在使用主成分分析法時,主要對HRTF頻域和HRIR時域進(jìn)行分析,基本原理為:將HRTF的頻域或HRIR的時間域進(jìn)行劃分,將其看成一組隨機向量[X=[x(1),x(2),?,][x(N)]T],且[x(1)],[x(2)]…[x(N)]之間是相關(guān)的,通過K-L變換后形成的向量[Y]的各分量間互不相關(guān),此時向量[Y]對向量[X]的近似均方誤差值最小,表明生成頻譜或波形最重要的部分保留了下來。去掉次要部分,即僅需一部分基向量和對應(yīng)的主元系數(shù),即可恢復(fù)原始的HRTF或HRIR數(shù)據(jù)。
基于主成分分析法獲得HRTF的過程分為標(biāo)準(zhǔn)化、主成分分析、重構(gòu)3個步驟。HRTF在空間位置[(θ,φ)]處的幅值表示為[Dij],[i]表示被試者序號,[j]為頻率序號,頻率為[fj]時,HRTF的幅值可表示為:
3 選擇方法比較
本文對4種選擇方法進(jìn)行分析,并對其優(yōu)缺點進(jìn)行總結(jié)和比較,見表1。
4 結(jié)語
本文闡述了常用的4種個性化HRTF獲取方法及關(guān)鍵技術(shù),除此之外,還有頻率標(biāo)度法、物理模擬法等也可獲得近似的HRTF值。近幾年來,關(guān)于HRTF的研究獲得了很大突破,但在一些方面仍然存在一些需要深入研究和探討的課題,主要表現(xiàn)在:
(1)傳統(tǒng)測量法獲得HRTF費時費力,基于動態(tài)測量的方法暫露頭角,但是基于多聲源播放時信號之間多重散射以及聲源角度與間隔分布應(yīng)予以研究。
(2)數(shù)值計算法的前提是建立頭部-軀干模型,數(shù)據(jù)庫匹配法也與人體參數(shù)有關(guān)。因此,開發(fā)更加簡單準(zhǔn)確的人體參數(shù)測量方法,是未來提升這兩種方法下HRTF準(zhǔn)確性的重點研究方向。
(3)現(xiàn)有對HRTF進(jìn)行線性分解的方法多是分解成二階獨立矢量,而高階矢量分解更能體現(xiàn)空間的離散性,是未來HRTF線性分解的發(fā)展方向之一。
(4)目前數(shù)據(jù)庫匹配原理僅研究得出某些參數(shù)與HRTF之間存在密切關(guān)系,但是人體參數(shù)具體影響HRTF的哪些頻段、各參數(shù)之間相互作用是否對HRTF造成影響、不同頻率下參數(shù)的選擇種類和數(shù)量,都是解決數(shù)據(jù)庫匹配的熱點問題。
(5)主觀選擇方法應(yīng)在主觀評價指標(biāo)上進(jìn)行深入研究,比如評價指標(biāo)種類、數(shù)量、評價方法等。另外,由于被試對聲源方位的判斷存在隨機性和不確定性,還應(yīng)補充整個實驗操作,比如著重研究人體心理因素和視覺因素對HRTF的影響,包括影響因子種類、數(shù)量等。
綜上所述,HRTF可以通過不同的獲取方式得到,每種方式具有不同的優(yōu)缺點,研究HRTF新的獲取方式以及解決HRTF獲取工作中存在的問題,對未來HRTF在虛擬現(xiàn)實中的應(yīng)用具有重要意義。
參考文獻(xiàn):
[1] MASTERSON C, KEARNEY G, GORZEL M, et al. HRIR order reduction using approximate factorization[J]. IEEE Transactions on Audio Speech & Language Processing, 2012, 20(6):1808-1817.
[2] WIENER F M. Sound diffraction by rigid spheres and circular cylinders[J]. Journal of the Acoustical Society of America, 1947, 19(3):444-451.
[3] KUHN G F, GUERNSEY R M. Sound pressure distribution about the human head and torso[J]. Journal of the Acoustical Society of America, 1983, 73(1):95-96.
[4] WIGHTMAN F L,KISTLER D J. Headphone simulation of free-field listening. II: psychophysical validation[J]. Journal of the Acoustical Society of America, 1989, 85(2):868-878.
[5] GARDNER B. HRTF measurements of a KEMAR dummy-head microphone[J]. MIT Media Lab. Perceptual Computing-Technical Report, 1994(280):1-7.
[6] MIDDLEBROOKS J C. Virtual localization improved by scaling nonindividualized external-ear transfer functions in frequency[J]. Journal of the Acoustical Society of America, 1999, 106(1):1493-1510.
[7] ALGAZI V R, DUDA R O, THOMPSON D M, et al. The CIPIC HRTF database[C].Applications of Signal Processing to Audio and Acoustics, 2001 IEEE Workshop on the. IEEE, 2001:99-102.
[8] TAKANE S, ARAI D, MIYAJIMA T, et al. A database of head-related transfer functions in whole directions on upper hemisphere[J]. Acoustical Science & Technology, 2002, 23(23):160-162.
[9] ROOM ACOUSTICS TEAM OF IRCAM. HRTF database[EB/OL]. [2006-08-20]. http://www.ircam.fr/equipes/salles/listen/index.html
[10] 吳鎮(zhèn)揚, 王衛(wèi)斌. 基于小波變換奇異性檢測的HRTF(與頭部關(guān)聯(lián)的傳遞函數(shù))消噪處理[J]. 生物物理學(xué)報, 1997, 13(3):473-478.
[11] 趙自力. 虛擬三維聲音合成的實驗研究[D]. 北京:清華大學(xué), 2002.
[12] 謝菠蓀, 鐘小麗, 饒丹,等. 頭相關(guān)傳輸函數(shù)數(shù)據(jù)庫及其特性分析[J]. 中國科學(xué):物理學(xué) 力學(xué) 天文學(xué), 2006, 36(5):464-479.
[13] 龔玫, 肖崢, 曲天書,等. 近場頭相關(guān)傳輸函數(shù)的測量與分析[J]. 應(yīng)用聲學(xué), 2007, 26(6):326-334.
[14] 吳璽宏, 呂振洋, 高源,等. 近場結(jié)構(gòu)化頭相關(guān)傳輸函數(shù)的測量與分析[J]. 數(shù)據(jù)采集與處理, 2014, 29(2):180-185.
[15] 楊飛然. 頭相關(guān)傳遞函數(shù)測試新方法[J]. 應(yīng)用聲學(xué), 2014(3):263-264.
[16] 余光正, 劉昱, 謝菠蓀. 近場頭相關(guān)傳輸函數(shù)的多聲源快速測量系統(tǒng)設(shè)計與驗證[J]. 聲學(xué)學(xué)報, 2017(3):348-360.
[17] 李平友. 用最長序列測量揚聲器的脈沖響應(yīng)[J]. 應(yīng)用聲學(xué), 1993(1):11-16.
[18] DUDA R O, MARTENS W L. Range dependence of the response of a spherical head model[J]. Journal of Acoustical Society of America, 1998, 104(5):3048-3058.
[19] ALGAZI V R, DUDA R O, DURALSWAMI R, et al. Approximating the head-related transfer function using simple geometric models of the head and torso[J]. Journal of the Acoustical Society of America, 2002, 112(1):2053-2064.
[20] KATZ B F G. Boundary element method calculation of individual head-related transfer function, rigid model calculation[J]. Journal of the Acoustical Society of America, 2001, 110(5 Pt 1):2440-2441.
[21] OTANI M, ISE S. A fast calculation method of the head-related transfer functions for multiple source points based on the boundary element method[J]. Acoustical Science & Technology, 2003, 24(5):259-266.
[22] KAHANA Y, NELSON P. Boundary element simulations of the transfer function of human heads and baffled pinnae using accurate geometric models[J]. Journal of Sound & Vibration, 2007, 300(3):552-579.
[23] XIAO T, LIU Q H. Finite difference computation of head-related transfer function for human hearing[J]. Journal of the Acoustical Society of America, 2003, 113(5):2434-2435.
[24] FELS J, BUTHMANN P, VORL?NDER M. Head-related transfer functions of children[J]. Acta Acustica United with Acustica, 2004, 90(5):918-927.
[25] MESHRAM A, MEHRA R, YANG H, et al. P-HRTF: efficient personalized HRTF computation for high-fidelity spatial sound[C].IEEE International Symposium on Mixed and Augmented Reality. IEEE, 2014:53-61.
[26] 汪遠(yuǎn)東, 曾向陽, 陳幸幸. 近場頭相關(guān)傳遞函數(shù)的數(shù)值計算與特性分析[J]. 應(yīng)用聲學(xué), 2010, 29(3):189-195.
[27] 芮元慶. 個性化近場頭相關(guān)傳輸函數(shù)的計算與分析[D]. 廣州:華南理工大學(xué), 2013.
[28] 陳嘉衍, 謝菠蓀, 劉昱,等. 互易和邊界元法計算頭相關(guān)傳輸函數(shù)的穩(wěn)定性及其改進(jìn)[C]. 中國聲學(xué)學(xué)會全國聲學(xué)學(xué)術(shù)會議, 2014.
[29] 唐玲, 付中華. 中國人標(biāo)準(zhǔn)頭模BHead210的頭相關(guān)傳遞函數(shù)數(shù)值計算[J]. 聲學(xué)技術(shù), 2014(3):237-242.
[30] 吳銳興, 余光正. 基于3D掃描圖像的耳廓生理尺寸參數(shù)測量[C].全國聲學(xué)學(xué)術(shù)會議,2016.
[31] BROWN C P, DUDA R O. A structural model for binaural sound synthesis[J]. Speech & Audio Processing IEEE Transactions on, 1998, 6(5):476-488.
[32] JIN C, LEONG P, LEUNG J, et al. Enabling individualized virtual auditory space using morphological measurments[C]. IEEE Workshop on,2000:235-238.
[33] ZOTKIN D N, HWANG J, DURAISWAINI R, et al. HRTF personalization using anthropometric measurements[C].Applications of Signal Processing To Audio and Acoustics, 2003 IEEE Workshop on. IEEE, 2003:157-160.
[34] FAHN C S, LO Y C. On the clustering of head-related transfer functions used for 3-D sound localization[J]. Journal of Information Science & Engineering, 2003, 19(1):141-157.
[35] HUGENG, GUNAWAN D, WAHAB W. Effective preprocessing in modeling head-related impulse responses based on principal components analysis[J]. Signal Processing An International Journal, 2010, 4(4):201-212.
[36] HUGENG, WAHAB W, GUNAWAN D. A new selection method of anthropometric parameters in individualizing HRIR[J]. Telkomnika, 2015, 13(3):301-307.
[37] 劉雪潔, 鐘小麗. 改進(jìn)的頭相關(guān)傳輸函數(shù)生理參數(shù)匹配法[C]. 中國聲學(xué)學(xué)會青年學(xué)術(shù)會議, 2013.
[38] 袁康. 個性化頭相關(guān)傳遞函數(shù)研究[D]. 大連:大連理工大學(xué), 2016.
[39] SEEBER B, FASTL H.Subjective selection of non-individual head-related transfer functions[C]. Proceedings of the 2003 International Conference on Auditory Display.Boston,MA,USA, 2003: 259-262.
[40] IWAYA Y. Individualization of head-related transfer functions with tournament-style listening test: Listening with others ears[J]. Acoustical Science & Technology, 2006, 340(6):24-31.
[41] 汪林, 殷福亮, 陳喆. 3D聲場合成中近似個性頭相關(guān)傳遞函數(shù)的主觀選擇方法[J]. 信號處理, 2009, 25(7):1097-1102.
(責(zé)任編輯:杜能鋼)