国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

計(jì)算全息圖的快速生成技術(shù)

2022-10-11 08:52王迪李趙松黃倩王瓊?cè)A
信號(hào)處理 2022年9期
關(guān)鍵詞:傅里葉元法全息

王迪 李趙松 黃倩 王瓊?cè)A

(北京航空航天大學(xué)儀器科學(xué)與光電工程學(xué)院,北京 100191)

1 引言

現(xiàn)實(shí)世界是3D 世界,而傳統(tǒng)的2D 顯示設(shè)備只能提供平面圖像顯示,無(wú)法使觀看者獲得身臨其境的觀看體驗(yàn)。為了使人們更真實(shí)地認(rèn)識(shí)客觀世界,顯示技術(shù)從2D 向3D 發(fā)展已成為了一種趨勢(shì)。在3D 顯示技術(shù)中,全息3D 顯示技術(shù)基于物理光學(xué)原理,利用光的衍射重建3D 物體的波前信息,從而提供人眼所需要的全部深度信息[1],人眼在觀看3D 物體重建像時(shí)不會(huì)產(chǎn)生立體觀看視疲勞。因此,全息3D顯示被視為3D顯示未來(lái)發(fā)展的重要方向之一。

如何實(shí)現(xiàn)全息圖的快速計(jì)算是全息3D顯示的關(guān)鍵問(wèn)題之一。當(dāng)記錄復(fù)雜3D 物體時(shí),全息圖的計(jì)算量急劇增加,需要很長(zhǎng)的計(jì)算時(shí)間才能生成全息圖。為了克服這一問(wèn)題,許多提高全息圖生成速度的算法和加快計(jì)算速度的硬件設(shè)備被開發(fā)了出來(lái)[2-6]。本文將針對(duì)計(jì)算全息圖的快速生成技術(shù)進(jìn)行介紹。首先圍繞標(biāo)量衍射理論分析全息3D 顯示的基本原理,接著基于3D物體的數(shù)學(xué)描述方式對(duì)計(jì)算全息圖的快速生成方法進(jìn)行分類介紹,并概述了利用硬件加速法和深度學(xué)習(xí)法加快全息圖計(jì)算速度的典型工作,最后對(duì)計(jì)算全息圖的快速生成方法進(jìn)行總結(jié)。

2 全息3D顯示的原理

計(jì)算3D 物體的全息圖主要在于計(jì)算物光波從3D物體到全息面的衍射傳播過(guò)程,該過(guò)程主要是基于標(biāo)量衍射理論來(lái)進(jìn)行近似計(jì)算。波前上的任意一點(diǎn)都可看作是子波源,它們都能產(chǎn)生球面子波,后一時(shí)刻的波前位置是所有子波波前的包絡(luò)面[7]。當(dāng)一束光經(jīng)過(guò)孔徑平面Σ 發(fā)生了菲涅爾衍射,在孔徑后任一點(diǎn)P處觀察時(shí),孔徑平面上也存在一點(diǎn)P1作為子波源向后發(fā)射球面子波。設(shè)P1到P的直線距離為r0,傳播方向與方向法線夾角為θ,根據(jù)惠更斯-菲涅耳原理,觀察點(diǎn)P處的光場(chǎng)U(P)滿足:

其中,k是波數(shù),λ是光的波長(zhǎng),i代表虛數(shù),ds是點(diǎn)P1的面積,U(P1)是點(diǎn)P1的光場(chǎng)分布。

如圖1所示,考慮3D 物體上一個(gè)點(diǎn)到全息面的衍射過(guò)程[2,7]。記位于物平面(m,n)內(nèi)有一點(diǎn)Q1,全息面(x,y)上有一點(diǎn)Q0,兩點(diǎn)間的直線距離為r,傳播光線與光軸z的夾角為α,物平面到全息面的距離為s,由幾何關(guān)系可以求得cosα=s/r。根據(jù)公式(1)可以獲得點(diǎn)Q0處的光場(chǎng)分布U(Q0)為:

圖1 物點(diǎn)的標(biāo)量衍射示意圖Fig.1 Schematic diagram of the scalar diffraction of the object point

其中,U(Q1)表示物點(diǎn)Q1處的光場(chǎng)分布。

通過(guò)傍軸近似,公式(2)可簡(jiǎn)化為:

若采用菲涅爾衍射來(lái)計(jì)算3D 物體的全息圖,則需要對(duì)每一個(gè)物點(diǎn)都采用菲涅爾衍射來(lái)計(jì)算與該物點(diǎn)對(duì)應(yīng)的全息面上的復(fù)振幅分布,最后將物點(diǎn)疊加以獲得3D 物體的全息圖。這樣的復(fù)振幅分布表示為:

其中,H(x,y)表示全息面(x,y)上的復(fù)振幅分布,Aj表示第j個(gè)點(diǎn)光源(xj,yj,zj)的振幅信息,φj表示與第j個(gè)點(diǎn)光源對(duì)應(yīng)的隨機(jī)相位。假設(shè)3D 物體上有N個(gè)點(diǎn)光源,全息圖的分辨率為a×b,那么公式(4)的運(yùn)算量為N×a×b次,且每次計(jì)算都涉及到多次乘法運(yùn)算及積分運(yùn)算等,計(jì)算速度將變得非常慢。要做到實(shí)時(shí)動(dòng)態(tài)的全息3D顯示,計(jì)算速度問(wèn)題需得到有效解決。

3 計(jì)算全息圖的快速生成方法

3D物體的數(shù)學(xué)描述方法具有不同的表達(dá)形式,如圖2所示。根據(jù)3D 物體的幾何信息,將其離散表示為一系列的點(diǎn)光源,即為點(diǎn)元描述;根據(jù)3D 物體的表面特征,利用一系列的三角形網(wǎng)格或多邊形網(wǎng)格來(lái)描述3D 物體的表面信息,即為面元描述;根據(jù)3D物體的深度信息,將其離散為一系列平行于全息面的2D 切面,即為分層描述。依據(jù)不同的描述方法,計(jì)算全息圖的生成方法可分為點(diǎn)元法、面元法和分層法三類[1]。此外,硬件加速法和深度學(xué)習(xí)法也在全息圖的快速計(jì)算中起著重要的作用,接下來(lái)將分別進(jìn)行介紹。

圖2 3D物體的數(shù)學(xué)描述方法Fig.2 Mathematical description method of the 3D object

3.1 點(diǎn)元法

點(diǎn)元法的基本思想是利用3D 空間分布的一系列離散點(diǎn)光源來(lái)描述3D 物體,經(jīng)典的基于點(diǎn)元法的快速計(jì)算方法有查表法(Look-up table,LUT)和波前記錄平面法(Wavefront-recording plane,WRP)。美國(guó)麻省理工學(xué)院的研究人員提出了LUT 法來(lái)提高離軸透射全息圖的計(jì)算速度[2]。在該方法中,與3D 物體的每個(gè)點(diǎn)元相對(duì)應(yīng)的所有條紋圖案都被預(yù)先計(jì)算并存儲(chǔ)在查找表中。雖然條紋的存儲(chǔ)需要占用較大的儲(chǔ)存空間,但全息圖的計(jì)算速度會(huì)有一個(gè)數(shù)量級(jí)的提升。為了減少查找表占用的儲(chǔ)存空間,韓國(guó)光云大學(xué)的研究人員提出了新型查表法(Novel-LUT,N-LUT)[8],如圖3 所示。3D 物體被描述為空間中離散的點(diǎn)元,處于同一深度平面的點(diǎn)為一組,然后僅預(yù)計(jì)算和存儲(chǔ)每個(gè)深度平面上位于中心點(diǎn)的主條紋圖案(Principal fringe pattern,PFP),以此減少了生成全息圖所需的條紋圖案的計(jì)算量,計(jì)算速度相比LUT法提升了近744倍。

圖3 N-LUT的流程圖Fig.3 Flow chart of the N-LUT

新加坡國(guó)立大學(xué)的研究人員提出了一種分別使用水平和垂直方向的拆分查找表法(Split-LUT,S-LUT)[9],降低了待計(jì)算的查找表的存儲(chǔ)空間,S-LUT法的計(jì)算速度相比傳統(tǒng)的LUT法提升了大約700 倍,相比傳統(tǒng)的光線追蹤方法也提升了大約100 倍。同時(shí),由于S-LUT 法在圖形處理單元(Graphics processing unit,GPU)上的內(nèi)存使用量遠(yuǎn)低于LUT 法,這使得復(fù)雜3D 對(duì)象的全息圖計(jì)算速度更快。韓國(guó)光云大學(xué)的研究人員對(duì)N-LUT 法進(jìn)行了改進(jìn)[10],他們首先用基線PFP 來(lái)計(jì)算3D 視頻的2D 全息圖,然后用2D 全息圖與深度補(bǔ)償PFP 的乘積來(lái)計(jì)算3D 視頻的3D 全息圖,最后采用運(yùn)動(dòng)補(bǔ)償將PFP 的存儲(chǔ)容量從N-LUT 法的兆字節(jié)數(shù)量級(jí)降低到千字節(jié)數(shù)量級(jí)。該方法的計(jì)算速度相比N-LUT 法提高了30%。由于N-LUT 法需要計(jì)算的PFP 的數(shù)量與3D 物體的深度層數(shù)成正比關(guān)系,當(dāng)3D物體的深度層數(shù)增加時(shí),存儲(chǔ)量大幅上升。為了解決這一問(wèn)題,北京理工大學(xué)的研究人員提出一種與深度層數(shù)無(wú)關(guān)的壓縮查表法(Compressed-LUT,C-LUT)[11],通過(guò)預(yù)先計(jì)算并存儲(chǔ)2D 切片平面上點(diǎn)的水平和垂直光調(diào)制因子,大大節(jié)約了存儲(chǔ)空間。雖然C-LUT 法相比LUT 法計(jì)算速度得到顯著提高,但預(yù)先計(jì)算的PFP 依舊占據(jù)大量?jī)?nèi)存。為了解決查找表的高存儲(chǔ)空間需求,日本千葉大學(xué)的研究人員提出使用WRP 法來(lái)快速計(jì)算全息圖[12],如圖4(a)所示。首先在波前記錄平面上記錄3D 物體發(fā)射的球面波,然后基于快速傅里葉變換,通過(guò)從波前記錄平面到全息面的衍射計(jì)算來(lái)降低計(jì)算復(fù)雜度。在此基礎(chǔ)上,該團(tuán)隊(duì)利用LUT 法來(lái)記錄3D物體到波前記錄平面的PFP,然后使用GPU 來(lái)加速完成波前記錄平面的PFP 到全息面的衍射計(jì)算[13],最終全息圖的計(jì)算速度相比傳統(tǒng)的WRP 法提高了80倍,實(shí)驗(yàn)效果如圖4(b)所示。北京航空航天大學(xué)的研究人員通過(guò)分析3D 物體的大小、每個(gè)點(diǎn)的位置、空間光調(diào)制器的參數(shù)和重建距離之間的關(guān)系計(jì)算出再現(xiàn)像的有效視區(qū),進(jìn)而計(jì)算出各物點(diǎn)在全息面上的衍射面積大小,減小了存儲(chǔ)的數(shù)據(jù)量。當(dāng)物點(diǎn)數(shù)為600×600 時(shí),計(jì)算速度比傳統(tǒng)的N-LUT 算法提高了51%以上[14]。目前點(diǎn)元法的計(jì)算速度問(wèn)題已得到有效解決,如何在提高計(jì)算速度的基礎(chǔ)上,提高全息圖的再現(xiàn)質(zhì)量仍是點(diǎn)元法需要關(guān)注的問(wèn)題。

圖4 WRP法的方法示意圖和實(shí)驗(yàn)效果圖Fig.4 Schematic diagram and experimental result of the WRP method

3.2 面元法

基于點(diǎn)元法計(jì)算全息圖的點(diǎn)元數(shù)量常高達(dá)數(shù)百萬(wàn),而使用面元法可以將點(diǎn)元數(shù)量減少兩到三個(gè)數(shù)量級(jí)。目前,計(jì)算機(jī)圖形學(xué)已經(jīng)建立起一套基于三角形網(wǎng)格法的離散、建模和計(jì)算方法,因此面元法可以借助計(jì)算機(jī)圖形學(xué)計(jì)算3D 物體的全息圖。根據(jù)采樣方法的不同,面元法分為傳統(tǒng)面元法和解析面元法。

傳統(tǒng)面元法需要對(duì)每個(gè)面元的頻域和空域都進(jìn)行傅里葉變換運(yùn)算。日本關(guān)西大學(xué)和德國(guó)耶拿大學(xué)的研究人員基于平面波的角譜和頻域的坐標(biāo)旋轉(zhuǎn),通過(guò)兩次快速傅里葉變換和一次頻譜插值,實(shí)現(xiàn)了非平行于全息面的孔徑衍射波的復(fù)振幅計(jì)算[3]。北京理工大學(xué)的研究人員為了解決傳統(tǒng)面元法在生成全息圖的過(guò)程中存在大量數(shù)值計(jì)算的問(wèn)題,提出了一種基于二維傅里葉分析的快速多邊形計(jì)算方法[15]。該方法的實(shí)驗(yàn)效果如圖5(a)所示。由于該方法不需要對(duì)每個(gè)多邊形表面進(jìn)行快速傅里葉變換和額外的擴(kuò)散計(jì)算,因此可以節(jié)省計(jì)算時(shí)間,相比傳統(tǒng)面元法計(jì)算時(shí)間縮短了25%。

愛爾蘭國(guó)立大學(xué)的研究人員提出了解析面元法[16],與傳統(tǒng)面元法相比,解析面元法對(duì)于多面元的3D 物體也只需使用一次傅里葉變換,計(jì)算速度得到了快速提高。但是解析面元法的計(jì)算復(fù)雜度取決于全息圖的分辨率和3D 物體的面元數(shù)量,復(fù)雜的3D 物體將影響解析面元法的計(jì)算速度。北京理工大學(xué)的研究人員提出了一種改進(jìn)的基于全解析多邊形的方法[17],他們利用原三角形和任意三角形的頂點(diǎn)向量和偽逆矩陣,構(gòu)造了表示兩個(gè)三角形空間關(guān)系的仿射變換矩陣。該方法避免了每個(gè)多邊形面元都要參與FFT 計(jì)算,相比傳統(tǒng)的解析面元法,還省去了低階的相關(guān)角度計(jì)算,計(jì)算速度提高了90%,實(shí)驗(yàn)效果如圖5(b)所示。昆明理工大學(xué)的研究人員則將空間域的旋轉(zhuǎn)和二維的仿射變換由旋轉(zhuǎn)矩陣和二維仿射矩陣來(lái)表示,比傳統(tǒng)的解析面元法計(jì)算速度提高了1倍[18]。從傳統(tǒng)面元法和解析面元法的實(shí)驗(yàn)效果來(lái)看,雖然全息圖的計(jì)算速度得到了提升,但是大量的矩陣變換和空間映射卻帶來(lái)了全息圖重建質(zhì)量的下降,如何在保證全息圖計(jì)算速度得到提高的同時(shí)不對(duì)3D 物體信息造成損失仍是面元法需要解決的問(wèn)題。

圖5 面元法的實(shí)驗(yàn)效果Fig.5 Experimental results of the polygon-based method

3.3 分層法

為了進(jìn)一步簡(jiǎn)化計(jì)算,研究者們提出了計(jì)算復(fù)雜度更低、數(shù)據(jù)量更少的分層法。分層法的基本思想是將3D物體切分為一系列平行于全息面的2D切片,這些切片包含了3D 物體各個(gè)深度的振幅信息,可以使用面與面之間的傳播算法如角譜法、快速傅里葉法等來(lái)實(shí)現(xiàn)快速計(jì)算。清華大學(xué)的研究人員提出了基于角譜的分層法[4],實(shí)驗(yàn)效果如圖6(a)所示。每層圖像的振幅信息在與隨機(jī)相位疊加后進(jìn)行角譜傳播。在不考慮傍軸近似的情況下,將每層圖像在全息面的頻譜分布疊加就能獲得3D 物體在全息面的頻譜分布,最后使用逆傅里葉變換獲得全息圖的復(fù)振幅分布。該方法避免了點(diǎn)元法和面元法的巨大計(jì)算量,能準(zhǔn)確預(yù)測(cè)3D 物體的整個(gè)衍射場(chǎng),在分層數(shù)量一定的前提下,計(jì)算量與3D 物體的復(fù)雜度無(wú)關(guān)。與傳統(tǒng)的分層法相比,基于角譜的分層法能在不降低圖像分辨率的前提下有效地減少全息圖的計(jì)算量。

圖6 分層法的實(shí)驗(yàn)效果Fig.6 Experimental results of the layer-based method

為了提高分層法的計(jì)算速度,劍橋大學(xué)的研究人員提出了基于快速兩步分層算法和亞稀疏二維快速傅里葉變換算法[19]??紤]到分層法中不同層之間的遮擋效應(yīng),每個(gè)層的圖像包含像素值為零的大圖像區(qū)域。利用這一特性,快速兩步分層算法只計(jì)算了每一層的非零圖像區(qū)域。此外,亞稀疏二維快速傅里葉變換算法只計(jì)算了分層圖像的非零像素的行和列,降低了傅里葉變換的計(jì)算量。與傳統(tǒng)的分層法相比,這兩種方法與分層法的結(jié)合使計(jì)算速度提高了至少3 倍。由于3D 物體的信息在衍射計(jì)算中分布到了整個(gè)全息圖平面,亞稀疏二維快速傅里葉變換在減小計(jì)算區(qū)域同時(shí)可能會(huì)導(dǎo)致3D 物體的信息丟失,這將引起重建圖像的質(zhì)量下降。日本千葉大學(xué)的研究人員通過(guò)使用實(shí)值傅里葉變換和哈特萊變換作為實(shí)線性變換來(lái)減少耗時(shí)的復(fù)數(shù)運(yùn)算,并將由實(shí)線性變換產(chǎn)生的全息圖通過(guò)半波帶片法和數(shù)字化單邊帶法轉(zhuǎn)換為了純相位全息圖。該方法相比傳統(tǒng)的分層法計(jì)算速度提高了3倍[20],實(shí)驗(yàn)效果如圖6(b)所示。

目前,分層法的計(jì)算速度已得到顯著的提高,許多分層法中存在的問(wèn)題如遮擋效應(yīng),缺乏深度線索等得到了解決,但是重建圖像的實(shí)時(shí)渲染和重建圖像質(zhì)量的提高仍然是分層法需要進(jìn)一步解決的問(wèn)題。

3.4 硬件加速法

除了從算法的角度來(lái)提升計(jì)算全息圖的生成速度以外,硬件平臺(tái)的算力提升對(duì)于快速計(jì)算也很關(guān)鍵。近年來(lái),隨著硬件運(yùn)算速度的快速提升,越來(lái)越多的研究人員利用高性能硬件設(shè)備來(lái)完成全息圖的計(jì)算。傳統(tǒng)的全息圖算法是在中央處理器(Central processing unit,CPU)上運(yùn)行的,盡管目前CPU 的處理能力有所提高,但對(duì)于實(shí)時(shí)應(yīng)用來(lái)說(shuō)還遠(yuǎn)遠(yuǎn)不夠。加速硬件平臺(tái),通常包括GPU 和可編程門陣列(Field programmable gate array,F(xiàn)PGA)等,能夠配合算法快速計(jì)算全息圖。

CPU 是現(xiàn)代計(jì)算機(jī)的核心組件,使用CPU 的最大優(yōu)點(diǎn)是開發(fā)時(shí)間短,幾乎所有可以在其他硬件加速器平臺(tái)上找到的軟件包都具有相同或等效的工具包可以在CPU 上使用,而且CPU 對(duì)雙精度浮點(diǎn)運(yùn)算的支持往往更好。但是,CPU 無(wú)法實(shí)現(xiàn)輸入數(shù)據(jù)完全的并行運(yùn)算。與CPU 不同的是,GPU 在硬件結(jié)構(gòu)上體現(xiàn)出了并行性,同時(shí),GPU 可以使用高級(jí)編程語(yǔ)言進(jìn)行編程,這使得開發(fā)和調(diào)試過(guò)程比其他平臺(tái)更快、更容易。麻省理工學(xué)院的研究者基于GPU提出了一種允許進(jìn)行若干計(jì)算簡(jiǎn)化的全息算法。該算法在2 s 內(nèi)可以計(jì)算出一個(gè)6 MB 的全息圖,比傳統(tǒng)的計(jì)算機(jī)快100倍[21]。日本千葉大學(xué)的研究者使用HLSL和DirectX API實(shí)現(xiàn)了對(duì)基于GPU的線性全息圖算法的加速,將計(jì)算速度提升了47倍[5]。此外,F(xiàn)PGA 作為一種高度可配置的集成電路,能夠在制造后由設(shè)計(jì)者重新編程。近年來(lái),使用基于FPGA架構(gòu)的集成芯片來(lái)提高全息圖計(jì)算速度的方法也被提出[22]。如圖7所示,基于FPGA的全息算法可以遷移到非常大規(guī)模的集成芯片上,且不需要進(jìn)行大規(guī)模的修改[23]。大規(guī)模集成的可編程FPGA 的出現(xiàn)為實(shí)現(xiàn)全息圖的快速生成提供了硬件支撐,但FPGA的設(shè)計(jì)難度大、加工成本高,目前仍未得到廣泛應(yīng)用。

圖7 FPGA在計(jì)算全息3D顯示中的應(yīng)用Fig.7 Application of FPGA in computer-generated holographic 3D display

3.5 深度學(xué)習(xí)法

近幾年,得益于GPU 計(jì)算能力的提高,深度學(xué)習(xí)法被應(yīng)用于人工智能的各個(gè)領(lǐng)域[24],計(jì)算全息技術(shù)也與深度學(xué)習(xí)法產(chǎn)生了緊密結(jié)合[25]。基于在計(jì)算全息實(shí)驗(yàn)中產(chǎn)生的大量數(shù)據(jù),深度學(xué)習(xí)法利用成熟的深度學(xué)習(xí)框架,建立3D 物體的全息圖與3D 物體間的損失函數(shù)關(guān)系,完成對(duì)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練。當(dāng)神經(jīng)網(wǎng)絡(luò)被訓(xùn)練完成后,可以快速生成滿足需求的全息圖,從而解決全息顯示質(zhì)量與計(jì)算時(shí)間的權(quán)衡問(wèn)題,為計(jì)算全息圖的快速生成提供了新的思路。日本大阪大學(xué)的研究人員提出了一種相對(duì)簡(jiǎn)單的深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練數(shù)據(jù)生成策略,使用卷積殘差神經(jīng)網(wǎng)絡(luò)生成3D 物體的全息圖[26],單幀全息圖的計(jì)算時(shí)間僅需26 ms。韓國(guó)首爾大學(xué)的研究人員基于由隨機(jī)點(diǎn)產(chǎn)生的訓(xùn)練數(shù)據(jù)集,提出了一種用于生成多深度全息圖的深度神經(jīng)網(wǎng)絡(luò)[27],當(dāng)物體層數(shù)為5層時(shí),多深度全息圖的計(jì)算時(shí)間為234 ms。上海大學(xué)的研究人員利用多深度平面的角譜算法來(lái)訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò),實(shí)現(xiàn)了多層3D 物體的純相位全息圖的快速生成[28]。日本千葉大學(xué)的研究人員提出了將低采樣全息圖轉(zhuǎn)換為全采樣全息圖的卷積神經(jīng)網(wǎng)絡(luò),以補(bǔ)償因采樣不足引起的誤差,同時(shí)加快了計(jì)算速度[29]。清華大學(xué)的研究人員以U-Net結(jié)構(gòu)作為編碼器生成全息圖,在150 ms內(nèi)完成了單幀分辨率為3940×2160 的全息圖計(jì)算[30],如圖8(a)所示。麻省理工學(xué)院的研究人員提出了一種用復(fù)雜數(shù)據(jù)集訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的CNN 框架[31],解決了傳統(tǒng)計(jì)算全息中的遮擋問(wèn)題,實(shí)驗(yàn)結(jié)果如圖8(b)所示,為實(shí)時(shí)的全息3D顯示提供了解決思路。

圖8 深度學(xué)習(xí)在計(jì)算全息3D顯示中的應(yīng)用Fig.8 Application of the deep learning in computer-generated holographic 3D display

如今,理想的全息3D 顯示對(duì)計(jì)算速度和重建質(zhì)量都提出了很高要求,如何保證全息圖在快速生成的同時(shí)也能有較好的重建質(zhì)量是未來(lái)全息3D 顯示技術(shù)研究的重點(diǎn)內(nèi)容,深度學(xué)習(xí)法也將與計(jì)算全息技術(shù)結(jié)合得愈發(fā)緊密。

4 結(jié)論

本文對(duì)計(jì)算全息圖的快速生成方法與優(yōu)缺點(diǎn)進(jìn)行了分類概述。在點(diǎn)元法中,LUT法和WRP法在加快點(diǎn)元法計(jì)算速度的同時(shí)節(jié)省了存儲(chǔ)空間;解析面元法利用仿射變換減少了傅里葉變換次數(shù),從而提高了傳統(tǒng)面元法的計(jì)算速度;不斷改進(jìn)的分層法在解決遮擋問(wèn)題的同時(shí)也加快了全息圖的生成速度;硬件加速技術(shù)可以使計(jì)算速度得到大幅提升,而深度學(xué)習(xí)方法在保證質(zhì)量的同時(shí),也為全息圖的快速計(jì)算提供了新的思路。目前,雖然國(guó)內(nèi)外的研究人員提出了諸多提高全息圖生成速度的方法,然而全息圖的計(jì)算速度尚難以滿足3D 物體實(shí)時(shí)計(jì)算的需求。未來(lái),全息圖的速度提升不僅需要高效率的計(jì)算方法,更需要高性能的硬件設(shè)備的開發(fā)。隨著光電技術(shù)的發(fā)展,相信在不久的將來(lái),3D 物體全息圖的實(shí)時(shí)計(jì)算會(huì)得以實(shí)現(xiàn)。

猜你喜歡
傅里葉元法全息
一種傅里葉域海量數(shù)據(jù)高速譜聚類方法
全息? 全息投影? 傻傻分不清楚
全息“魔鏡”在身邊
構(gòu)造Daubechies小波的一些注記
關(guān)于傅里葉變換教學(xué)中的拓展
法國(guó)數(shù)學(xué)家、物理學(xué)家傅里葉
用換元法推導(dǎo)一元二次方程的求根公式
例談消元法在初中數(shù)學(xué)解題中的應(yīng)用
手機(jī)看三維全息影像有望成現(xiàn)實(shí)
笑笑漫游數(shù)學(xué)世界之帶入消元法