国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

一種裸眼3D 顯示中的多視點(diǎn)校正方案

2022-04-27 06:21李寧馳于迅博顏玢玢桑新柱溫旭東
液晶與顯示 2022年5期
關(guān)鍵詞:光流光柵視點(diǎn)

李寧馳,于迅博,高 鑫,顏玢玢,桑新柱,溫旭東,徐 斌

(北京郵電大學(xué) 電子工程學(xué)院,北京100876)

1 引 言

我們身處在一個(gè)三維世界之中,當(dāng)我們通過(guò)雙眼觀察周?chē)木拔飼r(shí),不僅會(huì)接收到物體表面發(fā)出的顏色和光強(qiáng)信息,還可以獲取物體的空間深度信息,幫助我們理解物體的大小、遠(yuǎn)近、位置關(guān)系。然而,傳統(tǒng)的平面顯示設(shè)備只能顯示三維場(chǎng)景中某個(gè)側(cè)面的二維投影圖像,丟失了三維場(chǎng)景的深度信息,嚴(yán)重影響了人們對(duì)三維空間信息的獲取、處理和表達(dá)。裸眼三維顯示技術(shù)可以為觀看者再現(xiàn)具有空間深度信息的立體圖像,而且觀看者無(wú)需佩戴任何助視設(shè)備。因此,裸眼3D 顯示技術(shù)被認(rèn)為是未來(lái)顯示領(lǐng)域的重要發(fā)展方向[1-6]。光柵立體顯示技術(shù)是目前運(yùn)用較廣泛的裸眼3D 顯示技術(shù)之一,能夠提供清晰的顯示效果和立體感,受到了各國(guó)研究人員和企業(yè)的廣泛關(guān)注[25]。

光柵立體顯示器的基本原理是將多視點(diǎn)圖進(jìn)行合成編碼,并加載到顯示器上顯示,通過(guò)柱透鏡光柵的折射在空間中形成不同的視點(diǎn)顯示區(qū)域,觀察者左右眼處在不同視點(diǎn)區(qū)域內(nèi)時(shí),將看到具有立體效果的圖像[7-9]。多視點(diǎn)采集為光柵立體顯示器提供了顯示內(nèi)容,是光柵立體顯示的關(guān)鍵一步。多視點(diǎn)采集的關(guān)鍵在于采集位置要匹配顯示器視點(diǎn)分布,否則會(huì)出現(xiàn)錯(cuò)誤顯示。傳統(tǒng)多視點(diǎn)采集方案包括真實(shí)采集[11]和虛擬采集兩種[10],這兩種方案均通過(guò)搭建均勻相機(jī)陣列對(duì)場(chǎng)景進(jìn)行采集。經(jīng)研究發(fā)現(xiàn),由于柱透鏡光柵存在畸變,光柵立體顯示器構(gòu)建的視點(diǎn)實(shí)際上呈不均勻分布,這種分布和傳統(tǒng)的均勻采集方案發(fā)生沖突,顯示器空間視點(diǎn)將會(huì)被填充錯(cuò)誤的視差圖像,導(dǎo)致視點(diǎn)圖像偏移、透視關(guān)系錯(cuò)誤等問(wèn)題,影響最終觀看質(zhì)量。因此,本文提出一種針對(duì)裸眼3D 中多視點(diǎn)圖像的校正方案,使采集視點(diǎn)匹配顯示器視點(diǎn)分布,并填充正確視點(diǎn)圖像,對(duì)提升光柵立體顯示器觀看效果是尤為必要的。

利用相鄰視點(diǎn)生成對(duì)應(yīng)位置的虛擬視點(diǎn)是校正的關(guān)鍵一步?;谏疃刃畔⒌匿秩荆―IBR)[12-14]是目前比較主流的虛擬視點(diǎn)生成方法,該算法通過(guò)深度和RGB 圖像、通過(guò)3D 扭曲(3D warping)生成虛擬視點(diǎn),有著計(jì)算速度快、算法輕便等優(yōu)勢(shì),但生成效果存在空洞、重疊和偽影問(wèn)題[13],不適用于光柵立體顯示的內(nèi)容生成[10]。神經(jīng)網(wǎng)絡(luò)光場(chǎng)(NeRF)[15]使用神經(jīng)網(wǎng)絡(luò)表征針對(duì)場(chǎng)景的光線(xiàn)采樣,以隱函數(shù)的方式計(jì)算新視圖,NeRF 可以合成復(fù)雜場(chǎng)景的高質(zhì)量虛擬視點(diǎn),但存在網(wǎng)絡(luò)復(fù)雜、渲染速度慢、訓(xùn)練時(shí)間長(zhǎng)等問(wèn)題,不適用于動(dòng)態(tài)光柵立體顯示器的視點(diǎn)合成。光流記錄了時(shí)變或相鄰視點(diǎn)圖像中模式運(yùn)動(dòng)速度,包含了目標(biāo)相對(duì)運(yùn)動(dòng)的信息[16-19],可以通過(guò)前后幀的光流經(jīng)過(guò)后向扭曲(Backward warping)預(yù)測(cè)時(shí)序中間幀。光流法在保證計(jì)算速度的同時(shí)的渲染效果同樣可觀,被廣泛的運(yùn)用于視頻插幀中[19-22],受光流插幀的啟發(fā),本文提出了一種基于光流預(yù)測(cè)的中間視點(diǎn)合成模塊,該模塊調(diào)用RAFT 光流預(yù)測(cè)網(wǎng)絡(luò)[18]和一個(gè)融合校正網(wǎng)絡(luò)組成,以有效的生成相鄰視點(diǎn)間任意位置的高質(zhì)量中間視點(diǎn)。

針對(duì)均勻采集的多視點(diǎn)圖像與顯示器視點(diǎn)分布不匹配的問(wèn)題,本文在不改變顯示器硬件配置的前提下,提出了一種視點(diǎn)篩選算法和中間視點(diǎn)生成網(wǎng)絡(luò),以生成正確位置拍攝的虛擬視點(diǎn),使之匹配顯示器視點(diǎn)分布:輸入均勻采集的一組多視點(diǎn)圖像陣列和顯示器相關(guān)參數(shù),利用視點(diǎn)篩選算法計(jì)算出正確空間視點(diǎn)位置分布,指導(dǎo)光流預(yù)測(cè)網(wǎng)絡(luò)生成雙向光流,并經(jīng)融合校正網(wǎng)絡(luò)進(jìn)行光流校正,以提高中間光流生成質(zhì)量,通過(guò)后向扭曲生成對(duì)應(yīng)位置的虛擬視點(diǎn)圖像,經(jīng)合成編碼后在光柵立體顯示器上顯示。實(shí)驗(yàn)表明,該校正方案有效地解決了傳統(tǒng)采集和顯示器視點(diǎn)不匹配的問(wèn)題,校正后的視點(diǎn)為顯示器視點(diǎn)填充了正確的視差圖,提升了觀看質(zhì)量。

2 基本原理

2.1 光柵立體顯示器和多視點(diǎn)圖像采集

多視點(diǎn)圖像采集為光柵立體顯示器提供了顯示內(nèi)容,是光柵立體顯示的關(guān)鍵一環(huán),相機(jī)采集間距、采集距離等參數(shù)和光柵立體顯示器硬件參數(shù)是否匹配直接決定了最后的觀看質(zhì)量[10]。傳統(tǒng)多視點(diǎn)采集分為虛擬場(chǎng)景和真實(shí)場(chǎng)景采集兩種,這兩種方案都是通過(guò)搭建均勻相機(jī)陣列實(shí)現(xiàn)采集。在理想條件下,視差圖經(jīng)多視點(diǎn)編碼后經(jīng)過(guò)柱透鏡光柵被均勻偏折在空間中,所以只要根據(jù)顯示器參數(shù)設(shè)置好采集間隔進(jìn)行均勻采集,采集視點(diǎn)圖像位置和空間視點(diǎn)位置就會(huì)正確貼合,并填充正確的視點(diǎn)圖。但實(shí)驗(yàn)分析證明,如圖1(b)所示,因?yàn)橹哥R光柵存在畸變,均勻排布的物點(diǎn)在經(jīng)過(guò)透鏡后,像點(diǎn)呈中間密集兩邊稀疏的分布狀態(tài),進(jìn)而導(dǎo)致最終空間視點(diǎn)分布并不是均勻的(圖1(a)),而是和理想分布存在某種非線(xiàn)性映射關(guān)系。這就和理想狀態(tài)下推算的均勻采集參數(shù)產(chǎn)生矛盾,某些角度的視點(diǎn)沒(méi)有被填充正確的視差圖,進(jìn)而導(dǎo)致視點(diǎn)圖像錯(cuò)位、透視關(guān)系不正確等問(wèn)題,使觀看者無(wú)法在視點(diǎn)位置上看到正確的視點(diǎn)圖像,降低了觀看效果。

圖1 均勻采集和空間視點(diǎn)分布示意圖。(a)光柵立體顯示器的視點(diǎn)采集和顯示;(b)真實(shí)透鏡下的視點(diǎn)分布。Fig.1 Schematic diagram of uniform acquisition and spatial viewpoint distribution.(a)Viewpoint acquisition and display of auto stereo display;(b)View distribution under the real lenses.

因此,本文提出一種基于軟件實(shí)現(xiàn)的多視點(diǎn)圖像校正方案:針對(duì)均勻采集的多視點(diǎn)圖像進(jìn)行校正,利用視點(diǎn)間相關(guān)性預(yù)測(cè)出對(duì)應(yīng)位置的多視點(diǎn)圖像,使之能夠正確匹配顯示器視點(diǎn)分布,提高觀看效果。

多視點(diǎn)采集校正方案如圖2 所示。本文以812.8 mm(32 in)8K 分辨率的光柵立體顯示器為例;首先基于傳統(tǒng)的均勻采集方案采集待校正的多視點(diǎn)圖像陣列,設(shè)均勻采集位置為,根據(jù)光柵立體顯示器的特定光學(xué)參數(shù)基于Zemax 光學(xué)仿真軟件計(jì)算出空間視點(diǎn)的實(shí)際分布(圖2(b))。本方案設(shè)計(jì)了一種配套的視點(diǎn)篩選算法(算法細(xì)節(jié)將在2.3 節(jié)中詳細(xì)介紹),本算法計(jì)算了相對(duì)于的插幀指導(dǎo)序列,以指導(dǎo)視點(diǎn)生成模塊預(yù)測(cè)對(duì)應(yīng)位置的多視點(diǎn)圖像,其中,視點(diǎn)生成模塊流程如圖3 所示:首先基于RAFT 光流預(yù)測(cè)網(wǎng)絡(luò)計(jì)算出相鄰視點(diǎn)間的光流F,輸入本文設(shè)計(jì)的融合校正網(wǎng)絡(luò)進(jìn)行光流校正優(yōu)化,得到校正光流F’,結(jié)合上文的通過(guò)后向扭曲得到相應(yīng)位置的虛擬視點(diǎn)V'n,組成針對(duì)位置采集的多視點(diǎn)陣列,校正工作完成。

圖2 多視點(diǎn)采集校正原理。(a)多視點(diǎn)采集校正方案;(b)基于Zemax 的視點(diǎn)分布計(jì)算。Fig.2 Principle of multi-view acquisition and correction.(a)Multi-view acquisition and correction scheme;(b)Viewpoint distribution calculation based on Zemax.

圖3 視點(diǎn)生成模塊流程圖Fig.3 Flow chart of the viewpoint generation module

2.2 基于光流法的虛擬視點(diǎn)生成網(wǎng)絡(luò)

2.2.1 網(wǎng)絡(luò)結(jié)構(gòu)分析

給定兩個(gè)相鄰視點(diǎn)Vm、Vm+1和一個(gè)插值系數(shù)x∈(0,1),我們的目標(biāo)是結(jié)合x(chóng)預(yù)測(cè)水平方向上指定位置的中間視點(diǎn)V'n,一個(gè)可靠的中間視點(diǎn)預(yù)測(cè)網(wǎng)絡(luò)是至關(guān)重要的一部分,為了做到這一點(diǎn),該網(wǎng)絡(luò)不僅要學(xué)會(huì)匹配Vm、Vm+1的相似像素點(diǎn),還需學(xué)會(huì)解釋匹配點(diǎn)之間的運(yùn)動(dòng)路徑。受中間視頻幀插值[21-22]研究進(jìn)展的啟發(fā),我們提出基于光流法和后向扭曲操作生成中間虛擬視點(diǎn)。

相 鄰 視 點(diǎn) 間 的 光 流Fm→m+1、Fm+1→m記 錄 了像素點(diǎn)相對(duì)其他視點(diǎn)的位移矢量,假設(shè)我們已經(jīng)確定了雙向光流,在不考慮遮擋關(guān)系時(shí),X=x處的中間視點(diǎn)可以表示為:

或者

其中,W(·)表示后向扭曲計(jì)算函數(shù),它應(yīng)用單映性變換和雙線(xiàn)性插值來(lái)實(shí)現(xiàn),并且是可微的。

為了得到光流Fm→m+1、Fm+1→m,我們采用了RAFT 光流預(yù)測(cè)網(wǎng)絡(luò)[19]作為初始光流提取模塊,該網(wǎng)絡(luò)設(shè)計(jì)了特征匹配和獨(dú)特的內(nèi)容提取網(wǎng)絡(luò)作為特征提取模塊,并直接計(jì)算預(yù)測(cè)視圖和原圖間所有像素之間的矢量距離搭建代價(jià)聚合體(Cost Volumn),無(wú)需人工設(shè)定搜索范圍,這大大提高了光流預(yù)測(cè)的精確性和魯棒性,最后引入凸上采樣(Convex Upsampling)的方法生成高分辨率光流,訓(xùn)練時(shí)通過(guò)一個(gè)循環(huán)單元迭代地更新一個(gè)流場(chǎng),該方案在光流估計(jì)領(lǐng)域取得了顯著的突破。

由于缺乏中間視點(diǎn)的監(jiān)督,和遮擋關(guān)系的影響,單純的使用RAFT 網(wǎng)絡(luò)預(yù)測(cè)中間視點(diǎn)通常在接近x=0 和x=1 的位置上表現(xiàn)良好,在其他位置的預(yù)測(cè)效果得不到保障,且會(huì)在紋理突變的邊緣區(qū)域產(chǎn)生偽影和殘缺[19-20]。在Super SloMo 以及RIFE 等光流插幀網(wǎng)絡(luò)[20-21]的啟發(fā)下,我們提出了一種針對(duì)雙向光流的融合校正網(wǎng)絡(luò)來(lái)保證中間視點(diǎn)的預(yù)測(cè)質(zhì)量,其網(wǎng)絡(luò)結(jié)構(gòu)如圖4 所示。

圖4 光流融合校正網(wǎng)絡(luò)結(jié)構(gòu)Fig.4 Optical-flow fusion-corrected network structure

首先利用RAFT 光流預(yù)測(cè)網(wǎng)絡(luò)計(jì)算出Vm、Vm+1的雙向光流,依次輸入共享參數(shù)的融合校正網(wǎng)絡(luò)。鑒于U-Net 網(wǎng)絡(luò)在視點(diǎn)生成及優(yōu)化上有很可觀的表現(xiàn)[26],我們的融合網(wǎng)絡(luò)由U-Net 改進(jìn)而來(lái):采用最新提出的ConvNext 模塊[23]作為特征提取層,該模塊在圖像分割、特征提取等計(jì)算機(jī)視覺(jué)任務(wù)上表現(xiàn)出了強(qiáng)于Transformer 的計(jì)算能力,并保持了CNN 的計(jì)算速度;細(xì)節(jié)提取模塊由不同大小卷積核的卷積層構(gòu)成,主要負(fù)責(zé)在兼顧輪廓信息的同時(shí)提取細(xì)節(jié)特征,以解決光流在物體邊緣預(yù)測(cè)不準(zhǔn)確的問(wèn)題;最后經(jīng)反卷積和跳躍連接得到最終的輸出的校正光流F'm→m+1、F'm+1→m。

2.2.2 訓(xùn)練

給定輸入圖像Vm、Vm+1,RAFT 光流預(yù)測(cè)網(wǎng)絡(luò)的采用自監(jiān)督訓(xùn)練方式,拍攝中間視點(diǎn)Vc為融合校正網(wǎng)絡(luò)的監(jiān)督。將RAFT 網(wǎng)絡(luò)的輸出Fm→m+1、Fm+1→m輸 入 融 合 校 正 網(wǎng) 絡(luò),最 終 輸 出是 校正光流,經(jīng)過(guò)后向扭曲操 作后 得 到 預(yù) 測(cè) 中 間 視 點(diǎn)),我們最終的損失函數(shù)是種損失函數(shù)的線(xiàn)性組合:

loss=λflf+λili+λsls, (3)

其中:光流預(yù)測(cè)損失函數(shù)lf表征了來(lái)自RAFT 的光流F和校正光流F'的自監(jiān)督損失,可以約束兩個(gè)網(wǎng)絡(luò)更加精準(zhǔn)地求解雙向光流:

lb=d(W(Vm+1,F(xiàn)m→m+1),Vm)+

d(W(Vm,F(xiàn)m+1→m),Vm+1) , (4)

l'b=d(W(Vm+1,F(xiàn)m→m+1),Vm)+

d(W(Vm,F(xiàn)m+1→m),Vm+1), (5)

lf=lb+l'b, (6)

其中,d(·,·)表示像素間的損失(Pixel-wised loss)。插值損失li表征了校正光流對(duì)中間視點(diǎn)的預(yù)測(cè)準(zhǔn)確度:

最后,我們添加了一個(gè)平滑度損失項(xiàng)ls[24],以鼓勵(lì)相鄰的像素具有相似的流值,并加速網(wǎng)絡(luò)收斂:

設(shè)置經(jīng)驗(yàn)性權(quán)重λf=0.8、λi=0.4、λs=1,我們的網(wǎng)絡(luò)的每個(gè)組成部分都是可微的,因此,我們的中間視點(diǎn)生成網(wǎng)絡(luò)可以進(jìn)行端到端訓(xùn)練。

2.3 多視點(diǎn)篩選算法

根據(jù)光柵立體顯示器的實(shí)際視點(diǎn)分布,我們提出了一種多視點(diǎn)篩選算法,本算法的目的是求得均勻采集視點(diǎn)到顯示器視點(diǎn)位置的映射關(guān)系,以指導(dǎo)虛擬視點(diǎn)生成模塊生成位于的虛擬視點(diǎn),并將映射關(guān)系量化為插幀指導(dǎo)序列{(i,m,x,其中:

m:m表示距離真實(shí)采集點(diǎn)最近且小于真實(shí)采集點(diǎn)序號(hào)的均勻視點(diǎn)序號(hào),真實(shí)采集點(diǎn)將位于(m,m+1)之間,i和m的設(shè)置可以保證由最近的兩個(gè)相鄰視點(diǎn)生成,保證了生成質(zhì)量;

i:i∈{-1,1},i表示采用的光流方向,當(dāng)i=1時(shí),取間正向光流,反 之 則 取反向光流

x:x表 示 插 值 系 數(shù),x∈(0,1),它 指 導(dǎo)間的光流生成對(duì)應(yīng)位置x=xn的中間虛擬視點(diǎn)。

首先利用光學(xué)仿真計(jì)算針對(duì)特定的光柵立體顯示器的光學(xué)參數(shù)在最佳觀看距離處仿真出顯示器空間視點(diǎn)分布,設(shè)Vn的y坐標(biāo)為yn、真實(shí)分布Rn的坐標(biāo)為,均勻采集間隔為ΔT則有:

Δ=ynfmod ΔT, (9)

3 實(shí)驗(yàn)結(jié)果

3.1 基于光流法的虛擬視點(diǎn)生成測(cè)試

為了結(jié)合實(shí)際應(yīng)用場(chǎng)景,驗(yàn)證本文提出的利用基于光流法的視點(diǎn)生成的有效性,我們分別選用了若干組真實(shí)、虛擬場(chǎng)景多視點(diǎn)圖像作為對(duì)視點(diǎn)生成模塊的測(cè)試集,選用兩組分辨率為960×540、視差角為6°的視差圖送入訓(xùn)練好的網(wǎng)絡(luò)做插值預(yù)測(cè),單視點(diǎn)平均生成時(shí)間為34 ms。

圖5 分別展示了插值系數(shù)X為0.3、0.6 的針對(duì)真實(shí)、虛擬模型拍攝的中間視點(diǎn)預(yù)測(cè)以及對(duì)應(yīng)光流圖,針對(duì)虛擬場(chǎng)景預(yù)測(cè)的PSNR指標(biāo)平均值在30 以上。圖6 展示了本視點(diǎn)生成方案和NeRF[15]、DIBR[14]方案的對(duì)比效果。NeRF 生成視點(diǎn)的平均PSNR 為31.75,傳統(tǒng)DIBR 生成視點(diǎn)的平均PSNR 為25.73,本方案生成質(zhì)量明顯優(yōu)于傳統(tǒng)的DIBR 視點(diǎn)生成方案,與NeRF 生成質(zhì)量相當(dāng),但因傳統(tǒng)NeRF 重建了整個(gè)場(chǎng)景信息,導(dǎo)致訓(xùn)練時(shí)間較長(zhǎng),對(duì)于現(xiàn)實(shí)單一場(chǎng)景需要8 h訓(xùn)練時(shí)間,相比光流法難以應(yīng)用于動(dòng)態(tài)場(chǎng)景重建。以上對(duì)比表示基于光流法的虛擬視點(diǎn)生成方案可以有效、快速地生成任意位置的高質(zhì)量中間視點(diǎn),可以用于多視點(diǎn)圖片的校正工作。

圖5 中間視點(diǎn)生成效果Fig.5 Mid-viewpoint generates effect

圖6 不同視點(diǎn)生成方案的生成效果Fig.6 Generation effects of different viewpoints genera tion schemes

3.2 顯示效果測(cè)試

將均勻采集后的多視點(diǎn)圖像陣列編碼后分別加載到本實(shí)驗(yàn)室的光柵立體顯示器上顯示,分別在顯示器左右15°放置單反相機(jī)拍照記錄,最終顯示效果如圖7 所示。圖7(a)行的4 幅圖片是實(shí)驗(yàn)的參考圖片,分別表示針對(duì)模型的左右15°采集效果;圖7(b)中圖片展示了均勻采集的多視點(diǎn)圖片未經(jīng)校正的顯示效果,由于采集視點(diǎn)和真實(shí)的空間視點(diǎn)分布不匹配,可以看出與參考圖片有明顯的角度偏差,產(chǎn)生了視點(diǎn)圖片錯(cuò)位的現(xiàn)象;圖7(c)展示了校正后的顯示圖像。為了更直觀準(zhǔn)確地表達(dá)校正效果,本文計(jì)算了顯示圖和參考圖之間的差值圖及PSNR。為了減小拍攝時(shí)雜光的影響,本文對(duì)顯示圖和參考圖進(jìn)行濾波去噪后再進(jìn)行相關(guān)計(jì)算。其中,樓房場(chǎng)景下的修正前后的平均PSNR 分別為23.34、28.65,內(nèi)臟場(chǎng)景下的平均PSNR 分別為25.64、30.21,校正后的顯示效果優(yōu)于校正前。將參考圖片圖7(a)與顯示圖像圖7(b)、圖7(c)分別做相減處理。為了更清晰地表示圖像間輪廓間的區(qū)別,在相減處理后需進(jìn)行二值化處理,得到圖7(d)、(e)。通過(guò)圖7(d)、圖7(e)和PSNR 對(duì)比可以看出,傳統(tǒng)采集方案的顯示效果存在明顯的視點(diǎn)圖像偏移,而校正后的視點(diǎn)圖像分布比校正前更加貼近顯示器視點(diǎn)位置,視點(diǎn)錯(cuò)位現(xiàn)象得到優(yōu)化。上述實(shí)驗(yàn)說(shuō)明,針對(duì)光柵立體顯示,本文的多視點(diǎn)校正方案可以有效解決傳統(tǒng)采集和顯示器視點(diǎn)不匹配的問(wèn)題,校正后的視點(diǎn)為顯示器視點(diǎn)填充了正確的視差圖,提升了觀看質(zhì)量。

圖7 顯示效果對(duì)比圖。(a)特定位置采集效果;(b)校正前特定角度顯示圖像;(c)校正后特定角度顯示圖像;(d)圖6(a)和圖6(b)間的差值圖;(e)圖6(a)和圖6(c)間的差值圖。Fig.7 Display effect comparison diagram. (a)Acquisition effect of specific location;(b)Display image at specific angle before correction;(c)Display image at specific angle after correction;(d)Difference between Fig. 6(a)and Fig. 6(b);(e)Difference between Fig. 6(a)and Fig.6(c).

4 結(jié) 論

在裸眼3D 顯示系統(tǒng)中,由于柱透鏡存在像差,使顯示器空間視點(diǎn)呈不均勻分布,存在空間視點(diǎn)分布和采集視點(diǎn)分布不匹配的現(xiàn)象,導(dǎo)致視點(diǎn)圖像錯(cuò)位,透視關(guān)系不正確等問(wèn)題,最終影響觀看效果。

本文針對(duì)上述問(wèn)題提出了一種多視點(diǎn)校正方案,旨在將均勻采集的多視點(diǎn)圖像校正為符合觀看角度的新圖像陣列,以提高光柵立體顯示效果。該校正方案包括視點(diǎn)篩選算法和中間視點(diǎn)生成模塊,通過(guò)光學(xué)仿真出真實(shí)空間視點(diǎn)分布,利用視點(diǎn)篩選算法指導(dǎo)光流法生成正確位置的中間視點(diǎn)陣列,使校正圖像匹配真實(shí)的空間視點(diǎn)位置。經(jīng)過(guò)實(shí)驗(yàn)驗(yàn)證,該方法有效校正了原本存在的空間視點(diǎn)分布和采集分布不匹配的問(wèn)題,明顯地提升了觀看效果。

猜你喜歡
光流光柵視點(diǎn)
利用掩膜和單應(yīng)矩陣提高LK光流追蹤效果
基于改進(jìn)Cycle-GAN的光流無(wú)監(jiān)督估計(jì)方法
高速公路隧道感溫光柵監(jiān)測(cè)技術(shù)探析
專(zhuān)家視點(diǎn)
一種多尺度光流預(yù)測(cè)與融合的實(shí)時(shí)視頻插幀方法
基于自適應(yīng)紋理復(fù)雜度的仿生視覺(jué)導(dǎo)航方法研究
光纖光柵傳感器的應(yīng)用研究及進(jìn)展
光纖光柵傳感器在足尺瀝青路面加速加載試驗(yàn)中的應(yīng)用
環(huán)境視點(diǎn)
讓你每天一元錢(qián),物超所值——《今日視點(diǎn)—2014精萃》序