国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

倉庫三維重建系統(tǒng)中改進(jìn)雙目匹配SAD算法研究

2023-08-10 03:18:26劉學(xué)君常夢潔孔祥旻李柏燦龔泓博
關(guān)鍵詞:視差?;?/a>三維重建

劉學(xué)君 常夢潔 孔祥旻 晏 涌 李柏燦 龔泓博

(北京石油化工學(xué)院信息工程學(xué)院 北京 102617)

0 引 言

危險化學(xué)品生產(chǎn)和使用數(shù)量的不斷增加對?;穫}儲安全的監(jiān)管提出了更高的要求[1-2]。對?;穫}庫進(jìn)行三維重建,能夠?qū)崟r、準(zhǔn)確地獲取?;分車沫h(huán)境信息,實(shí)現(xiàn)?;穫}庫環(huán)境的可視化,確保監(jiān)測預(yù)警的實(shí)時性和安全性[3]。雙目視覺技術(shù)基于視差原理對目標(biāo)進(jìn)行三維重建[4],與TOF相機(jī)、結(jié)構(gòu)光、激光雷達(dá)等獲取場景深度信息的方式相比,雙目視覺技術(shù)不受限于物體表面的材質(zhì),可獲取均勻密集的場景三維信息,對硬件和成本的要求較低,在?;穾靸?nèi)安全監(jiān)測方面一定的具有應(yīng)用前景。

三維重建的效果和精度由匹配算法直接決定[5],其關(guān)鍵步驟是尋找兩幅圖像中的同名點(diǎn),即進(jìn)行立體匹配。絕對誤差和(Sum of Absolute Differences,SAD)算法是一種經(jīng)典的塊匹配算法,作為實(shí)時系統(tǒng)的典型算法,該算法的復(fù)雜度低、速度快、實(shí)時性好,得到的稠密視差圖可以用于密集型的三維重建[6-7]。但在較為復(fù)雜的場景應(yīng)用傳統(tǒng)SAD算法,直接將兩個像素塊對應(yīng)數(shù)值之差的絕對值求和會產(chǎn)生一定的誤差,得到的結(jié)果精確度不足,且因匹配窗口內(nèi)視差發(fā)生變化而導(dǎo)致視差圖出現(xiàn)空洞,影響重建后的三維模型[8-10]。本文對傳統(tǒng)SAD算法進(jìn)行改進(jìn),經(jīng)過計(jì)算得到初始視差圖,然后對初始視差圖進(jìn)行優(yōu)化,得到最終視差圖。利用標(biāo)準(zhǔn)數(shù)據(jù)集及倉庫模型進(jìn)行實(shí)驗(yàn)驗(yàn)證,證明本文算法的有效性。

1 雙目立體視覺原理

雙目立體視覺成像模型一般為兩個平行放置的相機(jī),如圖1所示,兩相機(jī)光心Ol和Or之間的距離為基線距離b,空間中一點(diǎn)p在左右相機(jī)的坐標(biāo)分別為pl(xl,yl)和pr(xr,yr),視差d定義為某一點(diǎn)在兩成像平面中相應(yīng)點(diǎn)的位置差:d=xl-xr[11-14]。

圖1 雙目視覺模型

由雙目視覺模型可知,△pOlOr∽△pplpr,根據(jù)三角相似原理可得:

式中:Zc表示p點(diǎn)的深度,f表示相機(jī)的焦距。由式(1)可知視差值d與深度值Zc成反比,當(dāng)視差值d越小,深度值Zc越大,表示該點(diǎn)距離相機(jī)越遠(yuǎn);反之,表示該點(diǎn)距離相機(jī)越近。實(shí)際情況下兩相機(jī)無法做到嚴(yán)格并排放置,需要通過外極線校正使得yl=yr,這樣搜索維度會從二維降為一維,降低匹配的復(fù)雜程度,提高匹配效率[15-16]。

2 改進(jìn)SAD算法

SAD是圖像立體匹配中基于灰度的塊匹配算法[17]。其原理求取模板圖像塊與搜索圖像塊內(nèi)像素值差的絕對值的和,進(jìn)而度量兩個圖像塊是否匹配,其定義表示如下[18]:

PR(i+h,j+k+d)|

(2)

式中:d為視差值,PL(i,j)表示模板圖像塊內(nèi)像素的灰度值,PR(i,j)表示搜索圖像塊內(nèi)像素的灰度值。利用式(2)計(jì)算得到的SAD矩陣值越小,兩個圖像塊越相似。

對于復(fù)雜場景來說,利用兩個像素塊中像素點(diǎn)差值的相似程度來匹配圖像塊,一旦場景內(nèi)連續(xù)圖像塊的像素點(diǎn)出現(xiàn)相似像素值,匹配必然產(chǎn)生誤差。為提高兩個圖像塊的匹配精度,針對SAD目標(biāo)函數(shù),引入均值為零的二維高斯分布的加權(quán)系數(shù)ω(i,j)[19]:

式中:σ2為方差,取σ2=0.5n,n為塊半徑。

二維高斯分布是一維正態(tài)分布向二維的推廣。如圖2所示,均值為零的二維高斯分布在XOZ面和YOZ面上的投影都是一個標(biāo)準(zhǔn)正態(tài)分布,在XOY面上的投影是一個橢圓。

圖2 二維高斯分布圖

將式(3)和式(2)結(jié)合,可得改進(jìn)的SAD算法如式(5)所示。

|PL(i+h,j+k)-PR(i+h,j+k+d)|

(5)

引入高斯分布后的改進(jìn)SAD更偏重于圖像塊中心像素的匹配精度,符合客觀實(shí)際,可以有效提高整體匹配精度。

3 視差圖優(yōu)化

利用加權(quán)后的SAD算法得到初始視差圖后,發(fā)現(xiàn)當(dāng)匹配塊內(nèi)像素點(diǎn)的視差變化時,會導(dǎo)致視差圖出現(xiàn)空洞。為了對空洞進(jìn)行填充,引入灰度共生矩陣(Gray-level Co-occurrence Matrix,GLCM)對空洞周圍紋理區(qū)域進(jìn)行度量,然后選用合適的窗口大小求取視差均值進(jìn)行空洞填充。

GLCM通過研究灰度的空間相關(guān)特性來描述圖像的紋理。GLCM用G(i,j)(i,j=0,1,2,…,L-1)表示,其中L表示圖像的灰度級,i和j表示像素的灰度,d表示兩個像素的間距,n表示窗口大小。θ為GLCM的生成方向,通常取0°、45°、90°和135°[20-21]。

圖3為θ=0°,d=1的灰度矩陣的生成過程。

圖3 生成灰度共生矩陣

在基于GLCM的14個紋理特征中,選用角二階矩(Angular Second Moment,ASM)、熵(Entropy,ENT)、對比度(Contrast,CON)和相關(guān)性(Correlation,COR)組成一個四維特征向量綜合描述圖像中區(qū)域的紋理屬性[22]。

如式(6)所示,利用歐氏距離(Euclidean distance,ED)來描述兩個相鄰紋理區(qū)域特征向量(ASM1、ENT1、CON1、COR1)和(ASM2、ENT2、CON2、COR2)的相似度[24]:

兩個相鄰區(qū)域紋理特征向量的ED越大,說明兩個區(qū)域的紋理屬性差別越大,那么這兩個區(qū)域不屬于同一物體的概率越大,不能直接求取視差均值賦給空洞位置;若兩個相鄰區(qū)域紋理特征向量的ED越接近于0,說明兩個區(qū)域?qū)儆谕晃矬w的概率越大,其平均視差可以賦值給空洞位置。根據(jù)圖像紋理信息進(jìn)行視差填充窗口的自適應(yīng)調(diào)節(jié),可以正確、有效地進(jìn)行視差填充,獲取良好的視差圖。

4 實(shí)驗(yàn)與分析

4.1 算法流程

本文算法的總體流程如圖4所示。利用改進(jìn)的加權(quán)SAD算法求出初始視差圖,然后對視差圖中因視差發(fā)生變化造成的空洞進(jìn)行篩選,確定空洞位置后,以空洞為中心,通過變化窗口的半徑,分別求取ASM、ENT、CON、COR值,進(jìn)而求得ED。在得到的所有ED值中找到最小值,得到其對應(yīng)的最小窗口,將窗口內(nèi)視差求均值賦給空洞位置,重復(fù)操作直到所有空洞填充為止。

圖4 本文算法流程

4.2 標(biāo)準(zhǔn)數(shù)據(jù)集測試

Middlebury和KITTI提供了立體匹配算法的評估測試數(shù)據(jù)集。Middlebury大學(xué)立體視覺網(wǎng)站是計(jì)算機(jī)視覺行業(yè)公認(rèn)的評估和數(shù)據(jù)集存儲庫,在最新的V3數(shù)據(jù)集中,提供了更加復(fù)雜的場景和更加精確的視差估計(jì)。KITTI數(shù)據(jù)集填充了Middlebury數(shù)據(jù)集僅對室內(nèi)場景進(jìn)行采集的不足,由行駛中的車輛對室外環(huán)境進(jìn)行拍攝采集。

本文采用Middlebury V3數(shù)據(jù)集和KITTI 2015數(shù)據(jù)集對匹配算法進(jìn)行測試。測試實(shí)驗(yàn)以MATLAB R2020a為算法仿真軟件,在Intel(R) Xeon(R) CPU E5-2650 v4 @2.20 GHz、128 GB內(nèi)參的電腦上運(yùn)行。Middlebury V3數(shù)據(jù)集測試結(jié)果

4.2.1MiddleburyV3數(shù)據(jù)集測試結(jié)果

將本文算法與傳統(tǒng)SAD算法及差值平方和(Sum of Squared Differences,SSD)算法[24]、半全局匹配(Semi-Global Matching,SGM)算法[25]做比較,設(shè)置匹配塊半徑n=7,Middlebury V3訓(xùn)練集視差最值分別為(290,256,640,280,280,260,260,300,330,290,290,260,240,256,760),視差圖空洞填充窗口半徑ng=1,2,3。

四種算法在Middlebury V3數(shù)據(jù)集中Adirondack場景下的視差圖如圖5所示,可以看到,通過本文算法得到的視差圖邊界清晰,能較好地保留原圖中的細(xì)節(jié)特點(diǎn),有利于后期三維重建對場景的完整恢復(fù)。

(a) 原始左圖 (b) 標(biāo)準(zhǔn)視差圖

表1給出了四種算法在Middlebury V3數(shù)據(jù)集的測試結(jié)果,主要從視差誤匹配百分比、運(yùn)行時間、視差空值個數(shù)等3方面進(jìn)行實(shí)驗(yàn)數(shù)據(jù)評估分析。結(jié)果顯示,本文算法的誤差百分比較傳統(tǒng)SAD算法和SSD算法降低了21.31%和21.32%,較SGM算法增加了0.12%;算法運(yùn)行時間較SAD算法和SSD算法增加38.36%和38.98%,較SGM算法降低了77.81%;視差空洞個數(shù)較SAD算法和SSD算法降低了83.18%和96.83%,較SGM算法增加了13.69%。

表1 四種算法在Middlebury v.3數(shù)據(jù)集上測試結(jié)果對比

4.2.2KITTI2015數(shù)據(jù)集測試結(jié)果

設(shè)置KITTI 2015數(shù)據(jù)集視差范圍為(0,228),其余參數(shù)與MiddleburyV3數(shù)據(jù)集參數(shù)保持一致。四種算法在KITTI 2015數(shù)據(jù)集中000000_10場景下的視差圖如圖6所示,可以看出本文算法在室外場景下得到的視差圖整體分布較為均勻,仍具有較好的適用性。

(a) 原圖左圖 (b) 標(biāo)準(zhǔn)視差圖

從表2可以看出,隨著KITTI 2015數(shù)據(jù)集中圖片分辨率的增大,四種算法的運(yùn)行時間均有所增加,且室外環(huán)境較為復(fù)雜,導(dǎo)致平均誤匹配百分比都處于較高的結(jié)果,但本文算法的平均誤匹配百分比較SAD算法和SSD算法降低了11.07%和11.00%,較SGM算法增加了0.38%;平均運(yùn)行時間較SAD算法和SSD算法增加292.15%和200.81%,較SGM算法降低了18.24%;平均視差空值個數(shù)較SAD算法和SSD算法降低了24.40%和22.88%,較SGM算法降低了38.20%。

表2 四種算法在KITTI 2015數(shù)據(jù)集上測試結(jié)果對比

4.3 危化品倉庫模型測試

為驗(yàn)證本文算法在真實(shí)?;穫}庫中的效果,在實(shí)驗(yàn)室內(nèi)搭建了?;穫}庫模型,利用木塊及鐵桶模擬實(shí)際倉庫堆垛碼放狀態(tài),在倉庫頂部的頂角位置放置雙目相機(jī),圖7(a)、(b)分別為雙目相機(jī)采集到的左右視角圖片,已經(jīng)過極線校正處理。

(a) 左視角 (b) 右視角圖7 ?;穫}庫模型內(nèi)雙目相機(jī)采集到的圖片

圖8至圖12分別為當(dāng)匹配塊半徑n等于1、5、10、15、20時SAD算法及本文算法對倉庫圖片的處理效果對比。分析圖8至圖12可得,受倉庫內(nèi)光照不均、地面反光、堆垛、地面、墻面紋理較少影響,本文算法和SAD算法均出現(xiàn)不同面積的空洞問題,反映到視差圖中為黑色區(qū)域。隨著匹配塊半徑的增大,相較于SAD算法,本文算法引入的高斯權(quán)重能在視差平滑化過程中保持較好的匹配結(jié)果,且本文算法利用紋理信息對空洞進(jìn)行填補(bǔ),能較好地將空洞區(qū)域縮小,結(jié)果優(yōu)于傳統(tǒng)SAD算法,具有較好的實(shí)用性。

(a) SAD算法處理結(jié)果(b) 本文算法處理結(jié)果圖8 匹配塊半徑n=1

(a) SAD算法處理結(jié)果(b) 本文算法處理結(jié)果圖9 匹配塊半徑n=5

(a) SAD算法處理結(jié)果(b) 本文算法處理結(jié)果圖11 匹配塊半徑n=15

(a) SAD算法處理結(jié)果(b) 本文算法處理結(jié)果圖12 匹配塊半徑n=20

5 結(jié) 語

本文通過引進(jìn)二維高斯分布系數(shù)對SAD匹配算法進(jìn)行加權(quán),得到初始視差圖后,針對視差圖中存在空洞的像素點(diǎn),利用GLCM度量的紋理信息選定窗口進(jìn)行空洞填充。相較于SAD算法,本文算法得到的視差圖更精確,能夠?yàn)楹笃趫鼍暗娜S重建做準(zhǔn)備。在今后的研究中,將針對本算法應(yīng)用于復(fù)雜場景的圖像匹配做進(jìn)一步的優(yōu)化,完成?;穫}庫三維重建的監(jiān)測預(yù)警工作。

猜你喜歡
視差?;?/a>三維重建
江陰市“三個創(chuàng)新”打造?;钒踩O(jiān)管新引擎
江蘇安全生產(chǎn)(2022年4期)2022-05-23 13:03:42
基于自適應(yīng)窗的立體相機(jī)視差圖優(yōu)化方法研究
淮安市構(gòu)建?;钒踩O(jiān)管新格局
?;愤\(yùn)輸豈能有亂象
水上消防(2020年4期)2021-01-04 01:51:18
基于Mimics的CT三維重建應(yīng)用分析
軟件(2020年3期)2020-04-20 00:56:34
基于梯度域引導(dǎo)濾波的視差精煉迭代算法
基于關(guān)系圖的無人機(jī)影像三維重建
基于分割樹的視差圖修復(fù)算法研究
三維重建結(jié)合3D打印技術(shù)在腔鏡甲狀腺手術(shù)中的臨床應(yīng)用
尉氏县| 泸西县| 美姑县| 古田县| 北碚区| 富平县| 安龙县| 仙居县| 嘉兴市| 苏尼特右旗| 南充市| 乐清市| 崇信县| 保亭| 天水市| 浮梁县| 怀集县| 龙里县| 宜州市| 民丰县| 西安市| 鄢陵县| 佛山市| 扶绥县| 高唐县| 阳信县| 静海县| 楚雄市| 辉南县| 临夏县| 瑞安市| 惠来县| 上杭县| 梅河口市| 文安县| 古丈县| 盖州市| 大邑县| 玛纳斯县| 和田县| 都匀市|