国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于ELAS立體匹配算法的研究與改進(jìn)

2017-06-23 12:43張道德吳良溢胡新宇
關(guān)鍵詞:立體匹配視差實(shí)時(shí)性

張道德, 伍 淵, 吳良溢, 胡新宇

(1 湖北工業(yè)大學(xué)機(jī)械工程學(xué)院, 湖北 武漢 430068;2 武漢市輕工裝備工程技術(shù)研究中心, 湖北 武漢 430068)

基于ELAS立體匹配算法的研究與改進(jìn)

張道德1,2, 伍 淵1,2, 吳良溢1,2, 胡新宇1,2

(1 湖北工業(yè)大學(xué)機(jī)械工程學(xué)院, 湖北 武漢 430068;2 武漢市輕工裝備工程技術(shù)研究中心, 湖北 武漢 430068)

在雙目機(jī)器人視覺伺服控制中,雙目立體匹配算法的實(shí)時(shí)性和準(zhǔn)確性,對機(jī)器人的精確定位及控制至關(guān)重要。在研究現(xiàn)有的一些先進(jìn)性立體匹配算法的基礎(chǔ)上,引入一種基于視差平面的局部立體匹配算法ELAS(算法,將該算法與先進(jìn)的立體匹配算法對比發(fā)現(xiàn),其克服了現(xiàn)有算法需要給定最大視差值范圍才能獲得較好視差圖的缺點(diǎn),綜合處理時(shí)間和處理效果,表現(xiàn)最好。介紹ELAS算法原理,并分析其存在的問題,針對ELAS算法處理效果不佳的問題,根據(jù)視差連續(xù)原理,研究改進(jìn)的ELAS算法,并使用引導(dǎo)濾波器處理視差圖。實(shí)驗(yàn)證明,改進(jìn)的ELAS算法顯著提高了原算法的效果,而處理時(shí)間增加不多,在不考慮實(shí)時(shí)性的情況下,結(jié)合上述濾波器后,處理效果能夠接近真實(shí)視差圖。

立體匹配; ELAS; 濾波; 實(shí)時(shí)性

在基于雙目視覺的視覺伺服中,視覺圖像采集和處理的實(shí)時(shí)性至關(guān)重要[1]。視覺圖像處理算法的識別效果,影響著機(jī)器人或機(jī)器手動作的準(zhǔn)確性[2],而立體匹配求解視差是最為關(guān)鍵的一步。根據(jù)視差值和像素位置計(jì)算場景中目標(biāo)的三維坐標(biāo)信息,進(jìn)而,控制機(jī)器人或機(jī)械手達(dá)到目標(biāo)位置,構(gòu)成了視覺伺服的基本過程。立體匹配是由左右圖像獲得圖像中場景的視差值,生成視差圖的過程。現(xiàn)有立體匹配算法可以劃分為全局方法和局部方法兩類[3]。全局方法通過能量函數(shù)最小化來獲得匹配結(jié)果,精度較高但效率較低,運(yùn)行時(shí)間過長,不能滿足實(shí)時(shí)性應(yīng)用。局部方法利用窗口內(nèi)的鄰域信息來進(jìn)行單像素匹配,視差計(jì)算依賴于待匹配點(diǎn)周圍的相鄰像素值。其優(yōu)點(diǎn)是計(jì)算復(fù)雜度低、運(yùn)行速度快,但對遮擋或紋理一致等局部歧義區(qū)域非常敏感,誤匹配率較高。立體匹配的步驟分為:匹配代價(jià)計(jì)算、匹配代價(jià)聚合、視差獲取、視差細(xì)化。算法的優(yōu)劣主要體現(xiàn)在前兩個(gè)步驟,其中匹配代價(jià)的計(jì)算采用的相似度函數(shù)一般采用差的絕對值A(chǔ)D(absolute intensity differences)和差的平方SD(squared intensity differences)等。在匹配代價(jià)聚合階段,局部的立體匹配算法一般在聚合函數(shù)后加入與窗口有關(guān)的平滑項(xiàng),而全局的立體匹配算法則加入全局約束項(xiàng)。

著名的opencv開源庫在當(dāng)前發(fā)布的立體匹配算法中,選取了3種較為先進(jìn)的算法,分別為BM(Block Matching)、SGBM(Semi-GloBal Matching)和GC(Graph Cut)。BM算法是一種局部立體匹配算法,它使用了塊匹配的思想,即使用包圍像素的局部窗口,對比兩個(gè)局部窗口的相似性,來獲得正確的視差。該思想被廣泛應(yīng)用于其他的一些立體匹配算法中。SGBM也是一種局部立體匹配算法,由Heiko Hirschm等人[4]于2008年提出,它加入動態(tài)規(guī)劃的思想,不同于一般只局限于極線上的視差搜索,而是通過多方向的路徑搜索找到最佳的視差值,因而被稱為Semi-GloBal。GC算法則是一種全局立體匹配算法,由Martull,S和Martorell,M.P等人[5]于2012年在ICPR會議中提出,基于圖割,利用最小分割最大流技術(shù),加入全局能量約束項(xiàng),能獲得較好的視差圖。Geiger等人在2010年ACCV會議提出了一種算法——ELAS(Efficient LArge-scale Stereo),ELAS算法是一種基于視差平面的快速立體匹配算法,不需要進(jìn)行密集重建,僅進(jìn)行視差估計(jì)即可,大大減少了匹配時(shí)間,在單核cpu(i5)上能達(dá)到每秒計(jì)算100萬個(gè)像素點(diǎn)視差的速度[6],是一種先進(jìn)的局部立體匹配算法,該算法的time/Mp(時(shí)間/百萬像素)值第二小,可以應(yīng)用于對實(shí)時(shí)性要求較高的視覺伺服領(lǐng)域。

1 常用立體匹配算法與ELAS的比較

本文所有實(shí)驗(yàn)采用的cpu為CORE i7 4710 M。以下實(shí)驗(yàn)使用Middlebury測試網(wǎng)站上著名的Tsukuba(384×288)、Teddy(450×375)和Cone(450×375)測試圖,實(shí)驗(yàn)的誤匹配率是通過與真實(shí)視差對比得出。ELAS算法的參數(shù)選擇為:γ=5,β=0.02,σ=1(參見下文公式) 。其余的參數(shù)如,視差范圍和SAD窗口大小等與其他3種算法(BM算法,SGBM算法,GC算法)相同,由于其他3種算法中所使用的最大視差值會影響視差搜索范圍和相似區(qū)域的數(shù)量,因此它的取值對這些算法的速度和效果均有很大影響,而ELAS卻不需要設(shè)置該值就可獲得具有參數(shù)唯一性的視差圖,故其值由ELAS計(jì)算出來后再設(shè)置給其他三種算法(表1,圖1)。

表1 立體匹配算法比較

圖 1 立體匹配算法效果對比

實(shí)驗(yàn)結(jié)果表明,BM算法速度最快,完全可以應(yīng)用于實(shí)時(shí)性較高的場合,但誤匹配率(閾值為一個(gè)像素差,即bad1.0)卻過高。從數(shù)據(jù)來看,GC算法時(shí)間最長,只有在處理背景較暗,且和前景色差較大的Tsukuba,才有較好的表現(xiàn)效果,這是因?yàn)镚C利用圖割產(chǎn)生的顏色塊的關(guān)系,當(dāng)相鄰的色塊較多時(shí),視差判別會不準(zhǔn)確,但根據(jù)算法的結(jié)果圖與標(biāo)準(zhǔn)視差圖對比發(fā)現(xiàn),GC算法的結(jié)果表現(xiàn)出了最多的細(xì)節(jié)和清晰的輪廓,場景中的物品表現(xiàn)得最完整。ELAS算法與opencv優(yōu)化過的SGBM算法相當(dāng),兩種算法在時(shí)間和效果方面均有較好表現(xiàn),在處理小尺寸的Tsukuba圖時(shí),時(shí)間都在0.1s左右,均能達(dá)到10 幀/s的實(shí)時(shí)處理最低要求,但ELAS算法速度要稍快一些。綜合來看,ELAS算法在效果和時(shí)間上的表現(xiàn)最好,但誤匹配率依然較高。

2 ELAS算法過程、原理及分析

ELAS算法用于已矯正過圖像。算法包括4個(gè)步驟:1)選取合適支持點(diǎn),并獲取支持點(diǎn)的所有備選視差;2)以這些支持點(diǎn)為頂點(diǎn)進(jìn)行Delaunay三角剖分,得到具有唯一性的三角形網(wǎng)格;3)假定投影的線性模型,認(rèn)為每一個(gè)三角形代表一個(gè)視差平面,通過頂點(diǎn)的坐標(biāo)值計(jì)算視差平面的方程;4)使用這些視差平面方程估計(jì)每一個(gè)像素點(diǎn)的視差值,將該視差值對應(yīng)的相似度函數(shù)值與以3個(gè)支持點(diǎn)(三角形頂點(diǎn),也是視差平面的頂點(diǎn))包含的所有備選視差(可以認(rèn)為這些視差為該視差平面所有可能選取的視差,即可稱為視差平面的備選視差)對應(yīng)的相似度函數(shù)值比較,函數(shù)值最小的視差即為該像素點(diǎn)視差。算法的關(guān)鍵是尋找支持點(diǎn)和備選視差以及計(jì)算相似度函數(shù)值。

2.1 尋找支持點(diǎn)獲取備選視差

(1)

(2)

2.2 視差估計(jì)點(diǎn)處的優(yōu)化函數(shù)模型

圖 2 視差計(jì)算模型

在視差的估計(jì)點(diǎn)處,采用圖2所示模型,輸入?yún)⒄拯c(diǎn)、支持點(diǎn)和參數(shù)γ、σ就可以計(jì)算出視差,然后由視差和參照點(diǎn)及參數(shù)β得到對應(yīng)點(diǎn)。由此得到優(yōu)化函數(shù)為

E(d)=β×E(k)-

(3)

其中:μ(S,o(l))為參照點(diǎn)的高斯分布均值,一般取0;為了更好地用于程序計(jì)算,將其轉(zhuǎn)化為

E′(d)=E(k)+

(4)

而其中一般視差的相似度函數(shù)計(jì)算式為

(5)

也就是說對某一個(gè)像素點(diǎn),其相似度值函數(shù)值有兩種:1)視差平面估計(jì)出的視差值附近的視差,使用式(4)計(jì)算其相似度值函數(shù)值;2)其他的視差值,使用式(5)計(jì)算其相似度值函數(shù)值。最后再采用WTK(勝者為王)算法得到最終視差,即選取相似度函數(shù)最小的那個(gè)視差作為該像素點(diǎn)的最終視差。

2.3ELAS算法分析

圖 3 平滑函數(shù)曲線

3 改進(jìn)ELAS算法原理

視差的連續(xù)性原理有兩種表述。其一,在同一幅圖像中,相鄰灰度值相同的地方視差連續(xù),即場景中同一個(gè)物體或背景的視差是連續(xù)的,不會出現(xiàn)視差突變。視差突變表明出現(xiàn)了新的前景或背景。其二,在遮擋區(qū)域內(nèi),同一幅圖像中相鄰灰度值突變的像素點(diǎn)視差值不會連續(xù)。這其實(shí)是對第一種表述的反向理解,之所以設(shè)定在遮擋區(qū)域內(nèi),是因?yàn)樵谡趽鯀^(qū)域內(nèi)部一般是前景遮擋背景,或背景遮擋前景的情況,這時(shí),出現(xiàn)新的前景或背景(即遮擋區(qū)域內(nèi)出現(xiàn)視差值大于0的區(qū)域),必然有灰度突變。

根據(jù)上述表述一,考慮左攝像機(jī)圖像中某個(gè)像素點(diǎn),如果它的左側(cè)相鄰像素的灰度值與它的灰度值相等,即沒有邊緣,表明它們的視差連續(xù)。在上述選取視差的過程(二選一,即最終視差是選擇對應(yīng)視差平面的備選視差還是估計(jì)視差)中,選擇與左側(cè)視差值接近的那個(gè)視差,即可選擇較準(zhǔn)確的視差。不過要先設(shè)置一個(gè)閾值表明視差是連續(xù)的,當(dāng)視差變化值小于閾值時(shí),才使用上述的改進(jìn)方法。設(shè)這個(gè)閾值為Threshold_d,該點(diǎn)處的備選視差設(shè)為dout,對應(yīng)的相似度函數(shù)值為E_valout,該點(diǎn)處的估計(jì)視差設(shè)為dinner,對應(yīng)的相似度函數(shù)值為E_valinner,與該點(diǎn)灰度值相等的左側(cè)相鄰像素點(diǎn)的視差值為dleft,該點(diǎn)最終視差設(shè)為d。

(6)

其中:

(7)

(8)

在計(jì)算出所有像素點(diǎn)的最終視差,獲取初始視差圖后,根據(jù)表述二,為了減少在遮擋區(qū)域邏輯錯(cuò)誤的視差,以便后續(xù)的處理過程能去除掉這些錯(cuò)誤區(qū)域,考慮在遮擋區(qū)域里可能存在邏輯錯(cuò)誤的區(qū)域中找出灰度突變點(diǎn)。其中經(jīng)過算法的處理遮擋區(qū)域的視差已被設(shè)置為負(fù)值,基本步驟如下。1)找出被遮擋區(qū)域包圍的可能存在邏輯錯(cuò)誤的區(qū)域,標(biāo)記這些區(qū)域內(nèi)的像素,前提是該過程標(biāo)記的區(qū)域內(nèi)其視差值是連續(xù)。2)從左到右掃描這些像素,從起始像素點(diǎn)處,即其相鄰左側(cè)的像素點(diǎn)的視差值為負(fù)值,判斷其灰度是否突變,如果不是突變點(diǎn)就將其視差置為負(fù)值;如果是突變點(diǎn),就標(biāo)記突變mark=-1.3)向右移動,如果其相鄰左側(cè)像素點(diǎn)為標(biāo)記突變點(diǎn),或者如果其相鄰左側(cè)像素點(diǎn)不是標(biāo)記突變點(diǎn),且該點(diǎn)視差值不為負(fù)值這兩種情況下,就判斷當(dāng)前像素點(diǎn)的灰度是否突變。如果不是突變點(diǎn)就保持當(dāng)前視差,如果是突變點(diǎn)就將其視差置為負(fù)值并標(biāo)記突變;如果其相鄰左側(cè)像素點(diǎn)不是標(biāo)記突變點(diǎn),且該點(diǎn)視差值為負(fù)值,就判斷當(dāng)前像素點(diǎn)的灰度是否突變,如果不是突變點(diǎn)就其視差置為負(fù)值并標(biāo)記突變,如果是突變點(diǎn)就保持當(dāng)前視差。4)重復(fù)3過程直到掃描完一行,移動到下一行重復(fù)2和3步驟,直到掃描完所有標(biāo)記區(qū)域。

以上處理過程的關(guān)鍵是標(biāo)記出可能出現(xiàn)邏輯錯(cuò)誤的區(qū)域和尋找灰度突變點(diǎn)。為了標(biāo)記出這些區(qū)域,可以找出所有連通域,其間在原有的連通域分割基礎(chǔ)上加入視差的因素,當(dāng)其內(nèi)視差連續(xù)時(shí)才會被選為一個(gè)獨(dú)立的連通域,由于連通域被灰度值為負(fù)值或灰度突變的點(diǎn)包圍,這符合可能出現(xiàn)邏輯錯(cuò)誤的區(qū)域的特征,同時(shí)為了剔除大范圍的背景和前景,可以通過限定連通域的大小找出這些區(qū)域,設(shè)該限定閾值為Threshold_s。尋找灰度突變點(diǎn)比較簡單,只要求當(dāng)前灰度和其左側(cè)相鄰像素點(diǎn)的灰度差的絕對值是否大于限定閾值,設(shè)該閾值為Threshold_g。由于噪點(diǎn)的灰度值與周圍像素點(diǎn)的灰度值相差很大,因此使用該方法尋找的灰度突變點(diǎn)容易受到噪點(diǎn)的影響,會導(dǎo)致一些錯(cuò)誤。為了剔除噪點(diǎn)需要增加一步處理,但為了同時(shí)不影響真正的灰度突變點(diǎn),在處理區(qū)域不能使用簡單的中值濾波。Sobel的特征也能很好地描述這些真正的灰度突變點(diǎn),而且原算法中也計(jì)算過(尋找支持點(diǎn)的過程中),不用額外增加計(jì)算負(fù)擔(dān),因此采用如下處理方式:對處理的某一個(gè)像素點(diǎn),計(jì)算其3×3窗口內(nèi)灰度均值mean1,再剔除該像素點(diǎn)的灰度值求均值mean2,如果|mean2-mean1|×8>Threshold_g,再判斷該像素點(diǎn)的sobel水平響應(yīng)值或垂直響應(yīng)值的絕對值的1/4是否大于閾值,設(shè)為Threshold_f.如果大于閾值,表明該點(diǎn)不是噪點(diǎn);如果小于閾值,表明該點(diǎn)是噪點(diǎn),需要使用mean2替代該點(diǎn)灰度值。

4 改進(jìn)ELAS算法與原算法對比

使用Middlebury 2014 datasets作為測試數(shù)據(jù)集,將原算法和改進(jìn)算法生成的視差圖,上傳至Middlebury網(wǎng)站上,得到測試結(jié)果。改進(jìn)算法中Threshold_d=5,Threshold_s=500,Threshold_g=10,Threshold_f=10。

實(shí)驗(yàn)結(jié)果表明,這些測試圖誤匹配率均得以降低,其中,在Adirondack測試圖上,改進(jìn)算法降低的誤匹配率達(dá)到38.7%,時(shí)間增加26 ms;在Playtable上也降低了38.4%,時(shí)間增加25 ms;在PlaytableP測試圖上降低的誤匹配率最低為15.63%,時(shí)間增加16 ms??梢钥闯?,改進(jìn)算法大大降低了誤匹配率,而由于原算法中已標(biāo)記了邏輯錯(cuò)誤可能出現(xiàn)的區(qū)域,且計(jì)算出了sobel響應(yīng)值,故不需要額外大量的計(jì)算來增加運(yùn)行時(shí)間,只需判斷和賦值即可,而且由于這些區(qū)域內(nèi)的像素點(diǎn)較少,故增加的時(shí)間不多,平均在20 ms左右。表2所述實(shí)驗(yàn)中,原算法和改進(jìn)算法的Mp/time均超過100萬像素/s,因此,改進(jìn)算法也具有實(shí)時(shí)性的應(yīng)用價(jià)值。

表2 原算法和改進(jìn)算法bad2.0下的all

5 視差圖場景物體輪廓細(xì)化

改進(jìn)算法減少了誤匹配率,但前景的輪廓并不是很明顯,使用表2中誤匹配率較高的PianoL測試圖來說明(圖4)。

圖 4 PianoL測試圖

由圖4可見,在算法中沒有體現(xiàn)出來的臺燈,在改進(jìn)算法中能清晰看到。但是在某些對輪廓要求較

高的場合,需要與真實(shí)視差類似的視差圖,改進(jìn)算法提供的視差圖并不能較好地識別物體的輪廓或其他特征。由于原圖中的灰度分布特征能較好的描述輪廓特征,因此,考慮使用原圖為引導(dǎo)圖像的引導(dǎo)濾波,根據(jù)文獻(xiàn)[10]對得到的視差圖采用引導(dǎo)濾波,該濾波器采用線性化的思想,引導(dǎo)圖和濾波圖具有線性對應(yīng)關(guān)系,其理論公式如下:

(9)

bk=Pk-ak×μk

(10)

(11)

式中:I為引導(dǎo)圖像,P為濾波圖像,wk和ω是窗口,μk是窗口內(nèi)均值,σ是窗口內(nèi)方差,ε為正則化項(xiàng),q為濾波器輸出。選取左相機(jī)圖像為引導(dǎo)圖像。w=9,ε=500。使用box-filter(盒濾波)技術(shù)使其復(fù)雜度為O(1),加速處理過程,減少運(yùn)行時(shí)間。

可見,通過濾波,新的視差圖反應(yīng)出場景中物體的很多細(xì)節(jié),并和真實(shí)的場景很接近(圖5)。

圖 5 PianoL原算法濾波后效果

圖6為以Teddy測試圖對比的原算法與改進(jìn)算法濾波前后的效果。實(shí)驗(yàn)證明,使用引導(dǎo)濾波能有效改善原視差圖中的輪廓細(xì)節(jié)。但濾波處理Teddy(450×375)的時(shí)間為0.53s,處理PianoL(707×480)的時(shí)間為1.04s,平均35萬像素/s左右。處理時(shí)間過長,達(dá)不到實(shí)時(shí)處理的要求。

圖 6 原算法與改進(jìn)算法濾波前后的對比效果

6 在實(shí)時(shí)場合的應(yīng)用

在一般的實(shí)時(shí)應(yīng)用中,若算法過慢,不能達(dá)到實(shí)時(shí)的要求,且算法時(shí)間與處理的圖像尺寸有關(guān),可以將獲得的圖像進(jìn)行縮小或裁剪后進(jìn)行處理以滿足實(shí)時(shí)性要求。

表3 不同尺寸運(yùn)行時(shí)間比較 s

實(shí)驗(yàn)表明,縮小圖像尺寸能夠減少算法時(shí)間,ELAS算法在不同尺寸圖像上的運(yùn)行時(shí)間的比值正比于尺寸比值。濾波時(shí)間也隨著尺寸的縮小而減少,1/16圖像大小的PianoL圖像,即PianoL(176×120),總的處理時(shí)間為0.096s,已能達(dá)到實(shí)時(shí)處理的要求,其最終視差圖如圖7所示。

圖改進(jìn)算法濾波后效果

7 結(jié)束語

基于視差連續(xù)原理的改進(jìn)算法,對原算法的匹配效果有較大提升,且運(yùn)行時(shí)間也增加不多,基本可以滿足實(shí)時(shí)性的要求。在輪廓要求較高的實(shí)時(shí)性應(yīng)用場合,也可以通過縮小圖像尺寸并使用引導(dǎo)濾波來改善視差圖。

另外,改進(jìn)算法只使用相鄰灰度信息,表2中某些測試圖中的誤匹配率依然較高,在后續(xù)的研究中應(yīng)考慮更加有效的信息,以進(jìn)一步減少誤匹配率,深入探究如何更加合理和準(zhǔn)確地選取視差,設(shè)計(jì)更加有效的相似度函數(shù)和平滑函數(shù)或后續(xù)處理。

[1] 魏朋玉.雙目視覺立體匹配方法研究[D].重慶:重慶大學(xué),2009.

[2] 趙星星.實(shí)時(shí)雙目立體匹配算法研究與實(shí)現(xiàn)[D].沈陽:東北大學(xué),2010.

[3]ScharsteinD,SzeliskiR.Ataxonomyandevaluationofdensetwo-framestereocorrespondencealgorithms[J].InternationalJournalofComputerVision, 2002, 47(1):7-42.

[4]HirschmullerH.Stereoprocessingbysemiglobalmatchingandmutualinformation[J].IEEETransactionsonPatternAnalysis&MachineIntelligence,2007,30(2):328-341.

[5]MartullS,PerisM,FukuiK.Realisticcgstereoimagedatasetwithgroundtruthdisparitymaps[J].TechnicalReportofIeicePrmu, 2011, 111:117-118.

[6]GeigerA,RoserM,UrtasunR.Efficientlarge-scalestereomatching[C]//asianconferenceoncomputervision[A].Springer-Verlag, 2010:25-38.

[7]BobickAF,IntilleSS.LargeOcclusionStereo[J].InternationalJournalofComputerVision, 1999, 33(3):181-200.

[8]HuX,MordohaiP.Evaluationofstereoconfidenceindoorsandoutdoors[C]//computervisionandpatternrecognition[A].IEEE, 2010:1466-1473.

[9]RaR.Findingthelargestunambiguouscomponentofstereomatching[C]//europeanconferenceoncomputervision[A].Springer-Verlag, 2002:900-914..

[10]HeK,SunJ,TangX.Guidedimagefiltering[C]//europeanconferenceoncomputervision[A].Springer-Verlag, 2010:1-14.

[責(zé)任編校: 張 眾]

Research on Improvement of Stereo Matching Algorithm Based on ELAS

ZHANG Daode1,2, WU Yuan1,2, WU Liangyi1,2, HU Xinyu1,2

(1SchoolofMechanicalEngin.,HubeiUniv.ofTech.,Wuhan,430068; 2Engin.RearchCenterofWuhanLightIndustyEquipment,Wuhan430068,China)

Binocular stereo matching algorithm is real-time and accurate in the binocular vision servo control system,which is very important for the accurate positioning and control of the robot. Based on the study of some advanced stereo matching algorithms,this paper introduces an algorithm of local stereo matching based on parallax plane-ELAS (Efficient LArge-scale Stereo) algorithm,introduces the principle of ELAS algorithm,Which overcomes the shortcomings of these existing algorithms in which the best disparity map cannot be obtained until the maximum disparity value range is given. The best performance is obtained by considering the combination of the processing time and processing effect.Aiming at the problem that the ELAS algorithm does not work well, the improved ELAS algorithm is studied based on the principle of disparity continuity. The disparity map is processed using the guided filter. Experiments show that the improved ELAS algorithm improves the performance of the original algorithm significantly. Without considering the real-time performance, combined with the above-mentioned filters, the processing effect can be close to the real disparity map, which is of great significance in 3D reconstruction and visual servoing.

Stereo matching; ELAS; filtering; real time

2017-01-13

湖北省自然科學(xué)基金項(xiàng)目(2014CFA528)

張道德(1973-), 男, 湖北黃岡人,工學(xué)博士,湖北工業(yè)大學(xué)教授,研究方向?yàn)橹悄芸刂葡到y(tǒng)和機(jī)器視覺圖像處理

伍 淵(1990-),男,湖北洪湖人,湖北工業(yè)大學(xué)碩士研究生,研究方向?yàn)闄C(jī)器視覺圖像處理

1003-4684(2017)02-0001-06

TP242.62

A

猜你喜歡
立體匹配視差實(shí)時(shí)性
基于自適應(yīng)窗的立體相機(jī)視差圖優(yōu)化方法研究
夏澤洋團(tuán)隊(duì)提出一種基于分割的立體匹配視差優(yōu)化方法
基于梯度域引導(dǎo)濾波的視差精煉迭代算法
航空電子AFDX與AVB傳輸實(shí)時(shí)性抗干擾對比
計(jì)算機(jī)控制系統(tǒng)實(shí)時(shí)性的提高策略
基于分割樹的視差圖修復(fù)算法研究
基于SIFT算法的圖像匹配技術(shù)在測量系統(tǒng)中的應(yīng)用
改進(jìn)導(dǎo)向?yàn)V波器立體匹配算法
動態(tài)規(guī)劃立體匹配的狀態(tài)空間分析和性能改進(jìn)
鏡像式單攝像機(jī)立體視覺傳感器對彈簧幾何尺寸的測量