国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于視差區(qū)域分割的動(dòng)態(tài)規(guī)劃立體匹配算法改進(jìn)

2013-03-21 05:33王敬東李秀馨許麗紅
圖學(xué)學(xué)報(bào) 2013年2期
關(guān)鍵詞:立體匹配視差像素點(diǎn)

王敬東, 陳 思, 李秀馨, 許麗紅

(南京航空航天大學(xué)自動(dòng)化學(xué)院,江蘇 南京 210016)

機(jī)器人在未知環(huán)境中運(yùn)動(dòng)時(shí)須準(zhǔn)確、快速地辨別障礙物的位置,尋找出可行走的道路區(qū)域,這就要求應(yīng)用于視覺(jué)導(dǎo)航系統(tǒng)中的立體視覺(jué)匹配算法具有較高的準(zhǔn)確性和實(shí)時(shí)性。目前,一些立體匹配算法在精度方面取得了一定提高,但計(jì)算量與處理時(shí)間都顯著增加。在全局算法中,DP(Dynamic Programming動(dòng)態(tài)規(guī)劃)方法計(jì)算速度較快,能夠在較低的硬件條件下滿(mǎn)足實(shí)時(shí)性需求,然而其匹配精度不高。

Geiger[1]等最早提出基于像素對(duì)亮度差異的DP立體匹配算法,但該算法缺少完善的全局約束項(xiàng),易出現(xiàn)條紋瑕疵,匹配精度較低;Gong[2]等介紹了一種基于可靠性DP算法,該算法利用了像素點(diǎn)之間的約束關(guān)系,提升了一定區(qū)域的匹配精度,但其總體匹配精度仍然較低;Veksler[3]等提出了一種樹(shù)形結(jié)構(gòu)來(lái)替代傳統(tǒng)的基于掃描行的DP方法,該方法更大地加強(qiáng)了掃描線內(nèi)部及之間的約束,但匹配精度仍然不高。這些DP方法處理精度不高的一個(gè)重要原因是:在立體匹配的初始代價(jià)求取階段,一般使用固定窗口進(jìn)行能量聚集,這樣僅僅以累加求平均的方式進(jìn)行能量聚集,不能很好地體現(xiàn)像素與其周?chē)鼽c(diǎn)的聯(lián)系,且窗口的大小難以確定,得到的初始匹配代價(jià)仍存在較多誤差。另外,在前向階段及路徑回溯階段,對(duì)于每個(gè)像素點(diǎn)僅考慮了當(dāng)前全局能量函數(shù)值E(d)最小的視差值。然而使當(dāng)前點(diǎn)全局能量函數(shù)最小的視差值,并不一定就是使整條掃描線全局能量函數(shù)總和最小的視差值,因此這樣做會(huì)導(dǎo)致一些有用信息丟失,甚至有可能會(huì)出現(xiàn)連續(xù)誤匹配的現(xiàn)象。

本文針對(duì)傳統(tǒng)DP算法存在的問(wèn)題,對(duì)立體匹配初始代價(jià)求取、路徑尋徑及回溯加以改進(jìn)。在初始代價(jià)求取階段,提出了一種改進(jìn)的變窗口能量聚集法,該方法通過(guò)獲取場(chǎng)景的視差變化區(qū)域與視差連續(xù)區(qū)域的位置信息,從而使像素點(diǎn)在能量聚合時(shí)能夠根據(jù)視差變化自適應(yīng)地調(diào)整聚合窗口的大小,使能量聚合方式更加合理,提高了初始視差的準(zhǔn)確性;在路徑尋徑及回溯階段,使用多路徑尋徑回溯法,保留更多可靠點(diǎn),避免了連續(xù)誤匹配現(xiàn)象的發(fā)生。因此提高了立體匹配的匹配精度,并具有較好的實(shí)時(shí)性。

1 改進(jìn)的多窗口能量聚合方法

1.1 初始匹配代價(jià)求取中存在的問(wèn)題

初始匹配代價(jià)用于反映對(duì)應(yīng)的匹配像素之間的相似程度,匹配代價(jià)值越小,兩像素點(diǎn)為匹配點(diǎn)對(duì)的可能性就越大。匹配代價(jià)的計(jì)算就是利用相似性約束條件,對(duì)不同視差下立體圖像對(duì)的基元進(jìn)行相似度計(jì)算。

本文采用了Birchfield[4]等提出的BT相似性度量函數(shù),可以減小對(duì)圖像采樣敏感程度,并且可以減少由于相關(guān)窗口整數(shù)像素匹配對(duì)精度的影響。

BT相似性度量函數(shù)如公式1所示

其中:

BT法原理示意如圖1所示。該方法主要是對(duì)左右圖像坐標(biāo)分別為(x,y)和的 (x-d,y)待匹配像素點(diǎn)對(duì)進(jìn)行鄰域灰度線性插值,綜合插值信息來(lái)進(jìn)行匹配代價(jià)的計(jì)算。對(duì)于右圖像而言,從插入的灰度值(x-d,y)、(x-d,y)和待匹配像素點(diǎn)的灰度值IR(x-d,y)找出最大值IRmax(x-d,y)和最小值IRmin(x-d,y),將左圖像中的待匹配像素點(diǎn)IL(x,y)與右圖像獲得的最大值和最小值進(jìn)行比較。如果IL(x,y)在IRmax(x-d,y)和IRmin(x-d,y)之間,那么左圖像待匹配像素點(diǎn)到右圖像待匹配亞像素點(diǎn)的匹配代價(jià)C(x,y,d,IL,IR)為0,否則對(duì)IL(x,y)與IRmax(x-d,y)的差值絕對(duì)值和IL(x,y)與IRmin(x-d,y)的差值絕對(duì)值進(jìn)行比較,將較小值作為C(x,y,d,IL,IR)的值。同理,對(duì)左圖像進(jìn)行線性插值,獲得右圖像待匹配像素點(diǎn)到左圖像待匹配亞像素點(diǎn)的匹配代價(jià)C(x,y,d,IR,IL)。最后比較兩個(gè)匹配代價(jià)值C(x,y,d,IL,IR)和C(x,y,d,IR,IL),將較小值作為左圖像坐標(biāo)為(x,y)的像素點(diǎn)在視差為d時(shí)的匹配代價(jià)。

BT法在初始代價(jià)求取是具有優(yōu)點(diǎn),但若直接使用,在尋徑時(shí)會(huì)產(chǎn)生多個(gè)相等的最優(yōu)能量值,從而導(dǎo)致匹配的不確定性。因此需要將參考點(diǎn)與匹配點(diǎn)的鄰域像素點(diǎn)信息引入進(jìn)來(lái),更全面地反映像素點(diǎn)的圖像信息。能量聚合方法就是以參考點(diǎn)及匹配點(diǎn)為中心創(chuàng)建一個(gè)窗口,用窗口內(nèi)相鄰像素的亮度值分布來(lái)表征中心像素,從而體現(xiàn)中心點(diǎn)鄰域像素間的關(guān)系,進(jìn)而提高匹配準(zhǔn)確率。

圖1 BT法原理示意圖

使用能量聚合法,首先需要建立合適大小的窗口。一般的能量聚合法是采用固定窗口對(duì)初始代價(jià)進(jìn)行能量聚集,但這樣做會(huì)帶來(lái)固定窗口的大小難以確定的問(wèn)題。窗口選取過(guò)小,在視差連續(xù)區(qū)域會(huì)造成較嚴(yán)重的誤匹配;窗口選取過(guò)大,則會(huì)在視差明顯變化區(qū)域造成較大誤差,且會(huì)極大地增加計(jì)算量。

因此,初始代價(jià)聚集窗口大小要針對(duì)視差連續(xù)區(qū)域與視差變化變化區(qū)域相應(yīng)處理。對(duì)于視差變化變化區(qū)域,像素周?chē)鼽c(diǎn)的視差值變化較大,這時(shí)只需要一個(gè)較小的窗口,通過(guò)初始代價(jià)聚集即可得到較高質(zhì)量的初始代價(jià)值。而對(duì)于視差連續(xù)區(qū)域,周?chē)袼氐囊暡罹嗟然蚪咏?,這時(shí)則需要一個(gè)足夠大的窗口,以便涵蓋足夠多的像素點(diǎn)信息。

為了實(shí)現(xiàn)視差區(qū)域的劃分,一般的能量聚合法采用如式(2)的判斷方法[5],粗劃分視差連續(xù)、變化區(qū)域。

其中,(?I/?x)表示在(i,j)點(diǎn)處的水平梯度,設(shè)定閾值Tg。公式(2)其實(shí)是針對(duì)一個(gè)3*3窗口得到其中心像素的亮度梯度變化率。將亮度梯度變化率較大的區(qū)域定為視差變化區(qū)域,應(yīng)用小窗口進(jìn)行能量聚合,反之為視差連續(xù)區(qū)域,對(duì)其使用大窗口進(jìn)行能量聚合。

但這種劃分效果容易受到圖像紋理因素的影響。物體表面的紋理也會(huì)造成梯度的變化,而紋理區(qū)域并不完全是視差變化區(qū)域,如黑白格子相間的地板圖像,黑白格子的交界處屬于紋理亮度變化區(qū)域,但是其視差與周?chē)袼攸c(diǎn)都是一致的。如果將這些像素點(diǎn)當(dāng)做視差變化區(qū)域點(diǎn),應(yīng)用小窗口進(jìn)行能量聚集顯然是不合適的。

1.2 視差變化區(qū)域的劃分方法改進(jìn)

視差變化區(qū)域主要是物體的邊界區(qū)域,在真正物體的邊界區(qū)域往往才會(huì)伴隨著視差深度的變化,而物體表面的顏色紋理都應(yīng)被排除。為此本文研究了一種改進(jìn)的物體邊界提取方法,首先獲取實(shí)際圖像的初步視差圖,由于視差圖上基本沒(méi)有場(chǎng)景中物體表面紋理信息,因此通過(guò)視差圖的亮度梯度變化對(duì)其進(jìn)行邊緣提取,即可較為容易地獲得大致的物體邊界圖。再將該圖與實(shí)際圖像的邊緣相匹配,濾除不能與之匹配的實(shí)際圖像邊緣,即可有效地提取出較準(zhǔn)確的物體邊界。在進(jìn)行邊界可靠提取后,就可以實(shí)現(xiàn)視差變化區(qū)域的有效劃分。

邊界提取的步驟如下:

1)對(duì)實(shí)際圖像采用Canny算子提取邊緣并保存;

2)使用WTA(Winner-Take-All,勝者為王)對(duì)前面的初始代價(jià)求取最小值,并通過(guò)一系列約束措施,得到初步視差圖;

3)初步視差圖含有很多單獨(dú)的畸變點(diǎn),采用基于信度的后處理方式將其濾除,得到一幅較為精準(zhǔn)的初步視差圖;

4)對(duì)步驟3)得到的初步視差圖采用Canny算子提取邊緣,獲得初始物體邊界圖。然后再進(jìn)行膨脹處理,增大可靠邊緣范圍,減少有用信息的丟失。

5)將步驟1)與步驟4)所得的兩幅邊緣圖進(jìn)行匹配,濾除不匹配的實(shí)際圖像邊緣,也即將步驟1)所得實(shí)際圖像邊緣圖中未能與初始邊界圖相匹配區(qū)域全部置0,即可把實(shí)際圖像邊緣圖轉(zhuǎn)化為較為精準(zhǔn)的物體邊界圖。

使用上述步驟進(jìn)行邊界提取會(huì)遇到如下兩個(gè)問(wèn)題:(1)使用WTA法求取初步視差圖時(shí),由于WTA法本身精度較低,得到的初始代價(jià)值誤差較多;(2)獲取的初步視差圖中往往會(huì)存在單獨(dú)的畸變點(diǎn)現(xiàn)象。

對(duì)于問(wèn)題1,本文對(duì)最初取得的初始代價(jià)值添加如下一系列約束措施,以提高獲得的初步視差圖的精度:

1)在重復(fù)紋理區(qū)域,由于不同視差的匹配代價(jià)比較接近,初始視差代價(jià)值可能會(huì)出現(xiàn)多個(gè)極小值,從而引起誤匹配。針對(duì)這一情況,首先求出當(dāng)前點(diǎn)各視差下的最小代價(jià)C1,然后再求出次小代價(jià)C2,再定義C3=(C2-C1)/C1。當(dāng)C3大于設(shè)定的閾值t1時(shí),當(dāng)前匹配被看作是可靠的,否則將其定義為不可靠匹配,并進(jìn)行標(biāo)記。也就是通過(guò)比較后把整個(gè)視差圖進(jìn)行分類(lèi),分成了標(biāo)記點(diǎn)(不可靠匹配點(diǎn))和未標(biāo)記點(diǎn)(可靠匹配點(diǎn))。

2)對(duì)未標(biāo)記的點(diǎn)再進(jìn)行唯一性約束處理。對(duì)于左圖上的每個(gè)點(diǎn),右圖都有唯一的點(diǎn)與其對(duì)應(yīng)。根據(jù)左圖點(diǎn)x的最小匹配代價(jià)得出其對(duì)應(yīng)的視差d1,x對(duì)應(yīng)右圖的點(diǎn)y=x-d1,即有匹配對(duì)L(x+d1,y)~R(x,y)。定義數(shù)組R[i],置R[y]=1。繼續(xù)遍歷x點(diǎn),若發(fā)現(xiàn)存在匹配對(duì)L(x+d2,y) ~R(x,y),其R[y]值為1,即與之前存在的匹配對(duì)相沖突,不滿(mǎn)足唯一性約束。此時(shí)分別比較兩組匹配對(duì)的初始代價(jià)值,只保留初始代價(jià)值較小的視差值。

3)最后,對(duì)標(biāo)記點(diǎn)統(tǒng)一進(jìn)行處理,取其掃描線前一點(diǎn)的視差值作為當(dāng)前視差值,從而獲得初步視差圖。

相比WTA法直接獲取的視差圖,使用上述約束后,場(chǎng)景視差圖的視差深度變化信息得到了更好的反映,解決了WTA法初始代價(jià)值誤差較多的問(wèn)題,效果如圖2所示。由圖2可見(jiàn),圖2(a)存在較多的連續(xù)誤匹配區(qū)域,而添加上述約束后,這些誤匹配區(qū)域明顯減少,如圖2(b)所示。

圖2 添加約束后WTA法實(shí)現(xiàn)效果比對(duì)圖

對(duì)于問(wèn)題2,也即獲取的初步視差圖中存在單獨(dú)畸變點(diǎn)現(xiàn)象,本文在步驟3中采取一種基于可信度的后處理方式進(jìn)行濾除。該方法分為以下6個(gè)步驟:

1)首先按列方向順序地掃過(guò)視差圖上的點(diǎn),直至發(fā)現(xiàn)亮度變化區(qū)域或鄰域的視差值比傳播區(qū)域高2個(gè)級(jí)別以上方停止;

2)記錄此時(shí)連續(xù)點(diǎn)的個(gè)數(shù)n,定義這些點(diǎn)的信度re值,令re=n;

3)繼續(xù)掃過(guò)該列上其余的點(diǎn)直至該列被遍歷為止;

4)按行順序重復(fù)上述步驟進(jìn)行遍歷;

5)定義上閾值th與下閾值tl,對(duì)每個(gè)像素點(diǎn)基于此閾值進(jìn)行信度分類(lèi)。當(dāng)re>th時(shí),該像素被列為可信像素,re

6)將每個(gè)可信像素按列方向傳播,當(dāng)遍歷到的區(qū)域不屬于亮度變化區(qū)域時(shí),覆蓋其中的每個(gè)不可信像素的視差。

相較于處理前的初始視差圖,整個(gè)圖像處理后變得更加的平滑,圖中的單獨(dú)畸變點(diǎn)基本都可以得到很好的濾除,處理效果如圖3所示。

圖3 初始視差圖濾除畸變點(diǎn)前后比較

改進(jìn)的邊界提取效果如圖4(a-c)所示。其中圖4(a)為對(duì)處理后的初步視差圖提取邊界并進(jìn)行二階膨脹處理的結(jié)果。圖4(b)為原圖直接使用Canny算子提取的邊界圖。圖4(c)為將邊緣圖4(b)與初始邊界圖4(a)匹配處理后得到的物體邊界圖。圖4(d)為場(chǎng)景實(shí)際邊界圖(無(wú)表面紋理的影響)。

圖4 邊界提取過(guò)程圖

圖4 (b)是直接使用Canny算子提取的邊緣圖,與場(chǎng)景實(shí)際邊界圖圖4(d)比較,其表面紋理像素點(diǎn)個(gè)數(shù)為22238。而圖4(c)是采用本文改進(jìn)邊界提取法得到的實(shí)際邊界圖,表面紋理點(diǎn)剩余個(gè)數(shù)為2810。相比之下,無(wú)用的表面紋理信息減少率為87.4%。將圖4(c)與場(chǎng)景實(shí)際邊界圖4(d)進(jìn)行比較發(fā)現(xiàn),相同像素點(diǎn)所占實(shí)際邊界圖的百分比(即邊界像素點(diǎn)保持率)為88.5%??梢?jiàn)使用本文方法物體邊界信息得到了很好保留,物體表面紋理等無(wú)用信息得到很好的濾除。

在進(jìn)行邊界可靠提取后,即可實(shí)現(xiàn)視差變化區(qū)域的有效劃分。對(duì)視差變化大的區(qū)域應(yīng)用5*5小窗口進(jìn)行能量聚合,防止引入過(guò)多不必要的像素鄰域信息。對(duì)視差變化小的區(qū)域應(yīng)用9*9大窗口進(jìn)行能量聚合,盡可能多地引入中心像素點(diǎn)的有用鄰域信息。

通過(guò)按視差變化情況進(jìn)行能量聚合,獲得的各像素點(diǎn)在不同視差下的初始匹配代價(jià)值具有更高的精度。

2 改進(jìn)的動(dòng)態(tài)規(guī)劃多路徑尋徑法

基于動(dòng)態(tài)規(guī)劃的立體匹配算法的實(shí)質(zhì)就是要在視差空間圖像上求出一條最優(yōu)路徑,使能量函數(shù)E(d)(式3)取值最小。其中Edata(d)是初始代價(jià)值,Esmooth(d)是平滑項(xiàng)。

一般DP算法在處理前向階段時(shí),對(duì)于每個(gè)像素點(diǎn)僅會(huì)考慮使其代價(jià)值E(d)最小的匹配轉(zhuǎn)換方式,忽略掉那些即使與最小代價(jià)相差很小的轉(zhuǎn)換方式。并且,在路徑回溯階段,也只考慮使圖像最后一列上的點(diǎn)代價(jià)最小的轉(zhuǎn)換方式,來(lái)作為路徑的結(jié)尾,這樣做法必然會(huì)導(dǎo)致大量有用信息的丟失。因?yàn)槭棺詈笠涣猩系狞c(diǎn)代價(jià)最小的轉(zhuǎn)換方式,并不一定是最優(yōu)路徑的結(jié)尾方式。同樣,前向過(guò)程中各點(diǎn)在各階段視差值下最小代價(jià)值的累加也不一定就是最優(yōu)路徑的匹配代價(jià)值。若在掃描線上存在畸變或誤匹配點(diǎn),若以該點(diǎn)最小代價(jià)視差作為前向指導(dǎo)后續(xù)點(diǎn)進(jìn)行匹配,則有可能會(huì)出現(xiàn)連續(xù)誤匹配的情況。為了更多地保留正確信息,提高匹配精度,在前向階段,把與最小代價(jià)相差小于常數(shù)閾值Rd的轉(zhuǎn)換方式,作為可能路徑項(xiàng)加以存儲(chǔ);在路徑回溯階段,除了使結(jié)尾點(diǎn)代價(jià)為最小值min的轉(zhuǎn)換方式保留外,凡是代價(jià)Cost<α*min(α為常數(shù),且α>1)的轉(zhuǎn)化方式均加以保留,并以其為可能的路徑結(jié)尾進(jìn)行回溯。

該過(guò)程用偽代碼表示為:

其中C(x,d)為像素點(diǎn)x在視差大小為d時(shí)的匹配代價(jià),S(x,d)為掃描線至點(diǎn)x時(shí)總匹配代價(jià)。將與最小匹配代價(jià)相差在一個(gè)很小閾值Rd范圍內(nèi)的視差也加以保留(包括匹配代價(jià)C(x,d')與總代價(jià)S(x,d')),作為掃描線下一像素點(diǎn)的可能前向進(jìn)行尋徑。

在視差尋徑求取階段使用多路徑尋徑法,可以保留更多的可能視差值,從而獲取更多的有效視差信息,避免橫向?qū)綍r(shí)由于單個(gè)點(diǎn)的誤匹配,而造成后續(xù)掃描線上連續(xù)誤匹配的狀況,提升了匹配的可靠性。

3 實(shí)驗(yàn)結(jié)果與分析

首先對(duì)初始代價(jià)求取階段的改進(jìn)算法效果進(jìn)行了驗(yàn)證,采用BT法分別使用大小為3*3、5*5、7*7和9*9的固定窗口以及變窗口進(jìn)行立體匹配,得出初始視差圖,如表1所示??梢钥闯觯菏褂霉潭ù翱谶M(jìn)行立體匹配,隨著相關(guān)窗口的增大,與周?chē)w像素亮度差異較大的離散點(diǎn)(圖中的分散白色像素點(diǎn))的數(shù)目逐漸減少,表明隨著相關(guān)窗口包含信息量的增加,像素點(diǎn)的匹配準(zhǔn)確性也隨之提高。但當(dāng)窗口增大時(shí),圖像中物體的邊緣出現(xiàn)了膨脹現(xiàn)象,邊緣定位也較為模糊。而采用可變窗口得出的視差圖,離散點(diǎn)數(shù)目較少,且物體邊界區(qū)域較為清晰,綜合效果更佳。表2為BT法在不同窗口大小情況下獲得的視差圖誤匹配率比較,通過(guò)該表可看出:采用固定窗口時(shí),隨著窗口大小的逐漸增大,非遮擋區(qū)域和所有區(qū)域的誤匹配率逐漸降低,但深度不連續(xù)區(qū)域的誤匹配率先降低后升高。也即相關(guān)窗口信息量增多在提高深度連續(xù)區(qū)域匹配精度的同時(shí),邊緣定位準(zhǔn)確性逐漸降低。而變窗口法各項(xiàng)匹配精度較高,尤其是視差不連續(xù)區(qū)域匹配精度更高。

本文向標(biāo)準(zhǔn)的測(cè)試平臺(tái)http://vision.middlebury.edu/stereo/)提交了最終實(shí)驗(yàn)結(jié)果。表3為改進(jìn)DP算法與國(guó)外一種DP改進(jìn)算法ReliabilityDP法對(duì)標(biāo)準(zhǔn)圖的處理效果比較,表4為經(jīng)測(cè)試平臺(tái)評(píng)估計(jì)算的匹配結(jié)果誤差率比對(duì)情況。

表1 不同窗口下BT法獲得的視差圖

表2 不同窗口下BT法獲得的視差圖誤匹配率比較

表3 采用Middlebury標(biāo)準(zhǔn)圖的實(shí)驗(yàn)結(jié)果

表4 立體匹配算法的精度比較

本文算法屬于DP算法,計(jì)算速度較快,通過(guò)相應(yīng)的改進(jìn)措施又獲得了較高的匹配精度。由表4的各項(xiàng)指標(biāo)比較可看出,本文算法匹配精度高于ReliabilityDP等一些DP算法,且高于部分高計(jì)算量的算法,如GC算法等[6]。文獻(xiàn)[7-8]提出的optimizedDP法與RealtimeCensus法等均是近一年來(lái)國(guó)外提出來(lái)的精度與速度并重的匹配算法,本文在精度上要高于這些算法。對(duì)于文獻(xiàn)[9]提出的高精度大計(jì)算量匹配算法,本文算法雖然在整體精度上低于該算法,但對(duì)后兩幅大視差圖像的處理精度要高于該算法。

4 結(jié) 束 語(yǔ)

本文針對(duì)傳統(tǒng)DP方法處理精度不高的問(wèn)題,在DP算法的初始匹配代價(jià)求取階段、路徑尋徑及回溯階段加以改進(jìn)。相較于一般的DP算法,本文算法的匹配精度得到了很大的提高,并具有較好的實(shí)時(shí)性,能更好地滿(mǎn)足實(shí)際應(yīng)用中對(duì)立體匹配算法實(shí)時(shí)性與準(zhǔn)確性的要求。

[1]Geiger D, Ladendorf B, Yuille A. Occlusions and binocular stereo [J]. International Journal of Computer Vision, 1995, 14(3): 211-226.

[2]Gong M, Yang Y H. Near real-time reliable stereo matching using programmable graphics hardware [J].IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2005, (1): 924-932.

[3]Veksler O. Stereo correspondence by dynamic programming on a tree [J]. IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2005, (2): 384-390.

[4]Birchfield S. Depth discontinuities by pixel-to-pixel stereo [J]. International Journal of Computer Vision,1999, 35(3): 269–293.

[5]Daniel S, Richard S. A taxonomy and evaluation of dense two-frame stereo correspondence algorithms [J].International Journal of Computer Vision, 2002, 47(1):7-42.

[6]Boykov Y, Veksler O, Zabih R. Fast approximate energy minimization via graph cuts [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2001, 23(11): 1222-1239.

[7]Salmen J, Schlipsing M, Edelbrunner J. Real-time stereo vision: making more out of dynamic programming [C]//. Computer Analysisi of Images and Patterns, beRLIN: 2009: 1096-1103.

[8]Humenberger M, Zinner C, Weber M. A fast stereo matching algorithm suitable for embedded real-time systems. Computer Vision Image Understanding, 2010,114(11): 1180-1202.

[9]李彬彬, 王敬東. 基于圖像分割的置信傳播立體匹配算法研究[J]. 紅外技術(shù), 2011, 33(3): 167-172.

猜你喜歡
立體匹配視差像素點(diǎn)
基于自適應(yīng)窗的立體相機(jī)視差圖優(yōu)化方法研究
基于局部相似性的特征匹配篩選算法
夏澤洋團(tuán)隊(duì)提出一種基于分割的立體匹配視差優(yōu)化方法
基于5×5鄰域像素點(diǎn)相關(guān)性的劃痕修復(fù)算法
基于梯度域引導(dǎo)濾波的視差精煉迭代算法
基于canvas的前端數(shù)據(jù)加密
基于逐像素點(diǎn)深度卷積網(wǎng)絡(luò)分割模型的上皮和間質(zhì)組織分割
基于分割樹(shù)的視差圖修復(fù)算法研究
基于SIFT算法的圖像匹配技術(shù)在測(cè)量系統(tǒng)中的應(yīng)用
改進(jìn)導(dǎo)向?yàn)V波器立體匹配算法