黃 彬,胡立坤,張 宇
(廣西大學(xué) 電氣工程學(xué)院,南寧 530004)
對(duì)圖像中物體場(chǎng)景深度信息的獲取是機(jī)器視覺(jué)領(lǐng)域中的熱點(diǎn)問(wèn)題,而能否高效快速地獲取精確度高的深度信息,與所使用的立體匹配算法關(guān)系密切[1]。立體匹配算法通過(guò)尋找雙目或多目圖像對(duì)中的對(duì)應(yīng)點(diǎn)并計(jì)算其間的二維視差,計(jì)算得到所獲取目標(biāo)點(diǎn)的三維深度信息。
文獻(xiàn)[2]對(duì)立體匹配算法進(jìn)行歸納總結(jié),將立體匹配過(guò)程分為匹配代價(jià)計(jì)算、代價(jià)聚合、視差計(jì)算和視差優(yōu)化4 個(gè)步驟。目前常用的立體匹配算法可分為全局算法和局部算法兩類(lèi)。全局算法采用全局優(yōu)化理論計(jì)算視差,并通過(guò)全局能量函數(shù)得到最優(yōu)視差值。典型的全局算法有動(dòng)態(tài)規(guī)劃算法[3]、置信度傳播算法[4]和圖割法[5]等。全局匹配算法雖然匹配精度高,但時(shí)間復(fù)雜度也較高。局部算法通過(guò)構(gòu)建局部支持窗口,對(duì)窗口內(nèi)像素做視差計(jì)算并進(jìn)行代價(jià)聚合,求出視差最優(yōu)值。典型的局部匹配算法有絕對(duì)誤差和(Sum of Absolute Difference,SAD)算法、誤差平方和算法和歸一化互相關(guān)算法等。局部立體匹配算法具有算法復(fù)雜度和硬件要求低、實(shí)時(shí)性高且易于實(shí)現(xiàn)的優(yōu)點(diǎn),適合于工業(yè)和工程應(yīng)用。
局部立體匹配算法通過(guò)測(cè)量圖像像素的灰度來(lái)檢測(cè)像素間的相似度,當(dāng)圖像受到外部光照變化影響出現(xiàn)輻射度失真時(shí),會(huì)嚴(yán)重影響圖像匹配的配準(zhǔn)精度,大幅增加圖像誤匹配率。為提高SAD 算法的匹配效率,文獻(xiàn)[6]將邊緣信息融入傳統(tǒng)SAD 算法,改善了算法在邊緣保持方面的性能。文獻(xiàn)[7]將RANK 非參數(shù)變換引入匹配代價(jià)計(jì)算,提出Census匹配算法,以圖像像素灰度值的相互關(guān)系代替圖像像素的灰度值。該算法顯著提高了對(duì)光照和噪聲的抗干擾能力并且具有復(fù)雜度低的優(yōu)點(diǎn)。文獻(xiàn)[8]提出將SAD 算法與Census 算法相結(jié)合的AD-Census算法。該算法同時(shí)利用了SAD 算法和Census 算法的優(yōu)點(diǎn),匹配準(zhǔn)確度較高。
文獻(xiàn)[9]指出傳統(tǒng)Census 匹配算法過(guò)度依賴(lài)中心像素,當(dāng)中心像素受到干擾時(shí)會(huì)極大地影響匹配的準(zhǔn)確性。針對(duì)這一不足,需要對(duì)匹配代價(jià)的計(jì)算過(guò)程進(jìn)行優(yōu)化,并對(duì)計(jì)算出的初始匹配代價(jià)進(jìn)行代價(jià)聚合。傳統(tǒng)的代價(jià)聚合方法采用盒子濾波和高斯濾波等方法,此類(lèi)濾波器實(shí)現(xiàn)難度低,但對(duì)于圖像邊緣保持效果很差。文獻(xiàn)[10]使用雙邊濾波進(jìn)行代價(jià)聚合,雖然有效地保持了圖像邊沿,但同時(shí)也提高了時(shí)間復(fù)雜度。文獻(xiàn)[11]將引導(dǎo)濾波引入到代價(jià)聚合環(huán)節(jié),在保留圖像邊緣特性的同時(shí)保證了較高的時(shí)間效率。文獻(xiàn)[12]提出基于樹(shù)形結(jié)構(gòu)的代價(jià)聚合方法,但仍未能解決時(shí)間復(fù)雜度高的問(wèn)題。文獻(xiàn)[13]構(gòu)建一種跨尺度代價(jià)聚合框架,考慮并利用不同分辨率下的圖像信息,極大地改善了匹配效果。以上聚合方法都將初始匹配代價(jià)代入到代價(jià)聚合階段,如果初始匹配代價(jià)受噪聲影響較大,則會(huì)對(duì)聚合代價(jià)的結(jié)果產(chǎn)生較大影響。因此,必須提升初始匹配代價(jià)計(jì)算算法的穩(wěn)定性。
本文針對(duì)傳統(tǒng)Census 算法[7]存在的不足,提出一種基于自適應(yīng)權(quán)值與多尺度融合的改進(jìn)Census 立體匹配算法,以增強(qiáng)算法的抗干擾性,改善對(duì)低紋理區(qū)域的匹配效果,提高匹配準(zhǔn)確率。
本文算法包含匹配代價(jià)計(jì)算、代價(jià)聚合、視差計(jì)算和視差優(yōu)化4 個(gè)步驟。在代價(jià)計(jì)算階段,參考格塔式原理引入自適應(yīng)權(quán)重與閾值判斷,增強(qiáng)算法對(duì)于干擾的魯棒性。在代價(jià)聚合階段,采用引導(dǎo)濾波并引入多尺度空間對(duì)各尺度空間下的圖像計(jì)算匹配聚合代價(jià),同時(shí)采用正則化變換加強(qiáng)尺度間信息一致性,從而提高算法的穩(wěn)定性,改善其在弱紋理區(qū)域的表現(xiàn)。最后通過(guò)視差計(jì)算和視差優(yōu)化得到最終的視差圖。
傳統(tǒng)Census 匹配算法的基本原理是通過(guò)構(gòu)建一個(gè)矩形支持窗口遍歷待匹配圖像,通常選取支持窗口中心像素作為參考像素,將支持窗口內(nèi)其他鄰域像素與參考像素進(jìn)行灰度值對(duì)比,采用0 或1 表示兩個(gè)像素灰度值的大小關(guān)系。該算法通過(guò)將圖像灰度值轉(zhuǎn)換為由0 和1 組成的二進(jìn)制比特串來(lái)表示鄰域像素和中心參考像素的相對(duì)大小關(guān)系,如圖1所示。
圖1 Census 變換示意圖Fig.1 Schematic diagram of Census transform
Census 變換過(guò)程可表示如下:
其中,I(p)、I(q)為支持窗口內(nèi)p、q的灰度值。通過(guò)上述轉(zhuǎn)換關(guān)系,由支持窗口中的所有鄰域像素生成的二進(jìn)制比特串可表示為:
其中,Np表示像素點(diǎn)p的鄰域,?為按位連接,由此形成支持窗口內(nèi)的二進(jìn)制比特串。在得到比特串后,通過(guò)求參考圖和待匹配圖中支持窗口的漢明距離,即兩個(gè)比特串中間不相同的位數(shù)個(gè)數(shù)來(lái)比較像素點(diǎn)的相似程度,計(jì)算公式如下:
其中,Ccensus(p,d)表示點(diǎn)p與距離點(diǎn)p視差為d的漢明距離,ccen(p) 為圖1 左圖點(diǎn)p的Census 變換碼,ccen(pd)表示圖1 右圖對(duì)應(yīng)左圖點(diǎn)p的視差為d的像素點(diǎn)的Census 變換碼,dmin和dmax為視差檢索的閾值范圍。
與SAD 算法相比,Census 算法在弱紋理區(qū)域具有更高的準(zhǔn)確性,在邊緣保持上表現(xiàn)更好。如圖2所示,以Middlebury 數(shù)據(jù)集的Teddy 圖像對(duì)為例,SAD 算法容易在大面積的弱紋理區(qū)域形成誤匹配,而Census 算法則能基本保持弱紋理區(qū)域的匹配特征,并且在細(xì)節(jié)保持上優(yōu)于SAD 算法。
圖2 SAD 算法與Census 算法的弱紋理區(qū)域匹配效果Fig.2 Matching effects of SAD algortihm and Census algorithm in weak texture area
由于傳統(tǒng)Census 算法過(guò)度依賴(lài)于中心像素的灰度值,因此當(dāng)中心像素灰度值受到噪聲干擾時(shí),圖像的匹配效果會(huì)受到嚴(yán)重影響。文獻(xiàn)[14-15]提出采用匹配窗口的像素均值作為參考像素的灰度值,一定程度上提高了中心像素的抗干擾性,但對(duì)鄰域像素信息的利用依然有限。針對(duì)以上問(wèn)題,本文提出一種改進(jìn)的Census 匹配算法來(lái)計(jì)算初始匹配代價(jià),具體計(jì)算過(guò)程為:參考文獻(xiàn)[8]中使用的格式塔接近原理理論,通過(guò)支持窗口遍歷圖像中每個(gè)像素,以支持窗口內(nèi)鄰域像素的加權(quán)像素和構(gòu)成改進(jìn)Census 算法中心像素的參考值,權(quán)重由距離相似度決定,在考慮距離相似度時(shí),采取正態(tài)分布作為距離相似度的分配策略,如圖3 所示,距離窗口中心越遠(yuǎn)則權(quán)值分配越小,從而能夠更好地利用鄰域像素的特征對(duì)中心像素點(diǎn)進(jìn)行約束。
圖3 距離相似度權(quán)重分布Fig.3 Weight distribution of distance similarity
本文算法的具體計(jì)算過(guò)程如下:
其中,Iweight表示通過(guò)空間相似度權(quán)重計(jì)算得出的參考像素值,Np表示以p為中心的支持窗口,Wpq表示以p點(diǎn)為中心對(duì)q點(diǎn)分配的權(quán)值,Iq表示q點(diǎn)的灰度值,Δx和Δy分別表示p、q兩點(diǎn)水平方向和垂直方向的相對(duì)距離,σ2為方差,表示空間相似度對(duì)權(quán)重影響的控制系數(shù),一般取σ=1.5。
同時(shí)設(shè)定一個(gè)閾值,將求出的參考像素值與原中心像素值進(jìn)行比較,確定最終的中心點(diǎn)像素值。閾值應(yīng)設(shè)定較小,這樣可避免當(dāng)中心像素突變時(shí)因閾值設(shè)定過(guò)大而判定中心像素沒(méi)有突變,影響匹配效果。計(jì)算出加權(quán)像素和值后,需要與原中心像素進(jìn)行對(duì)比,中心像素判斷公式如下:
其中,I(x,y)為滑動(dòng)窗口中心像素,Iweight為通過(guò)距離相似度計(jì)算得出的中心像素值,Tref為判斷閾值,通過(guò)對(duì)多幅圖像相鄰點(diǎn)的分析及在不同閾值下算法的匹配表現(xiàn)得出閾值Tref的合適區(qū)間為[15,25],本文選擇閾值為18。
對(duì)本文改進(jìn)算法與Census 算法計(jì)算得到Cones 視差圖進(jìn)行比較,如圖4 所示??梢钥闯觯珻ensus 算法因?yàn)橐资艿礁蓴_,所以在匹配時(shí)容易出現(xiàn)很多噪點(diǎn),嚴(yán)重地影響了匹配的效果。而本文改進(jìn)算法加入了鄰域像素的補(bǔ)充約束信息,并且增加了閾值判斷中心像素是否突變,大幅降低了由于中心參考像素而被干擾的可能性,初始視差圖中的噪點(diǎn)明顯減少。
圖4 Census 算法與本文算法的視差圖Fig.4 Disparity maps of Census algorithm and the proposed algorithm
計(jì)算得到初始匹配代價(jià)后,需要將鄰域像素的匹配代價(jià)信息進(jìn)行聚合,增加像素間匹配代價(jià)的關(guān)聯(lián)性,彌補(bǔ)僅利用單像素視差時(shí)因包含信息過(guò)低導(dǎo)致區(qū)分度不足的缺陷,提高匹配準(zhǔn)確率。然而傳統(tǒng)方法中的代價(jià)聚合都是在單一尺度下進(jìn)行計(jì)算,往往不能提取出圖片的深層信息,使得匹配效果在紋理較少或無(wú)紋理的區(qū)域表現(xiàn)較差。為提高算法的匹配精度,本文改進(jìn)算法在代價(jià)聚合階段模擬人眼由遠(yuǎn)及近觀察物體的方式融入空間尺度理論中的高斯金字塔結(jié)構(gòu),通過(guò)連續(xù)亞采樣得到高斯金字塔,在每層尺度空間中分別計(jì)算匹配聚合代價(jià),并加入正則變換加強(qiáng)尺度間聯(lián)系性,最后將多尺度空間下的代價(jià)聚合值進(jìn)行綜合得到最終匹配代價(jià)。
對(duì)圖像進(jìn)行高斯下采樣,可以得到多尺度空間下的圖像,各尺度空間下圖像的代價(jià)聚合公式為:
其中,ak、bk為窗口內(nèi)的線性函數(shù)的系數(shù)。因?yàn)?q=a?I,所以這個(gè)線性關(guān)系能夠幫助輸出圖像q的邊緣與引導(dǎo)圖像I的邊緣保持一致。引導(dǎo)圖濾波核函數(shù)為:
其中,i、j為輸入圖像I的像素索引,μk和分別為I在wk內(nèi)的均值和方差,w為窗口內(nèi)像素個(gè)數(shù),ε為控制參數(shù),用于控制濾波效果的強(qiáng)弱,取值范圍為(0,0.01]。當(dāng)ε=0 時(shí),濾波器將不起任何作用,圖像按原圖輸出;ε越大,對(duì)圖像平滑效果越明顯;ε越小,邊緣保持效果更好[11]。將引導(dǎo)濾波核函數(shù)賦予于每個(gè)尺度下的代價(jià)聚合過(guò)程中。
在完成多尺度空間下代價(jià)聚合后,通過(guò)贏者通吃(Winner-Take-All,WTA)法篩選出聚合代價(jià)最小的視差值,具體計(jì)算過(guò)程如下:
其中,Sd={dmin,dmin+1,…,dmax}為可能的所有視差值,C(p,d)為視差值為d時(shí)的匹配代價(jià)值。
得到初始視差圖后,雙目攝像中必然互相存在視覺(jué)盲區(qū),因此,需要對(duì)初始視差圖中在遮擋區(qū)域和深度不連續(xù)區(qū)域出現(xiàn)的一些誤匹配點(diǎn)進(jìn)行篩選剔除,故需要進(jìn)行視差優(yōu)化,即采用誤匹配點(diǎn)檢測(cè)、視差填充和加權(quán)重值濾波的方法來(lái)建立更完整的視差圖。
1)采用左右一致性檢測(cè)的方法來(lái)檢測(cè)誤匹配視差點(diǎn),通過(guò)比較左圖和右圖匹配對(duì)視差點(diǎn)的視差值檢測(cè)出異常點(diǎn),計(jì)算過(guò)程如下:
其中,dl(p)為左匹配圖中點(diǎn)p的視差值,dr{p-[dl(p),0]}為右匹配圖中與點(diǎn)p對(duì)應(yīng)的視差值,δ0為判定閾值,如果左右對(duì)應(yīng)點(diǎn)視差大于1 則為異常點(diǎn)。
2)對(duì)錯(cuò)誤匹配點(diǎn)選擇周?chē)叶戎底罱咏狞c(diǎn)進(jìn)行填充,對(duì)于遮擋點(diǎn)選擇周?chē)钚∫暡钪颠M(jìn)行填充。
3)采用3×3 的滑動(dòng)窗口對(duì)視差圖進(jìn)行加權(quán)中值濾波平滑處理,得到最終的視差圖。
在VS2013 軟件平臺(tái)上利用C++實(shí)現(xiàn)本文算法,采用學(xué)術(shù)界公認(rèn)的Middlebury 立體匹配算法評(píng)測(cè)平臺(tái)提供的標(biāo)準(zhǔn)立體圖像對(duì)Tsukuba、Venus、Teddy、Cones 對(duì)算法進(jìn)行評(píng)測(cè),這4 組圖像的視差搜索范圍依次為[0,15]、[0,19]、[0,59]、[0,59],視差縮放參數(shù)nscale分別為16、8、4、4。實(shí)驗(yàn)環(huán)境為Windows 10 x64系統(tǒng),Intel Core i5-3230M,主頻為2.60 GHz。
由于到代價(jià)計(jì)算窗口會(huì)影響匹配的精確度,過(guò)大的窗口會(huì)包含更多的非必要像素點(diǎn),過(guò)小的窗口會(huì)使得代價(jià)計(jì)算時(shí)對(duì)鄰域像素考慮不足,因此本文在進(jìn)行多次試驗(yàn)的基礎(chǔ)上,考慮時(shí)間因素以及平均正確率,采用9×9 窗口作為代價(jià)計(jì)算窗口。實(shí)驗(yàn)中算法參數(shù)設(shè)置為:W=9,Tref=18,S=4,λ=0.3,ε=1×10-3。
通過(guò)計(jì)算Middlebury 標(biāo)準(zhǔn)數(shù)據(jù)集中所有區(qū)域和非遮擋區(qū)域的誤匹配率來(lái)評(píng)估算法性能。誤匹配率的計(jì)算公式如下:
其中,d為算法生成的視差圖中的像素視差值,dT為真實(shí)視差圖中像素視差值,N代表圖像中所有的像素個(gè)數(shù),δd為誤差閾值,此處設(shè)為1,表示當(dāng)算法匹配結(jié)果中的像素視差值與真實(shí)視差值相差為1 個(gè)像素以上,即認(rèn)為該像素點(diǎn)為誤匹配點(diǎn)。
2.1.1 計(jì)算代價(jià)驗(yàn)證
匹配代價(jià)驗(yàn)證階段的實(shí)驗(yàn)結(jié)果如圖5 所示,從左到右依次為Middlebury 平臺(tái)的Tsukuba、Venus、Teddy、Cones 圖像,從上到下依次為原始圖像、真實(shí)視差圖、SAD 算法、Census 算法和本文改進(jìn)算法的視差圖。可以看出:SAD 算法能夠基本還原圖像的大致輪廓,但對(duì)于弱紋理區(qū)域容易出現(xiàn)大面積誤匹配;傳統(tǒng)Census 算法能夠基本保持圖像的弱紋理區(qū)域,但中心像素易受干擾,魯棒性低;本文改進(jìn)Census 算法則在弱紋理區(qū)域表現(xiàn)良好的同時(shí),具有良好的抗干擾性。
圖5 不同算法的匹配結(jié)果Fig.5 Matching results of different algorithms
不同算法的誤匹配率對(duì)比如表1 所示??梢钥闯觯合噍^于傳統(tǒng)Census 算法,本文改進(jìn)Census 算法由于消除了大量噪點(diǎn),具有更強(qiáng)的魯棒性,并且大幅提高了準(zhǔn)確率;相較于傳統(tǒng)SAD 算法,其在弱紋理及邊緣區(qū)域具有更好的表現(xiàn),并且平均準(zhǔn)確率也有所提升。
表1 不同算法的平均誤匹配率Table 1 Averege error match rates of different algorithms %
不同算法的匹配時(shí)間對(duì)比如圖6 所示。可以看出,本文改進(jìn)算法在時(shí)間花費(fèi)上與SAD 算法相當(dāng),較傳統(tǒng)Census 算法略有增加,這是因?yàn)榧尤肓俗赃m應(yīng)權(quán)重計(jì)算與閾值判斷步驟,但是在匹配準(zhǔn)確率和抗干擾性上,本文改進(jìn)算法的性能顯著提升。
圖6 不同算法的匹配時(shí)間Fig.6 Matching times of different algorithms
2.1.2 抗干擾性驗(yàn)證
為對(duì)算法進(jìn)行抗噪聲干擾性驗(yàn)證,對(duì)Middlebury標(biāo)準(zhǔn)圖加入5% 的椒鹽噪聲,并使用SAD 算法、Census 算法和本文改進(jìn)算法進(jìn)行圖像配準(zhǔn)。圖7 為Cones 圖像對(duì)的匹配效果對(duì)比圖,詳細(xì)數(shù)據(jù)對(duì)比見(jiàn)表2??梢钥闯觯涸诩尤虢符}噪聲后,Cones 原圖出現(xiàn)覆蓋全圖的黑白相間的噪點(diǎn);Census 算法嚴(yán)重受到噪聲干擾,導(dǎo)致匹配效果下降;SAD 算法表現(xiàn)出一定的抗干擾性,但仍然表現(xiàn)出匹配精度差的缺點(diǎn);本文改進(jìn)算法在保持匹配精度的情況下,表現(xiàn)出較強(qiáng)的抗干擾性,與未受干擾時(shí)精度相差不大。
圖7 5%椒鹽噪聲下不同算法的匹配結(jié)果Fig.7 Matching effects of different algorithms under 5% pepper and salt noise
表2 5%椒鹽噪聲下不同算法的誤匹配率Table 2 Error match rates of different algorithms under 5% pepper and salt noise %
為驗(yàn)證在受到光照干擾時(shí)算法的匹配效果,對(duì)Middlebury 標(biāo)準(zhǔn)圖進(jìn)行光照補(bǔ)償后進(jìn)行匹配實(shí)驗(yàn),其中Tsukuba 匹配效果如圖8 所示??梢钥闯觯谑艿焦庹崭蓴_時(shí),SAD 算法已經(jīng)完全失去了匹配的準(zhǔn)確度,傳統(tǒng)Census 算法能基本還原場(chǎng)景深度信息,但準(zhǔn)確率明顯下降,而本文改進(jìn)Census 算法則表現(xiàn)出較強(qiáng)的抗干擾性,與未受光照干擾時(shí)匹配準(zhǔn)確率差異微小。表3 為不同算法在光照干擾條件下對(duì)Middlebury 中4 對(duì)測(cè)試圖的平均誤匹配率對(duì)比。
圖8 光照干擾條件下不同算法的匹配結(jié)果Fig.8 Matching results of different algorithms under illumination interference condition
表3 光照干擾條件下不同算法的平均誤匹配率Table 3 Average error match rates of different algorithms under illumination interference condition %
為驗(yàn)證本文算法性能,選取LCDM-AdaptWgt[16]、RINCensus[17]、GC-occ[5]和RTCensus[18]算法與本文算法進(jìn)行比較。
圖9 為算法所生成的視差圖比較,對(duì)比圖9(a)、圖9(c)、圖9(d)與圖9(e)中的第2 幅圖可以看出,在弱紋理區(qū)域,其他算法皆存在明顯的成塊誤匹配區(qū)域,而本文算法則基本沒(méi)有出現(xiàn)明顯的誤匹配,這說(shuō)明本文提出的改進(jìn)Census 匹配算法高效整合了鄰域像素的信息,在弱紋理區(qū)域具有更好的匹配性能,并且因?yàn)椴捎枚喑叨热诤喜呗?,使其在匹配過(guò)程中能夠極大程度地利用弱紋理和其他細(xì)節(jié)信息,提高匹配的準(zhǔn)確率。對(duì)比圖9(a)、圖9(b)、圖9(c)與圖9(e)中的第4 幅圖可以看出,本文算法在邊緣保持方面明顯優(yōu)于其他算法,這說(shuō)明改進(jìn)后算法由于利用了鄰域像素信息且采用了引導(dǎo)濾波進(jìn)行聚合具有更好的邊緣保持性能。各算法的誤匹配率對(duì)比如表4 所示,其中,No-occluded 表示在圖像中非遮擋區(qū)域的誤匹配,All 表示在所有區(qū)域中的誤匹配率??梢钥闯?,本文算法在非遮擋區(qū)域和所有區(qū)域的平均誤匹配率均低于其他4 種經(jīng)典算法,表現(xiàn)出更優(yōu)異的性能。
圖9 Middlebury 數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果Fig.9 Experimental results on Middlebury dataset
表4 Middlebury 數(shù)據(jù)集上非遮擋區(qū)域和所有區(qū)域的誤匹配率Table 4 Percentage of false match in all regions and no-occlusion region on Middlebury dataset %
本文利用格式塔接近原理對(duì)傳統(tǒng)Census 算法進(jìn)行改進(jìn),提出基于自適應(yīng)權(quán)值的多尺度Census 匹配優(yōu)化算法。在代價(jià)計(jì)算階段,本文算法保持了傳統(tǒng)Census 算法在弱紋理區(qū)域表現(xiàn)優(yōu)異的優(yōu)點(diǎn),彌補(bǔ)了其易受干擾的不足,并且時(shí)間效率變化微小。該算法在代價(jià)聚合階段采用邊緣保持性好、時(shí)間復(fù)雜度低的引導(dǎo)濾波作為核函數(shù),引入多尺度聚合策略,能夠綜合利用圖像各個(gè)尺度下的細(xì)節(jié)信息?;贛iddlebury 平臺(tái)標(biāo)準(zhǔn)測(cè)試集的實(shí)驗(yàn)結(jié)果表明,本文算法在弱紋理區(qū)域及邊緣保持方面表現(xiàn)優(yōu)異且抗干擾性較好,平均誤匹配率低于LCDM-AdaptWgt、RINCensus 等經(jīng)典算法。下一步將結(jié)合人工智能算法,在匹配代價(jià)計(jì)算階段引入膨脹卷積,增加感受野,對(duì)誤匹配點(diǎn)進(jìn)行更為精準(zhǔn)的篩查。