国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

融合互補(bǔ)仿射不變特征的傾斜立體影像高精度自動(dòng)配準(zhǔn)方法

2013-07-25 04:19:54姚國(guó)標(biāo)鄧喀中楊化超艾海濱
測(cè)繪學(xué)報(bào) 2013年6期
關(guān)鍵詞:點(diǎn)數(shù)投影像素

姚國(guó)標(biāo),鄧喀中,張 力,楊化超,艾海濱

1.中國(guó)礦業(yè)大學(xué) 國(guó)土環(huán)境與災(zāi)害監(jiān)測(cè)國(guó)家測(cè)繪地理信息局重點(diǎn)實(shí)驗(yàn)室,江蘇 徐州 221116;2.中國(guó)測(cè)繪科學(xué)研究院,北京 100830

1 前 言

影像配準(zhǔn)是對(duì)取自不同時(shí)間、不同傳感器或不同視角的同一場(chǎng)景的兩幅或多幅影像進(jìn)行最佳匹配的過程[1],其在信息融合[2]、變化檢測(cè)[3]等領(lǐng)域有著廣泛的應(yīng)用。影像配準(zhǔn)主要包含影像匹配和配準(zhǔn)模型建立這兩個(gè)關(guān)鍵步驟。配準(zhǔn)模型有多項(xiàng)式變換模型、透視投影變換模型等。常用的影像匹配方法可分為基于灰度和基于特征的方法[4]。基于上述影像匹配研究成果主要是針對(duì)影像變形不大的情況[5-7],而對(duì)于存在較大仿射(透視)變形的傾斜影像的配準(zhǔn)依然是目前的研究難點(diǎn)和熱點(diǎn)[8-10]。

針對(duì)具有較大幾何畸變的影像匹配問題,源于計(jì)算機(jī)視覺界的基于不變特征提取與描述的方法被廣泛使用,如:文獻(xiàn)[11]采用Harris算法提取特征并利用SIFT算法對(duì)特征進(jìn)行描述匹配;文獻(xiàn)[12]應(yīng)用SIFT算法從海量特征數(shù)據(jù)庫(kù)中識(shí)別目標(biāo)特征。在此基礎(chǔ)上,基于不同的出發(fā)點(diǎn)和思路,研究者們又提出了許多改進(jìn)算法,如:文獻(xiàn)[5]將多尺度Harris特征點(diǎn)和SIFT描述子相結(jié)合,提出一種基于場(chǎng)景復(fù)雜度與不變特征的航拍視頻圖像配準(zhǔn)算法;文獻(xiàn)[6]通過融合 Harris-Affine與SIFT互補(bǔ)特征實(shí)現(xiàn)影像的自動(dòng)配準(zhǔn);文獻(xiàn)[13]利用影像間的幾何關(guān)系對(duì)待配準(zhǔn)影像進(jìn)行粗糾正,在此基礎(chǔ)上提出主方向改進(jìn)的SIFT特征提取方法,實(shí)現(xiàn)了有較大差異的影像配準(zhǔn);為提高配準(zhǔn)精度,文獻(xiàn)[8]和文獻(xiàn)[14]分別提出了基于SIFT和Harris特征點(diǎn)的高精度最小二乘匹配(least square matching,LSM)算法。對(duì)于存在較大幾何變形的影像,應(yīng)用LSM方法的關(guān)鍵是如何獲得迭代參數(shù)初值。文獻(xiàn)[8]的方法較好利用了SIFT特征尺度與方位信息作為最小二乘匹配迭代初值進(jìn)行匹配優(yōu)化;而文獻(xiàn)[14]則是在仿射參數(shù)的量化空間內(nèi)采用窮舉搜索的方法來(lái)獲得;文獻(xiàn)[15]提出的兩階段影像配準(zhǔn)算法,即首先采用基于SIFT的特征匹配方法進(jìn)行粗配準(zhǔn)以最大限度地消除影像間的幾何變形,然后采用基于逐像素相關(guān)的方法來(lái)實(shí)現(xiàn)影像的精確配準(zhǔn)。

為實(shí)現(xiàn)傾斜影像的高精度、穩(wěn)健自動(dòng)配準(zhǔn),上述方法存在如下缺陷:

(1)多數(shù)研究采用的尺度不變特征點(diǎn)如多尺度Harris或SIFT特征點(diǎn),當(dāng)影像間存在較大的透視投影變形時(shí),獲得的匹配點(diǎn)較少甚至無(wú)法獲得匹配。

(2)最小二乘匹配迭代參數(shù)初值的獲取過程較為復(fù)雜。相比于尺度不變特征,仿射不變區(qū)域特征對(duì)通常存在較大仿射(透視)變形的傾斜立體影像具有較好的適應(yīng)性,然而文獻(xiàn)[16]對(duì)現(xiàn)有的多種仿射不變特征的檢測(cè)性能試驗(yàn)[16]表明:沒有任何一種仿射不變特征能夠適應(yīng)所有不同類型、不同視點(diǎn)大小變化的影像。一般而言,MSER算法[17]能夠提取圖像中灰度一致的目標(biāo)區(qū)域,而Harris&Hessian Affine[18](Ha&HeA)能夠檢測(cè)出灰度變化強(qiáng)烈的局部區(qū)域,因此,二者的有效融合可以獲得更多的匹配特征,且利用其固有的區(qū)域仿射幾何信息,易于為L(zhǎng)SM迭代提供良好初值。

鑒于此,提出一種基于最大穩(wěn)定極值區(qū)域(maximally stable extremal regions,MSER)與Ha&HeA的互補(bǔ)仿射不變特征高精度自動(dòng)配準(zhǔn)算法。算法在互補(bǔ)特征提取與優(yōu)選的基礎(chǔ)上,采用一種多層次自適應(yīng)特征匹配算法來(lái)獲得初始匹配,然后在基于同名仿射不變特征間的協(xié)方差矩陣與主梯度方位獲得迭代參數(shù)初值的基礎(chǔ)上,實(shí)現(xiàn)最小二乘匹配的迭代優(yōu)化;最后基于投影變換模型實(shí)現(xiàn)影像之間的配準(zhǔn)融合。實(shí)際影像數(shù)據(jù)試驗(yàn)證明了算法的有效性。

2 算 法

本文算法流程如圖1所示。

圖1 本文算法流程Fig.1 Flow chart of the proposed algorithm

2.1 互補(bǔ)不變特征提取與優(yōu)選

2.1.1 互補(bǔ)不變特征提取

(1)特征提取。MSER提取算法借鑒地形中分水嶺思想,首先對(duì)影像進(jìn)行二值化聚類,獲得眾多極值區(qū)域,再根據(jù)極值區(qū)域的面積變化率檢測(cè)得到MSER及其協(xié)方差矩陣。然后求取MSER重心作為特征坐標(biāo)。MSER形狀是任意的,為便于特征描述,進(jìn)一步被擬合為橢圓形區(qū)域。Ha&HeA提取算法首先利用多尺度Harris&Hessian檢測(cè)子提取初始特征點(diǎn),即獲得位置和尺度較為準(zhǔn)確的初始估計(jì),然后利用該特征協(xié)方差矩陣確定的橢圓表征局部各向異性結(jié)構(gòu),并由迭代過程來(lái)同步調(diào)整特征點(diǎn)的坐標(biāo)和區(qū)域形狀,收斂得到Ha&HeA特征。由上述可知,兩種特征的提取原理差異較大,特征類型應(yīng)具有較好的互補(bǔ)性,各提取算法分別詳見文獻(xiàn)[17—18]。

(2)特征歸一化。設(shè)f=(x,U)與f′=(x′,U′)為基準(zhǔn)和待配準(zhǔn)影像中任意同名特征,其中x、x′代表同名特征點(diǎn)坐標(biāo),U、U′為特征區(qū)域協(xié)方差矩陣,可分別唯一確定橢圓形特征區(qū)域N(x)和N′(x′)(見圖2),其長(zhǎng)短軸與長(zhǎng)軸傾角值由各自協(xié)方差矩陣的特征值與特征向量求取。N(x)與N′(x′)對(duì)應(yīng)的歸一化步驟如圖2所示:即首先利用式(1)進(jìn)行仿射歸一化,得到(x)與(x′),為克服方向奇異性,對(duì)(x)與(x′)分別進(jìn)行梯度直方圖統(tǒng)計(jì)與曲線擬合,得到各自的主方位θ與θ′,按式(2)可構(gòu)成旋轉(zhuǎn)矩陣R與R′,(x)與(x′)再按式(3)分別進(jìn)行旋轉(zhuǎn)變換,得歸一化區(qū)域(x)與(x′)

圖2 仿射不變特征歸一化過程Fig.2 Normalization of invariant features

(3)特征描述。在歸一化的區(qū)域中提取描述符。

2.1.2 互補(bǔ)不變特征優(yōu)選

式中,Pj為特征區(qū)域內(nèi)不同灰度值在整幅影像中出現(xiàn)的概率;m表示特征區(qū)域內(nèi)不同灰度值數(shù)目;n為特征數(shù)目。

2.2 多層次自適應(yīng)初始特征匹配

采用一種多層次自適應(yīng)策略來(lái)進(jìn)行特征匹配,以最大限度地排除誤匹配,具體步驟如下:

(1)初始匹配?;趶臍w一化區(qū)域中已提取的SIFT描述符,并采用最/次近鄰距離比率(nearest/next distance ratios,NNDR)測(cè)度來(lái)獲得特征匹配。

(2)基于自適應(yīng)雙重約束的相關(guān)系數(shù)匹配?;谑剑?)采用隨機(jī)采樣一致性(random sample consensus,RANSAC)算法在剔除外點(diǎn)的同時(shí)估計(jì)基本矩陣F與單應(yīng)矩陣Hg,其中,F(xiàn)描述了對(duì)應(yīng)點(diǎn)之間應(yīng)滿足的極線約束條件;Hg則描述了對(duì)應(yīng)點(diǎn)之間一一映射關(guān)系。然后,在對(duì)極與單應(yīng)幾何雙重約束下,左右影像中經(jīng)過歸一化的不變特征,分別作為相關(guān)窗口W和W′,按式(6)進(jìn)行相關(guān)系數(shù)匹配

式中,εF和εH分別代表匹配點(diǎn)到對(duì)應(yīng)極線距離的均方根誤差和單應(yīng)矩陣的均方根誤差;n為匹配點(diǎn)數(shù)。設(shè)定雙重約束閾值

式中,Wmn和W′mn用雙線性插值得到;μ(W)、μ(W′)為兩個(gè)相關(guān)窗口的灰度均值。

(3)誤差自適應(yīng)的迭代匹配。在雙重約束下按照步驟(2)的方法對(duì)初始特征重新進(jìn)行匹配,保存特征匹配集并計(jì)算εF和εH,如果εF小于3.0像素并且εH小于4.0像素,則退出程序,否則重新執(zhí)行步驟(2)。

(4)重復(fù)步驟(3),直至誤差不再變化為止。

約束閾值系數(shù)k如果設(shè)置過小,容易出現(xiàn)匹配退化情況,試驗(yàn)表明,k取2.0為宜。NNDR測(cè)度閾值設(shè)為0.8,相關(guān)系數(shù)閾值設(shè)為0.75。

2.3 基于投影變換模型的最小二乘匹配

2.3.1 投影變形參數(shù)初值獲取

以特征點(diǎn)x為中心取大小為(2w+1)×(2w+1)的鄰域。利用投影矩陣H近似x鄰域與x′鄰域窗口之間的幾何變換關(guān)系,則有下式成立

W與W′間的相關(guān)系數(shù)按上式(6)計(jì)算。注意,此處利用式(6)時(shí),Wmn直接從影像中提取,W′mn則通過雙線性插值得到。

基于式(8),并進(jìn)一步引入灰度補(bǔ)償參數(shù)h0和h1,可建立基于投影變換模型的最小二乘匹配條件方程,線性化后可得最小二乘匹配的誤差方程式[8]。誤 差 改 正 矩 陣 ΔX= [Δh0,Δh1,Δa1,Δa2,…,Δa8]T包含了需要迭代估計(jì)的參數(shù)改正值。

相比于仿射變形,灰度、平移和透視變形相對(duì)較小,其相應(yīng)的待求參數(shù)初始值可分別設(shè)置為因此投影變換參數(shù)初值獲取問題進(jìn)一步轉(zhuǎn)化為如何求取仿射變換矩陣A的初值。

現(xiàn)以圖2為例,說(shuō)明A的求取過程。前文已設(shè)N(x)與N′(x′)為同名區(qū)域,N(x)與N′(x′)之間的仿射變換關(guān)系可用式(9)表示。N(x)與N′(x′)按式(10)被分別歸一化為(x)與(x′)。

又由仿射幾何知識(shí)可知,經(jīng)歸一化后的(x)與(x′)的圖像內(nèi)容應(yīng)一致,即(x)=(x′),因此,式(10)可進(jìn)一步合并為

比較式(9)與式(11),可得

2.3.2 最小二乘匹配

LSM需要較為良好的待求參數(shù)初始值。對(duì)任意對(duì)特征匹配結(jié)果f與f′,便可用本文投影變形參數(shù)初值獲取方法為最小二乘LSM提供初值,迭代求取最優(yōu)的投影變換模型H。迭代終止條件可設(shè)為W、W′間相關(guān)系數(shù)ρ不再變化為止或達(dá)到預(yù)定的最大的迭代次數(shù)。迭代運(yùn)算完成后,按式(13)對(duì)x′的坐標(biāo)進(jìn)行精確補(bǔ)償。表1給出了兩組LSM投影變換窗口、相關(guān)系數(shù)ρ及匹配點(diǎn)投影誤差ε(單位為像素)隨迭代次數(shù)的變化,其中匹配點(diǎn)投影誤差(利用已知的投影矩陣H0按式(14)計(jì)算得到

最小二乘匹配結(jié)束后,采用RANSAC算法進(jìn)一步剔除粗差,得到最終匹配點(diǎn)。

2.4 基于投影變換模型的影像配準(zhǔn)與融合

由于投影變換模型比仿射變換更能嚴(yán)密地描述立體像對(duì)間的幾何變換關(guān)系。因此,本文仍然選用式(7)表達(dá)的投影變換作為配準(zhǔn)模型。利用最終的匹配點(diǎn)對(duì)作為配準(zhǔn)控制點(diǎn),采用最小二乘法求解式(7)中的8個(gè)投影變換參數(shù)。確定影像之間幾何變換參數(shù)后,采樣雙線性插值方法,對(duì)參考影像進(jìn)行重采樣,并統(tǒng)一到基準(zhǔn)影像的像素坐標(biāo)系下,最終得到配準(zhǔn)融合結(jié)果。

表1 LSM投影窗口、相關(guān)系數(shù)及匹配點(diǎn)投影誤差隨迭代次數(shù)的變化Tab.1 The LSM projection window,correlation coefficient and correspondents projection error are changed with iteration

3 試驗(yàn)與分析

3.1 試驗(yàn)數(shù)據(jù)及評(píng)價(jià)指標(biāo)

選取兩組實(shí)際影像數(shù)據(jù)進(jìn)行算法試驗(yàn)。第1組為存在70°視角變化的地面近景影像(記為Graf1、Graf2),影像的投影矩陣H0已知,影像大小為800像素×640像素;第2組為存在約45°視角變化的無(wú)人機(jī)傾斜立體影像(記為UAV1、UAV2),影像大小為1500像素×1500像素。各組試驗(yàn)人工選取15對(duì)檢查點(diǎn)。第2組試驗(yàn)需要利用該組人工選取的檢查點(diǎn)計(jì)算投影矩陣H0并視為已知。評(píng)價(jià)指標(biāo)主要包括:① 正確匹配點(diǎn)數(shù),利用已知投影矩陣H0按式(14)計(jì)算匹配點(diǎn)投影誤差,并對(duì)其設(shè)一閾值ε0,如投影誤差小于ε0,則認(rèn)為該點(diǎn)對(duì)為正確匹配,以此來(lái)統(tǒng)計(jì)正確匹配點(diǎn)數(shù)nε0。② 匹配正確率利用計(jì)算,式中n代表匹配點(diǎn)總數(shù)。③ 配準(zhǔn)誤差εRMSE通過式(15)計(jì)算。式中xi與x′i為人工選取的檢查點(diǎn)對(duì),Hr為利用上文估算得到的投影配準(zhǔn)模型

3.2 試驗(yàn)結(jié)果與分析

有5種方法被用于對(duì)比試驗(yàn),分別是① 本文方法(proposed);② ASIFT方法:全仿射ASIFT算法[20]是通過在對(duì)原始影像進(jìn)行全方位模擬重采樣基礎(chǔ)上運(yùn)用SIFT算法來(lái)實(shí)現(xiàn)的,雖可獲得大量匹配點(diǎn)但運(yùn)算復(fù)雜度較高,且在重復(fù)紋理區(qū)域容易出現(xiàn)誤匹配,本文先利用ASIFT算法獲得初始匹配,然后采用RANSAC算法估計(jì)投影矩陣,進(jìn)一步剔除誤匹配;③ Ha&HeA方法與④MSER方法均采用本文多層次自適應(yīng)特征匹配方法獲得匹配點(diǎn);⑤ 文獻(xiàn)[6]方法:提取SIFT和Harris Affine特征,采用SIFT描述符與NNDR進(jìn)行匹配,并利用馬氏距離刪除誤匹配。

在配準(zhǔn)過程中,離群點(diǎn)的剔除很關(guān)鍵,上述方法均采用了有效的誤匹配剔除策略,以實(shí)現(xiàn)對(duì)各方法的客觀評(píng)價(jià)。試驗(yàn)結(jié)果包括:① 圖6給出Graf1-Graf2與UAV1-UAV2分別利用各方法在ε0=2.5、2.0、1.5、1.0、0.5像素時(shí)正確匹配點(diǎn)數(shù)、匹配正確率結(jié)果;② 圖7給出Graf1-Graf2與UAV1-UAV2分別基于各方法的配準(zhǔn)精度結(jié)果;③ 表2給出本文算法由粗到精的匹配結(jié)果,表中n表示匹配點(diǎn)數(shù),εRMSE為利用式(15)求取的配準(zhǔn)誤差,圖3給出本文方法的互補(bǔ)特征匹配結(jié)果與LSM精匹配結(jié)果。圖4給出ASIFT方法的匹配結(jié)果(為節(jié)省篇幅,其余方法的匹配結(jié)果不再給出),圖5給出本文方法最終配準(zhǔn)結(jié)果。

表2 本文匹配算法由粗到精的匹配結(jié)果Tab.2 The matching result of the proposed algorithm from coarse to fine

圖3 本文方法的匹配結(jié)果Fig.3 The matching results based on the proposed method

圖4 ASIFT方法的匹配結(jié)果Fig.4 The matching results based on ASIFT method

圖5 本文算法的配準(zhǔn)結(jié)果Fig.5 Results of registration based on the proposed method

綜合上述試驗(yàn)結(jié)果,分析如下:

(1)表1表明,利用仿射不變特征區(qū)域協(xié)方差矩陣與主方位信息易于為L(zhǎng)SM迭代提供良好的投影變形參數(shù)初值,顯示出本文算法的魯棒性。如表1中第1組對(duì)應(yīng)影像塊之間即使存在70°的透視畸變,4次迭代后其相關(guān)系數(shù)為0.900,匹配精度達(dá)到0.371像素。然而,表2說(shuō)明,基于仿射不變特征匹配結(jié)果進(jìn)行的LSM匹配,仍有部分點(diǎn)難以收斂,即使是LSM的精匹配結(jié)果,也會(huì)含有少量粗差點(diǎn),分析原因,較復(fù)雜的仿射(透視)畸變數(shù)據(jù)與較多的輻射和幾何畸變改正參數(shù)會(huì)影響到LSM匹配的收斂性及其收斂的可靠性。

(2)對(duì)存在較大仿射(透視)變形的地面近景和低空傾斜立體影像,在較高的定位精度水平下,本文方法正確匹配點(diǎn)數(shù)與匹配正確率均優(yōu)于其余方法。ASIFT方法雖能夠匹配出許多同名像點(diǎn),但其中能夠達(dá)到子像素精度的同名點(diǎn)數(shù)卻不及本文方法,原因在于本文采取兩階段緊湊匹配策略,即首先獲取互補(bǔ)特征匹配,繼而利用最小二乘匹配對(duì)特征匹配結(jié)果進(jìn)行優(yōu)化。由于特征檢測(cè)與特征匹配的相對(duì)獨(dú)立性,使得大多數(shù)特征匹配結(jié)果難以達(dá)到子像素級(jí)精度,如圖6(a)所示的地面近景影像試驗(yàn),在匹配定位精度水平從ε0=2.5像素提高到ε0=1.0像素過程中,ASIFT方法的匹配點(diǎn)被大量排除,而本文方法的匹配點(diǎn)僅有少量被排除,所以,在ε0=1.0像素時(shí),本文方法的正確匹配點(diǎn)數(shù)開始占有優(yōu)勢(shì);圖6(c)所示的低空無(wú)人機(jī)影像試驗(yàn)表明,各定位精度水平下,本文方法的正確匹配點(diǎn)數(shù)均多于其余方法;圖6(b)與(d)表明,隨定位精度水平提高,本文方法的匹配正確率具有明顯優(yōu)勢(shì)。

(3)本文方法具有較高的配準(zhǔn)精度。圖7直觀地表明,針對(duì)不同類型的影像,本文方法均可達(dá)到子像素級(jí)的配準(zhǔn)精度,而其余方法的配準(zhǔn)精度則不及本文方法。由表2可以看出,本文算法由粗到精的匹配,離群點(diǎn)被逐步排除,其中多層次自適應(yīng)特征匹配的外點(diǎn)通過相關(guān)系數(shù)閾值排除,LSM階段的外點(diǎn)通過其迭代收斂性排除,對(duì)LSM精匹配后可能包含的粗差點(diǎn)采用RANSAC算法排除。表2還表明,針對(duì)LSM匹配結(jié)果并不完全可靠的問題,可采用RANSAC算法來(lái)進(jìn)一步提高配準(zhǔn)精度。

圖6 各方法在ε0=2.5、2.0、1.5、1.0和0.5像素時(shí)正確匹配點(diǎn)數(shù)、匹配正確率結(jié)果比較Fig.6 The correct matching number and correct rate withε0=2.5、2.0、1.5、1.0and 0.5 pixels for various methods

圖7 配準(zhǔn)精度結(jié)果比較Fig.7 Comparison of registration accuracy

(4)本文方法融合多種互補(bǔ)不變特征,有效保證了配準(zhǔn)控制點(diǎn)的多量性和空間分布均勻性,繼而提高配準(zhǔn)的穩(wěn)健性。圖3表明:集成多種互補(bǔ)不變特征匹配,與采用單一特征的MSER或Ha&HeA方法對(duì)比,能夠顯著增加不同類型的匹配區(qū)域,進(jìn)而增加LSM精匹配點(diǎn)數(shù),實(shí)現(xiàn)配準(zhǔn)增強(qiáng)。另外,由圖4(b)可以看出,低空無(wú)人機(jī)影像中部偏上的長(zhǎng)條鐵軌區(qū)域包含大量重復(fù)紋理,ASIFT方法的匹配點(diǎn)較少,而本文方法能夠獲得較多的Ha&HeA精匹配點(diǎn)(見圖3(d))。

4 結(jié) 論

針對(duì)存在較大仿射(透視)畸變的傾斜立體影像,先 通 過 融 合 MSER 與 Harris&Hessian Affine多種仿射不變特征,能夠獲得較多的特征匹配;繼而基于仿射不變特征區(qū)域協(xié)方差矩陣與主方位信息易于獲取LSM匹配初值,通過迭代達(dá)到對(duì)原始特征匹配誤差的精確補(bǔ)償。試驗(yàn)結(jié)果表明本文方法在正確匹配點(diǎn)數(shù)、匹配正確率、匹配點(diǎn)分布的均勻性以及配準(zhǔn)精度方面具有優(yōu)越性,因此本文為傾斜影像的高精度配準(zhǔn)探索了一種可行的思路。但本文算法僅對(duì)平面場(chǎng)景和地形較平坦區(qū)域進(jìn)行試驗(yàn)驗(yàn)證,把互補(bǔ)匹配點(diǎn)由單平面場(chǎng)景匹配傳播到多平面場(chǎng)景中是本文下一步要研究的內(nèi)容。

[1] BROWN L.A Survey of Image Registration Techniques[J].ACM Computing Surveys,1992,24(4):325-376.

[2] MARCELLO J,MEDINA A,EUGENIO F.Evaluation of Spatial and Spectral Effectiveness of Pixel-level Fusion Techniques[J].IEEE Geosciences and Remote Sensing Letters,2012,10(3):432-436.

[3] KIM Y S,LEE J H,RA J B.Multi-sensor Image Registration Based on Intensity and Edge Orientation Information[J].Pattern Recognition,2008,41:3356-3365.

[4] ZHANG Qian,LIU Zhengkai,PANG Yanwei,et al.Automatic Registration of Aero Photos Based on SUSAN Operator[J].Acta Geodaetica et CartoGraphica Sinica,2003,32(3):245-250.(張遷,劉政凱,龐彥偉,等.基于SUSAN算法的航空影像的自動(dòng)配準(zhǔn)[J].測(cè)繪學(xué)報(bào),2003,32(3):245-250.)

[5] YANG Tao,ZHANG Yanning,ZHANG Xiuwei,et al.Scene Complexity and Invariant Feature Based Real-time Aerial Video Registration Algorithm [J].Acta Electronic Sinica,2010,38(5):1069-1076.(楊濤,張艷寧,張秀偉,等.基于場(chǎng)景復(fù)雜度與不變特征的航拍視頻實(shí)時(shí)配準(zhǔn)算法[J].電子學(xué)報(bào),2010,38(5):1069-1076.)

[6] LI Lingling,LI Cuihua,ZENG Xiaoming.An Automatic Image Registration Method Based on SIFT and Harris-Affine Features Matching [J].Journal of Huazhong University of Science & Technology,2008,36(8):13-16.(李玲玲,李翠華,曾曉明.基于Harris-Affine和SIFT特征匹配的圖像自動(dòng)配準(zhǔn)[J].華中科技大學(xué)學(xué)報(bào):自然科學(xué)版,2008,36(8):13-16.)

[7] LUO Nan,SUN Quansen,GENG Leilei,et al.An Extended SURF Descriptor and Its Application in Remote Sensing Images Registration[J].Acta Geodaetica et Cartographica Sinica,2013,42(3):383-388.(羅楠,孫權(quán)森,耿蕾蕾,等.一種擴(kuò)展SURF描述符及其在遙感圖像配準(zhǔn)中的應(yīng)用[J].測(cè)繪學(xué)報(bào),2013,42(3):383-388.)

[8] YANG H C,ZHANG S B,WANG Y B.Robust and Precise Registration of Oblique Images Based on Scale Invariant Feature Transformation Algorithm [J].Geoscience and Remote Sensing Letters,2012,9(4):783-787.

[9] ANTONIO M G,TOMMASELLI,MAURICIO G,et al.Generating Virtual Image from Oblique Frames[J].SIAM Journal on Imaging Sciences,2013,5(4):1875-1893.

[10] PODBREZNIK P,POTOCNIK B.A Self-adaptive ASIFTSH Method [J].Advanced Engineering Informatics,2013,27(1):120-130.

[11] QIU Jianguo,ZHANG Jianguo,LI Kai.An Images Matching Method Based on Harris and Sift Algorithm [J].Journal of Test and Measurement Technology,2009,23(3):271-274.(邱建國(guó),張建國(guó),李凱.基于Harris與Sift算法的圖像 匹 配 方 法 [J].測(cè)試技術(shù)學(xué)報(bào),2009,23(3):271-274.)

[12] JIA Shijie,WANG Pengxiang JIANG Haiyang,et al.Study of Image Matching Algorithm Based on SIFT [J].Journal of Dalian Jiaotong University,2010,31(4):17-21.(賈世杰,王鵬翔,姜海洋,等.基于SIFT的圖像匹配算法[J].大連交通大學(xué)學(xué)報(bào),2010,31(4):17-21.)

[13] YUE Chunyu,JIANG Wanshou.An Automatic Registration Algorithm for SAR and Optical Images Based on Geometry Constraint and Improved SIFT [J].Acta Geodaetica et Cartographica Sinica,2012,41(4):570-576.(岳春宇,江萬(wàn)壽.幾何約束和改進(jìn)的SIFT的SAR影像和光學(xué)影像自動(dòng)配準(zhǔn)方法[J].測(cè)繪學(xué)報(bào),2012,41(4):570-576.)

[14] XIAO J J,SHAH M.Two-frame Wide Baseline Matching[C]∥Proceedings of IEEE Conference Computer Vision,Nice:[s.n.],2003:603-609.

[15] MONTOLIU R,PLA F.Generalized Least Squares-based Parametric Motion Estimation[J].Computer Vision and Image Understanding,2009,113:790-801.

[16] MIKOLAJCZYK K,TUYTELAARS T,SCHMID C.A Comparison of Affine Region Detectors[J].International Journal of Computer Vision,2005,60(1):163-186.

[17] MATAS J,CHUM O,URBAN M,et al.Robust Wide baseline Stereo from Maximally Stable Extremal Regions[J].Image Vision Computing,2004,22(10):76-767.[18] MIKOLAJCZYK K,SCHMID C.Scale & Affine Invariant Interest Point Detector [J].International Journal of Computer Vision,2004,60(1):63-86.

[19] CHENG Liang,GONG Jianya,SONG Xiaogang,et al.A Method for Affine Invariant Features Extraction with High Quality for Wide Baseline Stereo Image Matching[J].Acta Geodaetica et Cartographica Sinica,2008,37(1):77-82.(程亮,龔健雅,宋小剛,等.面向?qū)捇€立體影像匹配的高質(zhì)量仿射不變特征提取方法[J].測(cè)繪學(xué)報(bào),2008,37(1):77-82.)

[20] MOREL J M,YU G S.ASIFT:A New Framework for Fully Affine Invariant Image Comparison [J].Siam J.Imaging Sciences,2009,2(2):438-469.

猜你喜歡
點(diǎn)數(shù)投影像素
趙運(yùn)哲作品
藝術(shù)家(2023年8期)2023-11-02 02:05:28
像素前線之“幻影”2000
解變分不等式的一種二次投影算法
基于最大相關(guān)熵的簇稀疏仿射投影算法
“像素”仙人掌
找投影
找投影
看不到的總點(diǎn)數(shù)
畫點(diǎn)數(shù)
破解“心靈感應(yīng)”
江源县| 河西区| 平顶山市| 桂东县| 呼伦贝尔市| 高密市| 兴城市| 芒康县| 桂阳县| 扶余县| 西林县| 乡宁县| 江津市| 陕西省| 闵行区| 荆门市| 壤塘县| 兴宁市| 贺州市| 常宁市| 永顺县| 怀化市| 十堰市| 江山市| 行唐县| 高碑店市| 阿拉尔市| 商河县| 任丘市| 团风县| 磐安县| 隆安县| 新巴尔虎右旗| 阿图什市| 商城县| 米脂县| 交城县| 滦南县| 五家渠市| 英超| 新竹市|