杜 藝,劉文國,葛 帥
(1. 山東省水利勘測設(shè)計院,山東 濟(jì)南 250013; 2. 濟(jì)南市房產(chǎn)測繪研究院,山東 濟(jì)南 250001)
特征點提取是圖像分析過程中的重要步驟,也是數(shù)字?jǐn)z影測量的關(guān)鍵技術(shù)之一。特征點的本質(zhì)問題可以歸結(jié)為:在抵抗一定圖像畸變的情況下,保證特征點的正確提取和匹配[1]。然而,由于天氣、陽光、遮擋及傳感器位置變化等因素導(dǎo)致圖像發(fā)生了各種幾何變形和灰度變化,穩(wěn)定的特征點提取變得困難[2]。因此,提取不受外界干擾的局部不變特征在數(shù)字?jǐn)z影測量中變得尤為重要。
在航空攝影過程中,由于攝影時間及太陽高度角的變化,使得地面物體和有一定高度的地面植被在不同航線上的位置發(fā)生變化,而在一般的紋理分析、特征點提取時,這些點很容易被提取出來,這就造成了點位的不精確,降低了空中三角測量的精度。實踐證明,要克服攝影時間、太陽高度角、攝影位置等變化因素的影響,必須提取一些特殊的特征點,這是解決全自動空中三角測量的關(guān)鍵。
假設(shè)一個二元圖像函數(shù)為f(x,y),則其拉普拉斯算子[3]為
為了更適合數(shù)字圖像處理,式(1)需要表示為離散形式??紤]到有兩個變量,在x方向上對二階偏導(dǎo)數(shù)采用下式定義
(2)
類似的,在y方向上為
則式(1)中的二維拉普拉斯數(shù)字實現(xiàn)可由兩個分量相加得到,即
f(x,y-1)-4f(x,y)]
(4)
為了直觀地了解拉普拉斯變換定義,對圖像進(jìn)行拉普拉斯變換運算,效果如圖1所示。
圖1
由于直接對圖像求二階導(dǎo)數(shù)容易受噪聲的干擾,因此常常和高斯平滑濾波器結(jié)合使用。首先使用高斯濾波器進(jìn)行平滑處理,去除噪聲的干擾,然后使用拉普拉斯濾波器進(jìn)行卷積[4],這就是LoG定義的由來。
線性濾波器具有式(5)的性質(zhì)
(5)
即先用高斯函數(shù)對圖像卷積,然后對圖像求二次偏導(dǎo)數(shù),等同于用一個高斯函數(shù)的二階導(dǎo)數(shù)對圖像卷積[5]。高斯函數(shù)公式如下
LoG算子公式[6]為
圖2是對圖1(a)進(jìn)行LoG運算的效果圖,其中高斯函數(shù)的參數(shù)σ(sigma)=2。從圖2可見,眼睛處和攝像機前端的LoG響應(yīng)值最大,而在攝像機鏡腿的白色區(qū)域LoG響應(yīng)值最小。
圖2 LOG的極大值和極小值
為了更好地看清楚眼睛處的圖像和眼睛處的LoG響應(yīng)的對應(yīng)關(guān)系,截取細(xì)節(jié)部分將其放大。從圖3可見,LoG響應(yīng)的極值點準(zhǔn)確定位Blob特征的中心位置,極大值對應(yīng)于白色背景中的黑色Blob,極小值對應(yīng)于黑色背景中的白色Blob。
圖3 細(xì)節(jié)部分的LOG響應(yīng)
檢測的Blob大小尺度是由參數(shù)σ來決定的,可以通過不同σ的LoG響應(yīng)試驗作對比。圖4為σ分別取值2和10的LoG響應(yīng)的效果圖對比。
圖4中σ=2的LoG對眼睛區(qū)域響應(yīng)大,而σ=10的LoG對頭部響應(yīng)大,即不同的σ值對應(yīng)了不同大小的Blob尺度。通過圖5得到,LoG看似像眼睛,它在眼睛處LoG響應(yīng)最大,可以看成用一個濾波器與圖像卷積,相當(dāng)于在圖像中找與這個濾波器模板最相似的部分,也就是模板匹配。
圖4 σ取不同值的LoG響應(yīng)
圖5 LoG看似模板進(jìn)行模板匹配
第一步關(guān)鍵是選擇σ參數(shù)的大小。通過觀察Blob特征,確定σ=0.8,size=5大小的濾波器,即
用構(gòu)造的LoG濾波器對影像進(jìn)行卷積運算。圖6為裁切的航空影像的部分圖像,將要提取的特殊點局部區(qū)域放大如右邊圖像,圖7是LoG響應(yīng)圖。
圖6 原始圖像上提取的特殊點
圖7 原始圖像的LOG響應(yīng)圖像
從圖6和圖7可知,需要提取的點剛好符合白色背景中的黑色Blob。在響應(yīng)圖中看到該Blob處響應(yīng)最大,而極大值的地方就是Blob的中心位置。在程序設(shè)計中,不需要歸一到0~255,這只是用來驗證上述理論。該點附近的相應(yīng)值情況如圖8所示,截取以最大響應(yīng)處為中心的11×11的窗口。
圖8 LOG響應(yīng)值
從圖8可以看出,黑色Blob處的響應(yīng)值都是正值,相反周圍白色背景的響應(yīng)值為負(fù)值。把負(fù)值置0,則黑色Blob就凸顯出來了。為了方便顯示,把閾值分割后的圖像進(jìn)行了歸一化操作,得到的圖像如圖9所示。
圖9 LOG響應(yīng)值的閾值分割及圖像顯示
通過第2節(jié)得到閾值分割圖像后,為了篩選響應(yīng)強度大的特征,在LoG響應(yīng)圖像上給定一個閾值,經(jīng)過多次試驗,選取閾值40。如果LoG響應(yīng)圖像的像素大于這個閾值,再將每一個像素與周圍鄰域8個像素進(jìn)行比較,以確保二維圖像空間檢測到局部極值,將該點作為候選點進(jìn)行下一步處理。
以候選點為中心,用一個5×5或7×7的模板框?qū)υ擖c進(jìn)行套合,如果該模板框不能完全把該候選點連通的區(qū)域封閉,則淘汰該候選點。
經(jīng)過上述4步操作后,已經(jīng)提取到想要的特殊點,如圖10所示。在紋理信息豐富的森林草地地方,往往造成一些偽Blob特征,雖然也符合Blob的定義,但是在航空攝影測量中,這些地方容易受外界因素干擾,是不可靠信息,因此需要排除。通過觀察影像數(shù)據(jù),可發(fā)現(xiàn)這些地方響應(yīng)大的Blob處,在原始圖像上是因為所謂的白色背景太暗。排除這些偽Blob特征干擾的方法是在每個候選點附近,用該點為中心的3×3像素的均值,與外邊一圈5×5的窗口外框的像素的均值作差,如果差值>22,就可以排除掉這些偽Blob特征,結(jié)果如圖11所示。
圖10 模板框套合后提取的特殊點
圖11 去除偽Blob特征后的特征點
通過觀察圖11,可以發(fā)現(xiàn)還有一部分點沒有被排除。通過觀察發(fā)現(xiàn),這些偽Blob特征點附近的背景不是單純的白色或黑色,一邊是白色背景,一邊是灰色背景,這些點往往是樹與樹之間的縫隙造成的偽特征。剔除這些偽Blob特征點的方法是:因為需要提取的Blob特征的大小僅僅是3×3范圍的,中間黑、四周白的像素塊,也就是說,中間點的像素值比周圍四條邊的像素值的均值要小的多,把該點的原始圖像的像素值與外圍第三圈像素的每個邊的灰度值均值作比較。經(jīng)過多次試驗,這個差值的閾值選取29。圖12為提取Blob特征的最終結(jié)果。
圖12 提取Blob特征的最終結(jié)果
圖13是對航空影像(城市區(qū)域)進(jìn)行的Blob特征提取,圖14是對航空影像(山地區(qū)域)進(jìn)行的Blob特征提取。從圖13和圖14中可以看出,提取的Blob特征大部分位于地勢平坦的區(qū)域,往往不受地形起伏的影響,并且它是一個圓形的特征,不會受圖像旋轉(zhuǎn)的影響。
圖13 航空影像(城市區(qū)域)上提取的特殊點
圖14 航空影像(山地區(qū)域)上提取的特殊點
本文在介紹拉普拉斯原理的理論基礎(chǔ)上,重點分析了高斯拉普拉斯原理,結(jié)合充分的參數(shù)適應(yīng)性的試驗分析,根據(jù)空中三角測量中航線公共點的特殊性,提出了一種特殊的Blob特征檢測方法,克服了在空中三角測量中攝影時間、太陽高度角、攝影位置等變化因素的影響,解決了全自動空中三角測量中航線間公共點自動提取的關(guān)鍵問題。
參考文獻(xiàn):
[1] LOWE D G.Object Recognition from Local Scale-invariant Features[C]∥Proceedings of the 7th IEEE International Conference on Computer Vision.Washington D.C.:ACM,1999.
[2] LOWE D G.Distinctive Image Features from Scale-invariant Keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.
[3] 岡薩雷斯. 數(shù)字圖像處理[M]. 北京: 電子工業(yè)出版社, 2008: 105-106.
[4] LINDERBERG T. Feature Detection with Automatic Scale Selection[J].International Journal of Computer Vision,1998,30(2):79-116.
[5] LINDERBERG T.Scale-space Theory:A Basic Tool for Analysing Structures at Different Scales[J].Journal of Applied Statistics,1994,21(2):224-270.
[6] SCHMID C,MOHR R,BAUCKHAGE C.Evaluation of Interest Point Detectors[J].International Journal of Computer Vision,2000,37(2):151-172.