徐田帥 房勝 劉天池
摘 要:針對(duì)目前智能手機(jī)難以拍攝大建筑物全貌以及基于移動(dòng)視覺檢索的戶外定位系統(tǒng)匹配大建筑物失準(zhǔn)的問題,提出一種面向大建筑物的移動(dòng)視覺定位算法?;诔叨炔蛔兲卣髯儞Q理論,該算法通過提取建筑物不同角度的特征建立一種建筑物多視角特征模型,并基于該模型建立建筑物特征庫(kù),同時(shí)通過在特征庫(kù)中匹配用戶提交的不同角度建筑物照片的特征點(diǎn)實(shí)現(xiàn)定位。實(shí)驗(yàn)結(jié)果表明,與基于GPS定位的算法相比,該算法能夠通過建筑物圖像匹配精確的進(jìn)行定位,解決了GPS在高樓林立的市區(qū)定位不準(zhǔn)的問題;并且該算法通過保留建筑物特征的空間位置信息,能較好地過濾錯(cuò)誤匹配,與基于BOF(bag of feature)算法的移動(dòng)視覺定位算法相比,提高了匹配精確度,具有較強(qiáng)的實(shí)用價(jià)值。
關(guān)鍵詞:定位系統(tǒng);大建筑物;多視角特征模型;移動(dòng)視覺搜索;尺度不變特征變換
DOIDOI:10.11907/rjdk.151238
中圖分類號(hào):TP312 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-7800(2015)007-0071-05
0 引言
隨著帶有GPS功能的智能手機(jī)的普及和互聯(lián)網(wǎng)技術(shù)的進(jìn)步,基于位置的服務(wù)(location-based services, LBS)得到了較快發(fā)展。然而,作為L(zhǎng)BS最重要的信息,位置信息主要通過衛(wèi)星導(dǎo)航的方式獲得,在市區(qū)由于高樓林立引起的多路徑效應(yīng)問題,衛(wèi)星導(dǎo)航獲取的位置信息通常偏差較大[1]。針對(duì)這一問題,G Schroth與R Huitl等[1-3]從視覺匹配的角度出發(fā),研究了基于移動(dòng)視覺檢索的定位方式。近年來,谷歌、亞馬遜等公司都開始在移動(dòng)視覺搜索上進(jìn)行探索,并取得了一些成果。谷歌在安卓平臺(tái)開發(fā)了Goggles[4],用于查詢商標(biāo)、圖書、藝術(shù)品等。亞馬遜在IOS平臺(tái)上開發(fā)了Snaptell[5],用來識(shí)別圖書、DVD和游戲封面。oMoby在IOS平臺(tái)上開發(fā)了oMoby,用來識(shí)別普通物體。以上系統(tǒng)在商標(biāo)、圖書等小圖案上檢索效果較好[6],但是并不能很好地檢索跨越整幅圖片的戶外建筑物圖片。戶外建筑物的檢索面臨諸多挑戰(zhàn):①建筑物的描述因?yàn)檎趽鹾透采w變得復(fù)雜;②查詢圖像與數(shù)據(jù)庫(kù)圖像的光照情況不同,產(chǎn)生的倒影與反射也不同;③查詢圖像與數(shù)據(jù)庫(kù)圖像中都存在汽車、行人等改變成像內(nèi)容的動(dòng)態(tài)物體;④手機(jī)拍照造成的抖動(dòng)模糊也會(huì)對(duì)匹配查詢?cè)斐捎绊慬1]。
G Schroth基于移動(dòng)視覺定位系統(tǒng)的研究使用谷歌球形全景圖作為數(shù)據(jù)庫(kù)圖像,同時(shí)為了實(shí)現(xiàn)普通照片與球形全景圖的匹配,采用了基于BOF(bag of feature)[7]算法的圖像檢索匹配方法。該算法通過K-means算法將高維特征描述子聚類量化為視覺詞匯,將圖片檢索再表示為文本檢索。但是由于BOF算法將原始特征量化為視覺詞匯,忽略了特征點(diǎn)的原始信息與空間聯(lián)系[1,7-8],使得查準(zhǔn)率不能保持在較高水平。而且球形全景圖存在寬基線效應(yīng),改變了原圖像的三維視圖、尺度、灰度等信息。同時(shí)球形全景圖缺乏針對(duì)性,道路與樹木占據(jù)了圖片的大部分。
針對(duì)以上問題,本文在保證檢索效率的前提下,設(shè)計(jì)了一種面向大建筑物的移動(dòng)視覺定位算法。該算法使用普通建筑物圖像作為數(shù)據(jù)庫(kù)圖像,避免了球形全景圖存在的寬基線效應(yīng)以及缺乏針對(duì)性的問題;并且通過提取建筑物不同角度特征建立建筑物多角度特征模型,并基于該模型建立建筑物特征庫(kù)。最后通過在特征庫(kù)中匹配用戶提交的不同角度的建筑物照片的特征點(diǎn)實(shí)現(xiàn)定位。在建筑物多角度特征模型中,該算法保留了建筑物的特征信息與位置信息,在特征匹配中通過RANSAC[9]算法進(jìn)一步保證了準(zhǔn)確度。
1 移動(dòng)視覺定位相關(guān)技術(shù)
1.1 移動(dòng)視覺定位基本架構(gòu)
移動(dòng)視覺定位系統(tǒng)與移動(dòng)視覺搜索系統(tǒng)的基本結(jié)構(gòu)大致相同,即用一幅或幾幅圖像查詢數(shù)據(jù)庫(kù),然后得到匹配檢索結(jié)果[8]。目前,移動(dòng)視覺檢索基本架構(gòu)主要有3種模式[10-11]。
模式1:用戶通過手機(jī)客戶端拍攝建筑物圖像,經(jīng)過部分預(yù)處理后將照片上傳到服務(wù)器,服務(wù)器進(jìn)行特征提取、圖像匹配,將得到的檢索結(jié)果返回到手機(jī)客戶端。
模式2:用戶通過手機(jī)客戶端拍攝建筑物圖像,并在手機(jī)端進(jìn)行特征提取,然后將提取的特征上傳至服務(wù)器進(jìn)行特征匹配,最后服務(wù)器將匹配結(jié)果返回到手機(jī)客戶端,并顯示在手機(jī)屏幕上。
模式3:用戶通過客戶端拍攝建筑物圖像,并在手機(jī)端進(jìn)行特征提取與特征匹配。
模式1主要針對(duì)運(yùn)算能力較差,無法在手機(jī)端運(yùn)行特征提取算法的手機(jī)。模式2主要針對(duì)運(yùn)算能力較好的手機(jī),可以在手機(jī)端提取特征,減小上傳的數(shù)據(jù)量,減輕服務(wù)器運(yùn)算壓力。模式3減少了網(wǎng)絡(luò)傳輸環(huán)節(jié),能較明顯地節(jié)省時(shí)間,但對(duì)運(yùn)算性能要求最高[12]。
在手機(jī)端對(duì)圖像提取特征計(jì)算量很大,不僅考驗(yàn)手機(jī)的運(yùn)算能力,在電量方面也會(huì)增加消耗,而且運(yùn)算時(shí)間如果過長(zhǎng)也會(huì)影響用戶體驗(yàn)。因此,該算法在結(jié)構(gòu)上選擇模式1,即從手機(jī)端上傳圖像到服務(wù)器并從服務(wù)器端進(jìn)行特征提取和圖像匹配,再將匹配結(jié)果排序返回手機(jī)端。
圖1 移動(dòng)視覺定位系統(tǒng)基本結(jié)構(gòu)
1.2 圖像特征提取與描述方法
本文采用SIFT(scale-invariant feature transform)[13]算法作為圖像的特征提取與描述算法。SIFT算法不僅對(duì)旋轉(zhuǎn)、尺度、亮度變化保持不變性,而且對(duì)視角變化、仿射變換、噪聲也保持一定的穩(wěn)定性。SIFT算法分為特征點(diǎn)檢測(cè)與描述兩個(gè)部分。(1)特征點(diǎn)檢測(cè)。首先構(gòu)建尺度空間,采用唯一線性的高斯卷積核與原圖像I(x,y)進(jìn)行卷積。
L(x,y,σ)=G(x,y,σ)*I(x,y)(1)
將相鄰高斯尺度空間的圖像相減得到高斯差分圖像,并建立高斯差分金字塔。
D(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y)=L(x,y,kσ)-L(x,y,σ)(2)
G(x,y,σ)=12πσ2e-(x2+y2)/2σ2(3)
其中,(x,y)為空間坐標(biāo),σ為尺度,k為乘積因子。通過對(duì)每個(gè)采樣點(diǎn)比較其圖像域和尺度域中的相鄰點(diǎn)來確定極值點(diǎn)的位置,并去除低對(duì)比度的極值點(diǎn)和不穩(wěn)定的邊緣響應(yīng)點(diǎn)得到最終特征點(diǎn)。(2)描述子生成。首先計(jì)算特征點(diǎn)領(lǐng)域像素的梯度方向得到該特征點(diǎn)的主方向。將坐標(biāo)軸旋轉(zhuǎn)到特征點(diǎn)主方向,然后以特征點(diǎn)為中心取16×16的鄰域作為采樣窗口,將采樣點(diǎn)與特征點(diǎn)的相對(duì)方向通過高斯加權(quán)后歸入包含8個(gè)bin的方向直方圖,最后獲得4×4×8的128維特征描述子。在特征匹配時(shí),SIFT算法選擇歐式距離作為128維SIFT算子的距離函數(shù)。設(shè)檢索圖像A的特征集合為Fa = \{ f(a)1 ,f(a)2 ,...f(a)Na \} ,特征數(shù)據(jù)庫(kù)中的一個(gè)特征集合為Fb = \{ f(b)1 ,f(b)2 ,...f(b)Nb \} ,其中Na、Nb為對(duì)應(yīng)的特征點(diǎn)個(gè)數(shù)。特征向量的歐氏距離可用式(4)表示:
d(fa,fb)=∑128i=1(fia-fib)2(4)
根據(jù)式(4)計(jì)算Fa中每個(gè)特征向量與Fb中每個(gè)特征向量的距離,得到Fb與Fa中每個(gè)向量最近的兩個(gè)距離d1、d2。將最近距離d1與次近距離d2的比值與閾值進(jìn)行比較來確定是否為正確匹配的特征點(diǎn)對(duì)。
2 多角度特征模型與匹配算法
2.1 多角度特征模型
該定位算法的應(yīng)用場(chǎng)景是在道路上隨拍隨查,拍攝角度要求不高。手機(jī)鏡頭由于其自身局限性,并不能拍攝建筑物的全貌。并且,對(duì)于同一建筑物,拍攝地點(diǎn)不同,也會(huì)造成視角的改變,建筑物的成像內(nèi)容也會(huì)發(fā)生改變。這種視角的大范圍變換并不能通過SIFT算法解決。為了解決該問題,本文提出了一種多角度特征表示建筑物的方法,通過提取建筑物不同角度特征建立建筑物多角度特征模型,并基于該模型建立建筑物特征庫(kù)。其中,建筑物多角度特征模型是對(duì)建筑物的整體描述,定義如下:定義1:建筑物多角度特征模型由建筑物人文信息與建筑物特征點(diǎn)描述向量與空間坐標(biāo)集合構(gòu)成,可以描述為:
MN=I∪UN(5)
其中,N表示圖像庫(kù)中該建筑物圖像的數(shù)量,I為建筑物位置、功能、歷史等人文信息的集合,UN為建筑物特征與空間坐標(biāo)結(jié)合。
ui=Fi∪Ki(6)
UN={u1,u2,...,uN}(7)
Fi為建筑物第i幅圖像的特征向量集合,Ki為建筑物第i幅圖像特征向量對(duì)應(yīng)的空間坐標(biāo)集合。ui為建筑物第i幅圖像特征向量與空間坐標(biāo)的集合。如式(7)所示,UN是由以圖像為單位的ui組成的集合。該算法在特征匹配時(shí)采用如下匹配方式,即以最近距離與次近距離比作為特征點(diǎn)匹配的標(biāo)準(zhǔn)。若單獨(dú)將特征向量集合作為建筑物的描述信息,在特征匹配時(shí)由于特征點(diǎn)分布于多幅不同角度的圖像中,符合最近距離的特征點(diǎn)與次近距離的特征點(diǎn)常位于不同的圖像上,容易造成匹配失敗。因此在模型M中,特征的集合以圖像為單位進(jìn)行存儲(chǔ)與匹配,之后再通過對(duì)應(yīng)的位置信息,使用RANSAC算法對(duì)錯(cuò)誤匹配的特征點(diǎn)進(jìn)行過濾。
2.2 多角度特征模型指紋庫(kù)
特征庫(kù)主要用來存儲(chǔ)建筑物特征。與G Schroth使用視覺詞匯作為移動(dòng)視覺定位系統(tǒng)特征庫(kù)不同的是,本文使用更有針對(duì)性的建筑物多角度特征模型建立特征庫(kù)。具體流程如圖2所示。
圖2 多角度特征模型指紋庫(kù)流程
(1)環(huán)繞建筑物,每隔N米拍攝不同角度的建筑物原始圖像,建立原始圖像庫(kù)P(p1,p2,p3…,pn),本文N取15。對(duì)于較大較長(zhǎng)的建筑物,可以將建筑物分塊處理,分別采集每塊建筑物不同位置不同視角的圖片。
(2)對(duì)P(p1,p2,p3…,pn)中的圖像進(jìn)行預(yù)處理,得到新的圖像集P'(p'1,p'2,p'3…,p'n)。由于拍攝的圖片中存在樹木、草地、道路、汽車等噪聲,需要進(jìn)行預(yù)處理去掉這些噪聲。校內(nèi)建筑物的主題顏色均為紅色與白色,可以通過顏色特征過濾掉草地與樹木枝葉。建筑物在空間分布上一般位于照片上半部分,道路與汽車位于照片下半部分,可以通過空間區(qū)域劃分去掉底部的無關(guān)內(nèi)容。
(3)對(duì)圖像集P'中的圖片進(jìn)行相互匹配。
(4)以正確匹配特征點(diǎn)的數(shù)量評(píng)價(jià)匹配的優(yōu)劣,將正確匹配特征點(diǎn)數(shù)超過閾值T的圖片記錄為正確匹配的特征信息,構(gòu)建多角度特征模型MN。
(5)將建筑物多角度特征模型MN寫入指紋庫(kù)。
實(shí)驗(yàn)發(fā)現(xiàn),對(duì)于同一建筑物,由于拍攝方向、角度不同,圖像在內(nèi)容上差別較大。例如,一號(hào)教學(xué)樓東西長(zhǎng)250m,整體具有一定弧度,具有中間凸兩邊凹的特點(diǎn)。如圖3所示。
圖3 一號(hào)樓不同角度照片
圖3為一號(hào)樓4幅不同角度的照片??梢钥闯觯捎阽R頭的限制,一幅圖片很難涵蓋整座建筑物,而且由于拍攝地點(diǎn)、角度等不同,幾幅圖片差別較大。若只采用一幅特定角度的照片表示一號(hào)教學(xué)樓,則當(dāng)檢索圖像角度差別較大時(shí),匹配就會(huì)失敗。例如,實(shí)驗(yàn)中發(fā)現(xiàn)圖3 (a)和圖3(b)正確匹配的特征點(diǎn)為0。因此,為了獲得整棟建筑物各角度的特征同時(shí)考慮到特征數(shù)據(jù)庫(kù)的大小,本文采取每隔15m采集一次建筑物圖像的方法。如圖4所示。
圖4 建筑物連續(xù)角度照片
圖4(a)—(e)是在不同地點(diǎn)拍攝的連續(xù)6幅一號(hào)教學(xué)樓照片。其中,(a)(b)、 (a)(c)、(a)(d)、(a)(e)、(a)(f)之間的距離漸次增大。實(shí)驗(yàn)發(fā)現(xiàn),圖4 (a)與圖4(b)、圖4(c)匹配特征點(diǎn)數(shù)量均大于100,與(d)匹配數(shù)量低于100,與(e)、(f)匹配失敗??梢钥闯?,當(dāng)拍攝地點(diǎn)距離較遠(yuǎn),引起視角變化較大時(shí)匹配基本不成功,因此只需要相互匹配鄰近的四五個(gè)圖像采集點(diǎn)的不同視角的圖像即可。最后篩選匹配特征點(diǎn)數(shù)量較多的圖片對(duì),得到穩(wěn)定的特征點(diǎn)。
2.3 在線特征匹配
由于照片拍攝環(huán)境復(fù)雜,為了得到準(zhǔn)確的特征匹配,本文在匹配過程采用了RANSAC[9]算法過濾錯(cuò)誤匹配。特征匹配具體步驟如下:
(1)獲取用戶上傳的圖像IQ并提取其特征FQ(f1,f2...fn)。
(2)依次讀取特征庫(kù)中的特征文件J(J=1,2,3…N)中的特征FD與FQ進(jìn)行特征匹配,其中N為特征文件的個(gè)數(shù)。
(3)利用RANSAC算法過濾錯(cuò)誤匹配。通過建筑物特征文件中保留的匹配特征點(diǎn)位置信息求得單應(yīng)性矩陣H。設(shè)PD(x1,y1),PQ(x2,y2)分別為數(shù)據(jù)庫(kù)與檢索圖片中一對(duì)匹配的特征點(diǎn)。PD(x1,y1)經(jīng)過矩陣H變換后得到PD′(x1 ′,y1′)。若PD′(x1 ′,y1′)與PQ(x2,y2)的歐式距離小于閾值,則認(rèn)為PD(x1,y1),PQ(x2,y2)是一對(duì)正確匹配。
(4)累計(jì)每個(gè)特征文件J(J=1,2,3…N)中與IQ特征成功匹配的特征點(diǎn)的數(shù)量Num。
(5)將建筑物特征點(diǎn)匹配數(shù)量Num與閾值Tn進(jìn)行比較,若大于閾值Tn,則該建筑物為候選匹配建筑物。
(6)返回匹配特征點(diǎn)數(shù)量最多的候選建筑物信息。
具體匹配流程如圖5所示。
本文以特征點(diǎn)匹配數(shù)量作為圖片匹配標(biāo)準(zhǔn),其中閾值Tn的設(shè)定決定了算法的準(zhǔn)確度。本文取不同建筑物不同角度照片與指紋庫(kù)中的特征文件進(jìn)行特征匹配。表1和表2描述了指紋庫(kù)中部分建筑物與自身圖片及其它建筑物圖片匹配的結(jié)果。
可以看出,指紋庫(kù)中建筑物的測(cè)試照片與指紋庫(kù)進(jìn)行匹配時(shí),匹配特征點(diǎn)個(gè)數(shù)均大于20,而指紋庫(kù)以外建筑物的照片與指紋庫(kù)進(jìn)行特征匹配時(shí)匹配數(shù)量普遍較少,且最高匹配數(shù)量均小于10,具有良好的區(qū)分性。因此本文將閾值Tn設(shè)為20,同時(shí)采用匹配特征點(diǎn)數(shù)量排序來保證匹配的準(zhǔn)確性。
3 實(shí)驗(yàn)結(jié)果與分析
本文實(shí)驗(yàn)采用浪潮英信NF280D作為服務(wù)器,其配置為2.67GHz CPU,8GB內(nèi)存;手機(jī)端采用華為honor3C智能手機(jī)、三星SM-G3812、紅米手機(jī)等5部不同品牌型號(hào)的手機(jī),其配置均為1GB內(nèi)存;無線網(wǎng)絡(luò)采用傳輸速度為54Mbps的WiFi。
算法采用第一種架構(gòu)模式,特征提取、匹配運(yùn)算都集中在服務(wù)器端,性能評(píng)估也主要集中在服務(wù)器端,數(shù)據(jù)傳輸效率與匹配準(zhǔn)確度是需要重點(diǎn)解決的問題。為了評(píng)估服務(wù)器端識(shí)別算法的性能,本文使用隨機(jī)拍攝的校內(nèi)建筑照片進(jìn)行精確度測(cè)試。測(cè)試系統(tǒng)數(shù)據(jù)庫(kù)中存儲(chǔ)15座建筑物的特征信息。
圖6 測(cè)試數(shù)據(jù)集圖片
如圖6所示,校內(nèi)每座建筑選擇隨機(jī)拍攝的20幅不同角度、不同時(shí)間、不同天氣、不同光照情況下的照片共300幅,再選擇數(shù)據(jù)庫(kù)外建筑照片100幅對(duì)系統(tǒng)的精確度進(jìn)行測(cè)試。
表3記錄了15座建筑物的匹配結(jié)果,分別用查全率與查準(zhǔn)率對(duì)匹配結(jié)果進(jìn)行評(píng)估。測(cè)試結(jié)果查全率在0.75~1之間,查準(zhǔn)率在0.94~1之間,而G Schroth基于BOF算法的定位算法的查準(zhǔn)率最大值為0.7[1],可以看出本算法在查準(zhǔn)率上有了較大提高,這主要是因?yàn)樵诿恳淮芜M(jìn)行特征匹配后都會(huì)通過RANSAC算法進(jìn)行一次幾何一致性校驗(yàn),來降低誤識(shí)別率。查詢圖像與建筑物數(shù)據(jù)庫(kù)中的所有圖像匹配完成后,算法將每座建筑所有匹配的特征點(diǎn)累加,再對(duì)特征點(diǎn)數(shù)量排序,選擇匹配特點(diǎn)數(shù)量最多的建筑作為最后結(jié)果,進(jìn)一步保證了查準(zhǔn)率。
圖7是一號(hào)教學(xué)樓兩幅不同角度的測(cè)試圖像,(a)為一號(hào)樓中部正面照片,(b)為一號(hào)樓西部正面照片。圖中黑色的點(diǎn)是圖像與特征庫(kù)實(shí)現(xiàn)匹配的特征點(diǎn)。若采用單一角度的特征作為建筑物的特征庫(kù),特征匹配過程中只能匹配圖7(a)、圖7(b)中的一幅圖像。而采用多角度特征描述模型能夠保留建筑物不同角度的特征,在匹配過程中系統(tǒng)針對(duì)不同角度的上傳圖像匹配不同角度下的特征點(diǎn)(圖7(a)和圖7(b)中黑色的點(diǎn)),實(shí)現(xiàn)圖像匹配。
圖7 同一建筑不同角度照片匹配結(jié)果
圖8是一號(hào)樓匹配失敗圖像??梢钥闯?,圖片中樹木遮擋嚴(yán)重,建筑物比例較低。匹配的特征點(diǎn)本身較少,經(jīng)過幾何一致性校驗(yàn)后低于成功匹配的閾值。針對(duì)這種遮擋嚴(yán)重的情況,在后續(xù)工作中可以通過對(duì)圖像分塊的方式,獲取圖像中受遮擋干擾較小的部分實(shí)現(xiàn)匹配。
圖8 一號(hào)樓匹配失敗圖片
通過對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行綜合分析可知,基于建筑物多角度特征模型的特征庫(kù)通過存儲(chǔ)建筑物不同角度的穩(wěn)定的特征信息,能較好解決視角變化造成的圖像不匹配問題。同時(shí)特征點(diǎn)的空間位置信息在過濾錯(cuò)誤匹配和提高圖像搜索匹配查準(zhǔn)率上具有重要作用。該算法查準(zhǔn)率均大于90%,與基于BOF算法的移動(dòng)視覺定位系統(tǒng)相比,精度有較大提高。實(shí)驗(yàn)結(jié)果證明了該算法的可行性與優(yōu)越性。
4 結(jié)語
本文提出了一種面向大建筑物的移動(dòng)視覺定位算法,通過提取建筑物不同角度的特征建立建筑物多角度特征模型描述建筑物,并基于該模型建立建筑物特征庫(kù),最后通過在特征庫(kù)中匹配用戶提交的不同角度建筑物照片的特征點(diǎn)實(shí)現(xiàn)定位。該算法讓用戶可以通過拍攝周圍的建筑物即時(shí)定位,解決了GPS在高樓林立的市區(qū)定位不準(zhǔn),只能定位地圖中相應(yīng)坐標(biāo),不能獲取相應(yīng)位置的人文資訊的問題;同時(shí),相比基于BOF算法的移動(dòng)視覺定位系統(tǒng),
提高了匹配的精度。
如何提高算法匹配效率,并研究能夠在手機(jī)端運(yùn)行的特征提取算法,減輕服務(wù)器壓力,提高算法實(shí)時(shí)性,都有待進(jìn)一步研究。
參考文獻(xiàn):
[1] G SCHROTH,R HUITL,D CHEN.Mobile visual location recognition[J].IEEE Signal Processing Magazine, 2011, 28(4): 77-91.
[2] G SCHROTH,A AL-NUAIMI,R HUITL.International rapid image retrieval for mobile location recognition[C].Acoustics, Speech and Signal Processing (ICASSP), 2011: 2320–2323.
[3] R HUITL,G SCHROTH,S HILSENBECK.TUMindoor: an extensive image and point cloud dataset for visual indoor localization and mapping[C].IEEE International Conference on Image Processing (ICIP 2012), 2012: 1773–1776.
[4] GOOGLE.Google goggles [EB/OL].http: // www. google.com/mobile/goggles/,2009.
[5] AMAZON.SnapTell[EB/OL].http://www.snaptell.com,2007.
[6] XU LIU,JONATHAN HULL,JAMEY GRAHAM,et al. Mobile visual search, linking printed documents to digital media [C]. In CVPR 2010 Demonstrations,2010.
[7] J SIVIC,A ZISSERMAN.Video google: a text retrieval approach to object matching in videos[C]. IEEE Int. Conf. Computer Vision,2003: 1470-1477.
[8] B GIROD,V CHANDRASEKHAR,D CHEN,et al. Mobile visual search [J].IEEE Signal Processing Magazine, 2011, 28(4): 61-76.
[9] FISCHLER M A,BOLLES R C.Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography [J].Communications of the ACM,1981, 24(6): 381-395.
[10] ZHUANG XINGWANG,HUANG XIAOBIN.An overview of mobile visual search abroad[J].Journal of Library Science in China,2014: 114-128.
[11] LING-YU DUAN,F(xiàn)ENG GAO,JIE CHEN,et al.Compact descriptors of mobile visual search and MPEG CDVS standardization[C].International Symposium on Circuits and Systems (ISCAS),2013:885-888.
[12] 段凌宇,黃鐵軍,高文.移動(dòng)視覺搜索技術(shù)研究與標(biāo)準(zhǔn)化進(jìn)展[J].信息通信技術(shù),2012(6):51-58.
[13] D LOW.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision, 2004, 59(1): 91-110.
(責(zé)任編輯:孫 娟)