沈 躍,朱嘉慧,劉 慧※,孫 力
近年來,隨著計(jì)算機(jī)視覺技術(shù)的發(fā)展,圖像拼接已逐漸成為計(jì)算視覺模擬[1]、圖像處理[2-3]以及虛擬現(xiàn)實(shí)[4]等研究的熱點(diǎn)和關(guān)鍵技術(shù),并廣泛應(yīng)用于軍事、航空、地質(zhì)、醫(yī)學(xué)、通信等多個(gè)領(lǐng)域[5-6]。隨著農(nóng)業(yè)智能化的進(jìn)一步發(fā)展,圖像拼接在農(nóng)業(yè)果實(shí)植株的檢測(cè)、田間管理、農(nóng)用機(jī)器人導(dǎo)航等方面起到了重要的作用[7-8]。馬曉丹等[9]提出了一種重建蘋果樹冠層器官三維形態(tài)的圖像拼接方法,初步實(shí)現(xiàn)對(duì)蘋果樹年生長(zhǎng)期的冠層器官相鄰區(qū)域強(qiáng)度圖像與彩色圖像的拼接,但是沒有精確識(shí)別單株冠層區(qū)域,且未能消除復(fù)雜背景。周志艷等[10]提出基于圖像像素灰度值標(biāo)準(zhǔn)差標(biāo)準(zhǔn)化的方法,改進(jìn) Harris角點(diǎn)檢測(cè)算法,對(duì)水稻低空遙感圖像進(jìn)行配準(zhǔn)與拼接方法,有效提高了角點(diǎn)檢測(cè)算法的穩(wěn)定性和圖像拼接的精度,實(shí)現(xiàn)了同尺度條件下的圖像配準(zhǔn)和拼接,但是對(duì)于不同尺度的圖像拼接還未驗(yàn)證。姚立健等[11]提出基于尺度不變特征轉(zhuǎn)換算子的水果表面圖像拼接方法,其具有一定的尺度、旋轉(zhuǎn)以及仿射變換不變性,適用于隨機(jī)呈現(xiàn)的不同姿態(tài)球狀水果圖像拼接,但是其對(duì)于水果表面紋理特征不是特別明顯的水果不能適用,有一定的局限性。
為了改善圖像拼接的效果,本文采用可采集彩色信息和深度信息的Kinect傳感器獲取圖像。Kinect V2獲取數(shù)據(jù)的穩(wěn)定性相對(duì)較好、細(xì)節(jié)更多;被其他環(huán)境光源(紅外線)影響的概率也更低,可以承受一定程度的日光。文獻(xiàn)[12]對(duì) Kinect獲取的玉米及茄子的三維點(diǎn)云數(shù)據(jù)進(jìn)行去噪試驗(yàn),去除不同尺度的噪聲,保留邊緣數(shù)據(jù)的完整性,獲得良好的植物三維點(diǎn)云數(shù)據(jù)。文獻(xiàn)[13]對(duì)Kinect深度傳感器的采集到的點(diǎn)云數(shù)據(jù)進(jìn)行圖像拼接,完成了點(diǎn)云數(shù)據(jù)的拼接,但其無法達(dá)到自然過渡的效果。已有研究表明,Kinect深度相機(jī)在被測(cè)對(duì)象深度數(shù)據(jù)采集和處理方面具有明顯優(yōu)勢(shì),但是僅考慮了單幀圖像或圖像序列,在圖像拼接的數(shù)據(jù)處理中并未過多涉及。
因此,本文在前人研究的基礎(chǔ)上,應(yīng)用Kinect二代傳感器獲取彩色圖像和植株三維數(shù)據(jù),在進(jìn)行特征點(diǎn)匹配對(duì)篩選的過程中,提出采用左右位置深度距離不變的方法去除誤匹配,通過RANSAC算法尋找左右2幅圖最佳投影變換矩陣 H,再利用最佳縫合線算法對(duì)待拼接圖像進(jìn)行融合,從而獲取空間整體目標(biāo)圖像。該研究對(duì)采用農(nóng)業(yè)車載Kinect深度傳感器進(jìn)行基于深度和彩色雙信息特征源的圖像拼接以及農(nóng)業(yè)中相關(guān)控制決策提供重要的指導(dǎo)意義。
為了驗(yàn)證圖像拼接方法的準(zhǔn)確性,搭建了一個(gè)圖像采集平臺(tái),如圖1所示,包括Kinect深度傳感器、PC機(jī)、相機(jī)支架、滑臺(tái)以及待測(cè)植株。待測(cè)植株距Kinect傳感器大約1.5 m。Kinect傳感器固定于相機(jī)支架或滑臺(tái)上,通過USB延長(zhǎng)線接口連至PC機(jī)。用MATLAB獲取植株的彩色圖像和深度距離信息,繼而進(jìn)行圖像拼接。
圖1 Kinect傳感器圖像采集平臺(tái)Fig.1 Image acquisition using Kinect platform
微軟開發(fā)的Kinect二代三維深度體感設(shè)備作為傳感器,其垂直方向可視角度為 60°,水平方向可視角度為70°,有效視野范圍為0.8~4.0 m,其獲取的彩色圖像分辨率為1 920×1 080。Kinect采用TOF獲取空間的深度數(shù)據(jù)信息[13-14]和彩色圖像信息。紅外發(fā)射器和紅外線接收器采用TOF技術(shù)可獲得物體的空間位置信息。RGB攝像頭可以獲得場(chǎng)景的彩色圖像。為保證數(shù)據(jù)的精度與完整性,先經(jīng)過預(yù)備試驗(yàn),設(shè)備與植株相距1.5 m左右,通過MATLAB獲取Kinect得到的植株三維數(shù)據(jù),采集10幀三維坐標(biāo)數(shù)據(jù),并存儲(chǔ)為.txt文檔,用于后續(xù)處理。
1.2.1 SIFT特征點(diǎn)提取
關(guān)鍵點(diǎn)的檢測(cè)不僅可以最大程度地表達(dá)彩色圖像中的特征,還可以大幅度地減少后期特征點(diǎn)匹配的數(shù)量,提高特征點(diǎn)匹配的快速性和準(zhǔn)確性[15-17]。SIFT關(guān)鍵點(diǎn)檢測(cè)算法能夠從圖像中提取出對(duì)圖像縮放、平移、旋轉(zhuǎn)不變的特征點(diǎn),并且對(duì)于光照、仿射和投影變換也有一定的不變性,是一種非常優(yōu)秀的局部特征描述算法[18-21]。尺度空間極值點(diǎn)檢測(cè)采用層疊式濾波的方法,應(yīng)用帶有不同σ的高斯函數(shù)對(duì)圖像進(jìn)行處理,圖像尺度空間[21-24]定義為
式中(x,y)為像素位置,G為高斯函數(shù),I為原圖像,L為卷積函數(shù),σ為尺度空間因子,k為常數(shù)。
檢測(cè)到的極值點(diǎn)作為候選點(diǎn),對(duì)位置、尺度、彎曲度等做擬合,剔除那些低對(duì)比度和定位差的邊緣點(diǎn),同時(shí)對(duì)尺度空間函數(shù) F ( x ,y,σ)運(yùn)用 Taylor展開得到彩色圖像匹配關(guān)鍵點(diǎn)[25-26]。
SIFT算法提取到的特征點(diǎn)描述子如圖2所示。圖中的白色箭頭表示提取到的特征點(diǎn)描述子,具有位置、尺度和方向 3個(gè)信息,白色箭頭尾部所在位置代表特征點(diǎn)位置,箭頭的長(zhǎng)度代表其尺度,特征點(diǎn)方向?yàn)榧^指向的方向。
圖2 SIFT算法提取到的特征點(diǎn)Fig.2 Feature points extracted by SIFT algorithm
1.2.2 相似性度量特征點(diǎn)匹配
本文采用算法簡(jiǎn)單實(shí)現(xiàn)效率高的歐氏距離作為 2幅圖中的相似度量[27]。
取1幅圖像中的某個(gè)關(guān)鍵點(diǎn),并找出其與另1幅圖像中距離最近的前2個(gè)關(guān)鍵點(diǎn),在這2個(gè)關(guān)鍵點(diǎn)中,如果最近的距離與次近距離的比值ratio小于某個(gè)閾值T,則接受這 1對(duì)匹配點(diǎn)[28]。由于特征空間的高維性,相似的距離可能有大量其他的錯(cuò)誤匹配,從而它的ratio值比較高。顯然降低這個(gè)比例閾值 T,SIFT匹配點(diǎn)數(shù)目會(huì)減少,但更加穩(wěn)定,反之,若比例閾值T較高,SIFT匹配點(diǎn)數(shù)目增多,但是會(huì)存在很多的誤匹配。經(jīng)多次試驗(yàn),在本文的實(shí)現(xiàn)算法中,取閾值T為0.6時(shí),試驗(yàn)效果較好,存在的誤匹配較少。
通過相似性度量得到潛在匹配對(duì),其中不可避免會(huì)產(chǎn)生一些錯(cuò)誤匹配,大量的誤匹配對(duì)圖像拼接的效果會(huì)產(chǎn)生很大的影響,如缺失、錯(cuò)位等。因此需要根據(jù)集合限制和其他附加約束消除錯(cuò)誤匹配,提高魯棒性。
將 1.1節(jié)中讀取到的每個(gè)像素點(diǎn)的三維數(shù)據(jù)賦值給彩色圖像中對(duì)應(yīng)的像素點(diǎn),此時(shí),每個(gè)像素點(diǎn)均具有彩色信息和深度距離信息,再根據(jù)深度距離不變來篩選誤匹配。在1.1節(jié)的圖1中,2幅待拼接植株圖像是Kinect V2傳感器沿水平(X軸)純平移移動(dòng)相繼拍攝得到。點(diǎn) P表示植株上的某一點(diǎn),Kinect傳感器僅進(jìn)行水平平移,b表示水平平移的距離,平移前后左右位置的坐標(biāo)系分別為Ol和Or,P點(diǎn)在坐標(biāo)系Ol和Or中坐標(biāo)分別為
即在Kinect傳感器僅進(jìn)行水平平移的情況下,P點(diǎn)的深度距離沒有發(fā)生變化。
所以在這2個(gè)不同位置下,Kinect拍攝到的植株的深度距離相同。因此可以根據(jù)Kinect獲得的2個(gè)不同位置待測(cè)植株的深度距離信息消除誤匹配。
式(2)中,若匹配到的2個(gè)特征點(diǎn)深度距離相同,則保留此匹配;若匹配到的 2個(gè)特征點(diǎn)深度距離不同,則去除該匹配。由此得到的匹配對(duì)正確率較高。
單應(yīng)性矩陣描述的是針對(duì)同一事物,在不同的視角下拍攝的2幅圖像之間的關(guān)系。為了得到Kinect傳感器在不同位置的2幅圖像之間的變換關(guān)系,采用RANSAC算法來尋找一個(gè)最佳單應(yīng)性矩陣H[29]。
隨機(jī)抽樣一致性RANSAC(random sample consensus)算法[30-31]能簡(jiǎn)單、有效的去除噪聲影響,其采用迭代的方式從 1組包含離群的被觀測(cè)數(shù)據(jù)中估算出數(shù)學(xué)模型的參數(shù)。與普通的去噪算法不同,RANSAC算法是使用盡可能少的點(diǎn)來估計(jì)模型參數(shù),然后盡可能的擴(kuò)大得到的模型參數(shù)的影響范圍[32]。RANSAC算法的基本假設(shè)是樣本中包含正確數(shù)據(jù)(inliers,可以被模型描述的數(shù)據(jù)),也包含異常數(shù)據(jù)(outliers,偏離正常范圍很遠(yuǎn)、無法適應(yīng)數(shù)學(xué)模型的數(shù)據(jù)),即數(shù)據(jù)集中含有噪聲[33]。在經(jīng)過上述基于深度信息篩選后的特征點(diǎn)匹配對(duì)中存在正確匹配,也存在少量的異常匹配,這些異常匹配可能是由于錯(cuò)誤的測(cè)量、環(huán)境因素、錯(cuò)誤的計(jì)算等產(chǎn)生的。此算法最終確定的模型中局內(nèi)點(diǎn)(即正確匹配)與所有點(diǎn)(即總匹配對(duì)數(shù))的百分比即為匹配準(zhǔn)確率。若未進(jìn)行基于深度信息的特征點(diǎn)篩選這一步驟,得到的異常匹配較多,經(jīng)過RANSAC算法后得到的數(shù)學(xué)模型準(zhǔn)確率低,單應(yīng)性矩陣H存在誤差。
圖像融合以圖像配準(zhǔn)為基礎(chǔ),對(duì)拼接后的圖像消除圖像間差異,使得拼接后的圖像能自然平滑過渡。圖像融合的傳統(tǒng)方法有梯度金字塔、漸入漸出算法[34]等,但它們會(huì)使圖像存在很明顯的帶狀感覺或存在重影現(xiàn)象,而最佳縫合線算法[35]能很好解決此問題。因此本文使用最佳縫合線算法進(jìn)行圖像拼接。
在 2幅圖像重疊區(qū)域的差值圖像上,顏色、結(jié)構(gòu)強(qiáng)度差值最小的一條線被稱為理想的縫合線。2幅原始圖像上重疊像素點(diǎn)的結(jié)構(gòu)差值是通過修改梯度計(jì)算 Sobel算子[36]實(shí)現(xiàn)。利用 Sobel算子進(jìn)行梯度計(jì)算時(shí),計(jì)算在 x方向和y方向的梯度分別采用模板Sx和Sy。
由投影變換矩陣H可以得到2幅圖像上Kinect傳感器水平平移的像素量,2個(gè)位置的坐標(biāo)系歸一化到同一個(gè)坐標(biāo)系中,將 2幅圖像重疊的部分作差運(yùn)算生成一幅差值圖像;然后對(duì)此差值圖像運(yùn)用動(dòng)態(tài)規(guī)劃的思想從重疊區(qū)域的第一行出發(fā),建立以該行上每一個(gè)像素為起點(diǎn)的縫合線,然后從這些縫合線中尋找一個(gè)最佳的縫合線。
本研究基于深度和彩色雙信息特征源的圖像無縫拼接流程圖如圖3所示。
圖3 深度和彩色雙信息特征源的圖像無縫拼接流程圖Fig.3 Image seamless mosaics flow chat of depth and color double source feature information
首先,基于植株的特征信息對(duì)彩色圖像利用尺度不變特征變換(scale-invariant feature transforms,SIFT)進(jìn)行關(guān)鍵點(diǎn)搜索,得到均勻且具有標(biāo)志性的關(guān)鍵點(diǎn)。然后采用相似性度量的方法對(duì) 2幅圖像得到的關(guān)鍵點(diǎn)進(jìn)行特征點(diǎn)匹配。針對(duì)匹配對(duì)中存在大量的誤匹配,利用 2幅圖像的深度距離不變性消除誤匹配,根據(jù)得到的正確匹配對(duì)采用RANSAC算法尋求2幅圖之間的最佳投影變換矩陣H。最后根據(jù)投影變換矩陣H使用最佳縫合線算法對(duì)2幅圖像進(jìn)行圖像融合,最終實(shí)現(xiàn)了圖像的精確拼接。而傳統(tǒng)基于SIFT算法的圖像拼接方法沒有利用圖像的深度距離消除誤匹配這一步驟,因此特征點(diǎn)匹配準(zhǔn)確率較低,拼接后圖像不夠理想。
為了驗(yàn)證本文方法的有效性和實(shí)用性,設(shè)計(jì)了室內(nèi)與室外2個(gè)試驗(yàn),每個(gè)試驗(yàn)重復(fù)50次,每次拍攝不同角度的3張圖像。
室內(nèi)拼接試驗(yàn)采用仿真綠色植株作為待拼接對(duì)象,室內(nèi)試驗(yàn)場(chǎng)地如圖4所示:
圖4 室內(nèi)試驗(yàn)場(chǎng)景圖Fig.4 Indoor experimental scene
在一個(gè)6 m長(zhǎng)的勻速運(yùn)動(dòng)同步帶滑臺(tái)檢測(cè)平臺(tái)上進(jìn)行試驗(yàn),Kinect傳感器固定在同步帶滑臺(tái)的運(yùn)動(dòng)滑塊上,距離地面高度1.5 m。多株綠色植株目標(biāo)與試驗(yàn)滑臺(tái)的水平距離為1.5 m。當(dāng)運(yùn)動(dòng)滑塊以0.5 m/s速度勻速前進(jìn)時(shí),攜帶 Kinect傳感器以同樣速度移動(dòng),通過 Matlab調(diào)用Kinect每隔0.6 s獲取1次植株彩色圖像和深度距離信息并保存。順序抽取3個(gè)連續(xù)時(shí)間點(diǎn)獲取的3張彩色圖像作為待拼接圖像,如圖5所示。
圖5 植株彩色原始圖像Fig.5 Original color image of plant
圖5 中角度1、角度2、角度3表示傳感器和植株的連線與滑臺(tái)滑塊運(yùn)動(dòng)方向的夾角(≤90°),角度1和角度3均為81.5°,角度2為90°。
對(duì)采集到的彩色圖像和三維數(shù)據(jù)分別用傳統(tǒng)的基于SIFT算法的圖像拼接方法和本文改進(jìn)后加入深度信息的拼接方法進(jìn)行處理,根據(jù)相似性度量的方法得到特征點(diǎn)匹配對(duì)193對(duì),將Kinect相機(jī)獲得的深度距離信息加入到彩色圖像中,基于深度信息共消除誤匹配對(duì)165對(duì),2種方法的投影變換矩陣分別為:
H1和H2是采用傳統(tǒng)基于SIFT方法得到的角度1到角度2,角度2到角度3的投影變換矩陣;
圖6是分別使用2種方法的試驗(yàn)效果對(duì)比圖。
圖6a是采用傳統(tǒng)的基于SIFT算法得到的拼接效果,通過 Matlab的計(jì)時(shí)函數(shù) tic和 toc即可統(tǒng)計(jì)出拼接耗時(shí)13.04 s,匹配準(zhǔn)確率為88.1%(見表1),圖中方框標(biāo)示處即為與本文方法拼接效果圖的區(qū)別所在,從標(biāo)示處可以看出采用傳統(tǒng)基于SIFT算法的圖像拼接方法植株葉片有明顯的重影。圖6b是根據(jù)深度距離不變性去除誤匹配后拼接得到的效果圖,耗時(shí)9.70 s,匹配準(zhǔn)確率為92.9%,比傳統(tǒng)方法準(zhǔn)確率提高了4.8%,圖像過渡平滑,重影得到明顯的改善。因此,本文提出的基于深度和彩色雙信息特征源的 Kinect圖像無縫拼接方法耗時(shí)較短,拼接效果好,在進(jìn)行室內(nèi)圖像拼接時(shí)具有明顯的優(yōu)勢(shì)。
圖6 室內(nèi)試驗(yàn)圖像拼接對(duì)比Fig.6 Image mosaic comparison of indoor test
室外拼接試驗(yàn)在江蘇大學(xué)植株培育基地進(jìn)行,采用綠色植株,試驗(yàn)時(shí)間為下午 4點(diǎn),有微風(fēng),室外試驗(yàn)用電瓶以及電壓轉(zhuǎn)換器對(duì)Kinect傳感器進(jìn)行供電,室外試驗(yàn)場(chǎng)地和原始圖像如圖7所示。
圖7 室外試驗(yàn)和采集的原始圖像Fig.7 Outdoor experiment and original images collected
通過Matlab將Kinect相機(jī)獲取的彩色圖像和深度距離信息保存,獲取的深度信息以.txt形式保存。
對(duì)采集到的彩色圖像和三維數(shù)據(jù)分別用傳統(tǒng)的基于SIFT算法的圖像拼接方法和本文改進(jìn)后加入深度信息的拼接方法進(jìn)行處理,由于室外試驗(yàn)背景較為復(fù)雜,存在很多干擾,所以相似性度量的方法得到特征點(diǎn)匹配對(duì)較多,共2 289對(duì),將Kinect相機(jī)獲得的深度距離信息加入到彩色圖像中,基于深度信息共消除誤匹配對(duì)1 098對(duì),2種方法的投影變換矩陣分別為:
H1和H2是采用傳統(tǒng)基于SIFT方法得到的角度1到角度2,角度2到角度3的投影變換矩陣;
圖8是分別采用2種方法的試驗(yàn)效果對(duì)比圖。
圖8 傳統(tǒng)SIFT算法與本文方法圖像拼接效果對(duì)比Fig.8 Image mosaic effect comparison of traditional method based on SIFT algorithm and method in paper
圖8 a是采用傳統(tǒng)基于SIFT算法的圖像拼接效果圖,耗時(shí)77.67 s,匹配準(zhǔn)確率為92.1%(見表1),圖中圓圈標(biāo)注處即為與本文方法拼接效果圖的區(qū)別所在,從標(biāo)示處可以看出采用傳統(tǒng)基于SIFT算法的圖像拼接方法重影較為明顯。圖8b是根據(jù)深度距離不變性去除誤匹配后拼接得到的效果圖,耗時(shí)71.15 s,匹配準(zhǔn)確率為99.1%,比傳統(tǒng)方法準(zhǔn)確率提高了7.0%,圖像過渡平滑,沒有重影等情況。
傳統(tǒng)基于SIFT的拼接方法和本文拼接方法對(duì)比分析如表1所示,室內(nèi)外試驗(yàn)中本文方法拼接時(shí)間相對(duì)較短,實(shí)用性更強(qiáng)。室內(nèi)外試驗(yàn)中本文算法圖像拼接匹配準(zhǔn)確率平均提高了5.9%,說明本文方法得到的投影變換矩陣H更為準(zhǔn)確,即所取的特征點(diǎn)匹配對(duì)準(zhǔn)確率較高,所以本文的方法圖像拼接沒有重影、亮暗差異、缺失等拼接錯(cuò)誤。
表1 傳統(tǒng)SIFT算法和本文拼接方法對(duì)比Table 1 Comparison of traditional method based on SIFT algorithm and method in paper
本文針對(duì)Kinect傳感器采集農(nóng)業(yè)種植圖像,提出一種基于Kinect多信息特征的圖像拼接方法。根據(jù)Kinect拍攝到的植株彩色圖像和讀取到的三維數(shù)據(jù),采用SIFT算法提取植株特征點(diǎn),進(jìn)行特征點(diǎn)匹配后根據(jù)深度距離信息,保證了匹配對(duì)的準(zhǔn)確性,再引入RANSAC算法得到投影變換矩陣 H,最后采用最小縫合線算法進(jìn)行圖像融合。試驗(yàn)結(jié)果表明:
1)基于Kinect采集到的彩色圖像和三維數(shù)據(jù)對(duì)植株進(jìn)行圖像拼接,在進(jìn)行提取植株特征點(diǎn)后得到的特征點(diǎn)匹配對(duì)的準(zhǔn)確率比傳統(tǒng)算法高,室內(nèi)試驗(yàn)中,傳統(tǒng)方法圖像匹配準(zhǔn)確率為 88.1%,本文方法圖像匹配準(zhǔn)確率為92.9%;室外試驗(yàn)中,傳統(tǒng)方法圖像匹配準(zhǔn)確率為92.1%,本文方法圖像匹配準(zhǔn)確率為99.1%。因此本文方法得到的投影變換矩陣H更為準(zhǔn)確,圖像拼接準(zhǔn)確率更高。
2)室外場(chǎng)地試驗(yàn)中,存在一些不可控因素如光照差異,風(fēng)吹引起的待拼接圖像發(fā)生差異,但本文采用的方法可以將 2張圖片很好的融合,說明此方法有很好的實(shí)際應(yīng)用性,而傳統(tǒng)的方法有明顯的拼接縫。
3)基于Kinect采集到的彩色圖像和三維數(shù)據(jù)對(duì)植株進(jìn)行圖像拼接耗時(shí)較短,室內(nèi)試驗(yàn)中,傳統(tǒng)方法進(jìn)行拼接耗時(shí)13.04 s,本文方法耗時(shí)9.70 s;室外試驗(yàn)中,傳統(tǒng)方法進(jìn)行拼接耗時(shí)77.67 s,本文方法耗時(shí)71.15 s。因此本文方法實(shí)用性更強(qiáng)。
通過檢測(cè)試驗(yàn)和室內(nèi)外場(chǎng)地試驗(yàn)的驗(yàn)證,本文基于Kinect多信息特征的圖像拼接方法耗時(shí)較短,對(duì)植株圖像拼接效果較好,特征點(diǎn)匹配準(zhǔn)確率較傳統(tǒng)SIFT圖像拼接算法提高了5.9%,能夠應(yīng)用于室內(nèi)外植株圖像的拼接。該方法也可進(jìn)一步推廣應(yīng)用于其他場(chǎng)合的圖像拼接中,實(shí)現(xiàn)基于Kinect傳感器的農(nóng)業(yè)植株生長(zhǎng)狀態(tài)的監(jiān)測(cè)、藥物肥料的精確噴灑以及病蟲害的及時(shí)防治等過程中植株信息的采集和處理。
[1] Guo S, Sun S, Guo J. The application of image mosaic in information collecting for an amphibious spherical robot system[C]. IEEE International Conference on Mechatronics and Automation. IEEE, 2016: 1547-1552.
[2] Li Z, Isler V. Large scale image mosaic construction for agricultural applications[J]. IEEE Robotics & Automation Letters, 2016, 1(1): 295-302.
[3] Huo C, Men G, Zhao L H. Research on the auxiliary panoramic parking technology based on fast image mosaic[C].International Conference on Informative and Cybernetics for Computational Social Systems. IEEE, 2016: 216-219.
[4] Burdea G, Coiffet P. Virtual Reality Technology[M]. 北京:電子工業(yè)出版社, 2003.
[5] Zhang J, Tao B, Liu H, et al. A mosaic method based on feature matching for side scan sonar images[C]. Ocean Acoustics. IEEE, 2016:1-6.
[6] 張寶龍,李洪蕊,李丹,等. 一種針對(duì)車載全景系統(tǒng)的圖像拼接算法的仿真[J]. 電子與信息學(xué)報(bào),2015,37(5):1149-1153.Zhang Baolong, Li Hongrui, Li Dan, et al. A simulation of image mosaic algorithm based on vehicle panorama system[J].Journal of Electronics and Information Technology, 2015,37(5): 1149-1153. (in Chinese with English abstract)
[7] Guo S, Sun S, Guo J. The application of image mosaic in information collecting for an amphibious spherical robot system[C]. IEEE International Conference on Mechatronics and Automation. IEEE, 2016: 1547-1552.
[8] Liu S. The research and improvement of image mosaicing algorithm and its application in frescoes[C]. International Conference on Intelligent Computation Technology and Automation. IEEE, 2015: 817-820.
[9] 馬曉丹,孟慶寬,張麗嬌,等. 圖像拼接重建蘋果樹冠層器官三維形態(tài)[J]. 農(nóng)業(yè)工程學(xué)報(bào),2014,30(12):154-162.Ma Xiaodan, Meng Qingkuan, Zhang Lijiao, et al. Image mosaics reconstruction of canopy organ morphology of apple trees[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2014, 30(12): 154-162. (in Chinese with English abstract)
[10] 周志艷,閆夢(mèng)璐,陳盛德,等. Harris角點(diǎn)自適應(yīng)檢測(cè)的水稻低空遙感圖像配準(zhǔn)與拼接算法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2015,31(14):186-193.Zhou Zhiyan, Yan Menglu, Chen Shengde, et al. Image registration and stitching algorithm of rice low-altitude remote sensing based on harris corner self-adaptive detection[J].Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE), 2015, 31(14): 186-193. (in Chinese with English abstract)
[11] 姚立健,周高峰,倪忠進(jìn),等. 基于尺度不變特征轉(zhuǎn)換算子的水果表面圖像拼接方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2015,31(9):161-166.Yao Lijian, Zhou Gaofeng, Ni Zhongjin, et al. Matching method for fruit surface image based on scale invariant feature transform algorithm[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE),2015, 31(9): 161-166. (in Chinese with English abstract)
[12] 何東健,邵小寧,王丹,等. Kinect獲取植物三維點(diǎn)云數(shù)據(jù)的去噪方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2016,47(1):331-336.He Dongjian, Shao Xiaoning, Wang Dan, et al. Denoising method of 3D point cloud data of plants obtained by kinect[J].Transactions of The Chinese Society of Agricultural Machinery,2016, 47(1): 331-336. (in Chinese with English abstract)
[13] 袁曉菲. 一種基于kinect深度傳感器的點(diǎn)云拼接算法研究[D]. 沈陽:遼寧大學(xué),2016.Yuan Xiaofei. An Research on Point Cloud Registration Algorithm Based on Kinect Device[D]. Shenyang: Liaoning University, 2016. (in Chinese with English abstract)
[14] Khoshelham K, Elberink S O. Accuracy and resolution of Kinect depth data for indoor mapping application[J]. Sensors,2012, 12(2): 1437-1454.
[15] Bonny M Z, Uddin M S. Feature-based image stitching algorithms[C]. International Workshop on Computational Intelligence. IEEE, 2017: 198-203.
[16] Wang T, Lu G, Xia Y. An efficient preprocessing method for feature based image stitching[C]. International Conference on Wireless Communications & Signal Processing. IEEE, 2016:1-5.
[17] Zhen Y, Sun Z, Li J, et al. An airborne remote sensing image mosaic algorithm based on feature points[C]. Sixth International Conference on Instrumentation & Measurement, Computer,Communication and Control. IEEE, 2016: 202-205.
[18] 陳月,趙巖,王世剛. 圖像局部特征自適應(yīng)的快速 SIFT圖像拼接方法[J]. 中國光學(xué),2016,9(4):415-421.Chen Yue, Zhao Yan, Wang Shigang. Fast image stitching method based on SIFT with adaptive local image feature[J]. Chinese Optics, 2016, 9(4): 415-422. (in Chinese with English abstract)
[19] 陳彥彤. 基于局部不變特征的遙感圖像星上目標(biāo)識(shí)別技術(shù)研究[D]. 長(zhǎng)春:中國科學(xué)院長(zhǎng)春光學(xué)精密機(jī)械與物理研究所,2017.Chen Yantong. Research on Satellite Image On-board Target Recognition Based on Local Invariant Feature[D]. Changchun:Changchun Institute of Optics, Fine Mechanics and Physics,Chinese Academy of Sciences, 2017. (in Chinese with English abstract)
[20] Barba Ana Victoria, Rosales Silva A Jorge, Perez Hernandez L Manuel. SIFT-SURF commutation using fuzzy logic to image mosaicking[C]. Electrical Engineering, Computing Science and Automatic Control, 2017, 28(3): 1-8.
[21] 趙巖,陳月,王世剛. 結(jié)合投影誤差校正的快速 SIFT圖像拼接[J]. 光學(xué)精密工程,2017,25(6):1645-1651.Zhao Yan, Chen Yue, Wang Shigang. Corrected fast SIFT image stitching method by combining projection error[J].Optics and Precision Engineering, 2017, 25(6): 1645-1651.(in Chinese with English abstract)
[22] 文偉東,張明. 基于SIFT算法的全景圖像拼接技術(shù)研究[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2017,26(7):227-231.Wen Weidong, Zhang Ming. Research on panoramic image mosaic technology based on SIFT algorithm[J]. Computer Systems & Applications, 2017, 26(7): 227-231. (in Chinese with English abstract)
[23] Tong G, Liu H. Deep sea image mosaic based on SIFT algorithm[C]. International Conference on Information Science and Control Engineering. 2017: 254-257.
[24] 楊安園,朱悅云. 多尺度 SIFT特征匹配的足跡圖像拼接方法[J]. 時(shí)代農(nóng)機(jī),2017(1):52-53.Yang Anyuan, Zhu Yueyun. Method of footprint image stitching based on multiple dimensioned SIFT feature matching[J]. Times Agricultural Machinery, 2017(1): 52-53.(in Chinese with English abstract)
[25] 賈銀江,徐哲男,蘇中濱,等. 基于優(yōu)化 SIFT算法的無人機(jī)遙感作物影像拼接[J]. 農(nóng)業(yè)工程學(xué)報(bào),2017,33(10):123-129.Jia Yinjiang, Xu Zhenan, Su Zhongbin, et al. Mosaic of crop remote sensing images from UAV based on improved SIFT algorithm[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2017,33(10): 123-129. (in Chinese with English abstract)
[26] 張勇,王志鋒,馬文. 基于改進(jìn)SIFT特征點(diǎn)匹配的圖像拼接算法研究[J]. 微電子學(xué)與計(jì)算機(jī),2016,33(3):60-64.Zhang Yong, Wang Zhifeng, Ma Wen. Research image mosaic algorithm based on improved SIFT feature matching[J].Microelectronics & Computer, 2016, 33(3): 60-64. (in Chinese with English abstract)
[27] 馬強(qiáng),項(xiàng)昭保,黃良學(xué),等. 基于改進(jìn)SIFT和RANSAC圖像拼接算法研究[J]. 計(jì)算機(jī)技術(shù)與發(fā)展,2016,26(4):61-65.Ma Qiang, Xiang Zhaobao, Huang Liangxue, et al. Research on panorama image mosaic algorithm based on improved SIFT and ransac[J]. Computer Technology And Development,2016, 26(4): 61-65. (in Chinese with English abstract)
[28] Zhen Y, Sun Z, Li J, et al. An airborne remote sensing image mosaic algorithm based on feature points[C]. Sixth International Conference on Instrumentation & Measurement, Computer,Communication and Control. IEEE, 2016: 202-205.
[29] 朱镕杰,朱穎匯,王 玲,等. 基于尺度不變特征轉(zhuǎn)換算法的棉花雙目視覺定位技術(shù)[J]. 農(nóng)業(yè)工程學(xué)報(bào),2016,32(6):182-188.Zhu Rongjie, Zhu Yinghui, Wang Ling, et al. Cotton positioning technique based on binocular vision with implementation of scale-invariant feature transform algorithm[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2016, 32(6): 182-188. (in Chinese with English abstract)
[30] Hossein-Nejad Z, Nasri M. Image registration based on SIFT features and adaptive ransac transform[C]. International Conference on Communication and Signal Processing. IEEE,2016.
[31] Shuang D, Cai H, Yang Y, et al. Analysis of image stitching error based on scale invariant feature transform and random sample consensus[C]. International Conference on Fuzzy Systems and Knowledge Discovery. IEEE, 2016: 1883-1887.
[32] Redzuwan R, Radzi N A M, Din N M, et al. Affine versus projective transformation for SIFT and RANSAC image matching methods.[J]. Operations Research Letters, 2011,39(6): 406-410.
[33] 夏克付,李鵬飛,陳小平. 基于改進(jìn) RANSAC算法的單應(yīng)矩陣魯棒估計(jì)方法[J]. 計(jì)算機(jī)工程與應(yīng)用,2017,53(23):147-152.Xia Kefu, Li Pengfei, Chen Xiaoping. Robust method for homography matrix estimation based on improved ransac algorithm. Computer Engineering and Applications[J]. Computer Engineering and Applications, 2017, 53(23): 147-152. (in Chinese with English abstract)
[34] Li Aiguo, Zhou Shuai, Wang Rui. An improved method for eliminating ghosting in image stitching[C]. Intelligent Human-Machine Systems and Cybernetic, 2017: 415-418
[35] 方賢勇,潘志庚,徐丹. 圖像拼接的改進(jìn)算法[J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2003,15(11):1362-1365.Fang Xianyong, Pan Zhigeng, Xu Dan. An improved algorithm for image mosaics[J]. Journal of Computer-aided Design&Computer Graphics, 2003, 15(11): 1362-1365. (in Chinese with English abstract)
[36] 谷雨,周陽,任剛,等. 結(jié)合最佳縫合線和多分辨率融合的圖像拼接[J]. 中國圖象圖形學(xué)報(bào),2017,22(6):842-851.Gu Yu, Zhou Yang, Ren Gang, et al. Image stitching by combining optimal seam and multi-resolution fusion[J].Journal of Image and Graphics, 2017, 22(6): 842-851. (in Chinese with English abstract)