国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

移動機器人視覺目標檢測與跟蹤方法研究綜述

2022-04-07 12:46劉文匯唐寒冰
電光與控制 2022年4期
關鍵詞:移動機器人特征圖像

劉文匯, 巢 淵, 唐寒冰, 徐 鵬

(江蘇理工學院,江蘇 常州 213000)

0 引言

當前移動機器人市場發(fā)展迅速,隨著移動機器人被應用于各個領域,給社會帶來極大便利的同時也不斷被擴充更高級的任務功能。能夠實時、準確地檢測與跟蹤感興趣的目標,是移動機器人實現(xiàn)智能化的一個重要性能。到目前為止,移動機器人的跟蹤技術主要有雷達跟蹤、視覺跟蹤和多傳感器融合跟蹤3種。其中,雷達跟蹤技術應用最為廣泛,但雷達跟蹤難以判定被測物體類別和幾何形狀,難以在復雜場景中實現(xiàn)穩(wěn)定跟蹤,且雷達元件成本較高;多傳感器融合跟蹤可獲取特征豐富,是一種較為穩(wěn)定的跟蹤方法,但坐標配準難度較高,成本也較高;視覺跟蹤相較于其他技術,擁有對跟蹤物體類別更好的識別率,且視覺傳感器價格較低,但該技術涉及較大的計算量,限制了其在移動機器人領域的應用。近年來,隨著計算機技術的飛速發(fā)展,基于機器視覺的移動機器人實時目標檢測與跟蹤技術成為研究的熱點[1-2]。目標檢測將目標的分割和識別任務合二為一,又被稱為目標提取。精確的目標檢測決定了后續(xù)跟蹤系統(tǒng)的精度和效率[3]。目標跟蹤是根據(jù)目標的初始狀態(tài),通過跟蹤算法對該目標的空間軌跡進行預測的過程。近年來,目標跟蹤算法取得了一些實質(zhì)性的進展。目前,基于視覺的目標檢測與跟蹤方法的研究對移動機器人、智能監(jiān)控、無人駕駛和現(xiàn)代化軍事等領域的發(fā)展起到了至關重要的作用[4],其主要應用如下:服務機器人,如完成重復檢驗、衛(wèi)生清掃、核電廠作業(yè)、油漆噴涂等;智能監(jiān)控,如車輛檢測、車輛計數(shù)、行人識別、犯罪預防、老幼看護等;無人駕駛,如車道線檢測、自主導航、車輛測速、障礙物檢測與避讓等;現(xiàn)代化軍事,如地形識別、傷員搜救、目標精確打擊、飛機跟蹤、排雷排爆等。

1 移動機器人目標檢測與跟蹤任務及難點

早期研究中的機器人視覺目標跟蹤,通常通過目標檢測算法定位并標記目標,以此控制機器人運動并將目標保持在機器人視野中,即感興趣范圍內(nèi)。此類方法忽略了目標本體的移動及變化,因此魯棒性較差。在檢測到目標后加入跟蹤算法,估計其位置,進而控制機器人進行運動跟蹤,則可一定程度上改善上述問題。近年來,視覺目標檢測與跟蹤算法成為移動機器人相關技術中的研究熱點,并取得了一些進展,但在實際應用場景中實現(xiàn)移動機器人快速魯棒跟蹤,仍是一個具有挑戰(zhàn)性的問題。其難點主要在于光照變化、運動模糊、外觀變形、異物遮擋和實時性等。具體描述如下。

1) 光照變化。移動機器人與其他跟蹤任務相比光源更不穩(wěn)定,拍攝位置變化易造成光源強度的變化,而光源強度則直接影響當前幀的曝光程度。如圖1(a)所示[5],曝光程度太高或太低都容易造成初始特征的丟失。

2) 運動模糊。如圖1(b)所示[6],攝像頭運動過程中的抖動或快速的移動都有可能導致運動模糊,丟失目標區(qū)域部分特征信息,這種現(xiàn)象在移動機器人跟蹤過程中較常見。

3) 外觀變形。如圖1(c)所示[7],移動機器人跟隨目標運動的過程中所跟蹤的目標難免會有相對位置的變化,導致某些幀的目標特征與初始幀的提取的特征有較大的角度、形狀甚至尺度上的差異,易造成丟失跟蹤目標。

4) 異物遮擋。移動機器人跟蹤的過程中,視野可能會被遮擋。目標被完全遮擋的情況目前尚無有效的方法可解決,而部分遮擋,如圖1(d)所示[8],遮擋物會造成跟蹤目標外觀局部的缺失,導致目標不完整、不易分辨,易造成跟蹤漂移。

圖 1 移動機器人目標檢測與跟蹤任務的難點Fig.1 Difficulties in target detection andtracking of mobile robot

5) 除了以上難點外,移動機器人搭載的目標檢測與跟蹤算法的實時性也是移動機器人實時準確執(zhí)行跟蹤任務的最重要因素。如文獻[9]改進光流法設計了一套遠距離運動車輛快速跟蹤與定位系統(tǒng),但在應對車速過快的情況時會產(chǎn)生跟蹤不穩(wěn)定的情況,算法的效率還存在改進空間。文獻[10]基于深度學習框架和短周期核相關濾波(Kernelized Correlation Filters,KCF)目標跟蹤算法實現(xiàn)無人機障礙物感知,檢測與跟蹤算法的實時性直接決定了無人機最終的飛行性能。

2 基于視覺的移動目標檢測與跟蹤方法框架

基于視覺的移動目標跟蹤方法主體框架如圖2所示。

圖 2 目標跟蹤方法主體框架Fig.2 Main frame of target tracking method

移動機器人的跟蹤任務中,目標檢測是進行目標跟蹤的前提,也是部分目標跟蹤中更新觀測模型的依據(jù),因此,目標檢測算法的速度將直接影響到整個框架的效率?;谝曈X的移動目標檢測與跟蹤方法的主要流程為:輸入第一幀圖像并通過目標檢測算法給出初始目標框;在下一幀圖像中生成候選框,通過運動模型確定候選區(qū)域;通過特征提取算法提取這些候選框的特征,并進行外觀建模;根據(jù)觀測模型計算候選框的置信分數(shù),再判斷候選區(qū)域是否為目標區(qū)域或對多個預測值進行融合得到最優(yōu)的預測目標;通過模型更新確定外觀模型和觀測模型的更新策略。移動機器人通過以上步驟提供的目標運動信息調(diào)整機器人姿態(tài),將目標穩(wěn)定在攝像頭視場中心區(qū)域。

目前主流的運動模型生成候選框的方法有概率采樣[11]、滑窗[12-13]、循環(huán)移位[14-15]3類;模型更新的方式主要有模板更新[16-17]和自適應更新[18-19]2種;特征提取的方式通常分為人工標定目標和目標檢測算法檢測目標2種;觀測模型可分為生成式模型和判別式模型?;谏墒侥P偷母櫡椒ㄊ峭ㄟ^一定的跟蹤策略估計運動目標的位置[20-21],而基于判別式模型的跟蹤方法則是通過不斷進行目標檢測來得到運動目標位置[22-25]。

由上述框架可知,目標檢測算法是實現(xiàn)移動機器人目標跟蹤任務的一個重要組成部分,主要用于初始化特征和跟蹤過程中的模型判別,而跟蹤算法則是在目標檢測算法的基礎上,對目標的狀態(tài)進行連續(xù)估計的過程。因此,移動機器人跟蹤任務依賴于目標檢測算法的特征與跟蹤算法的模型。下文將基于機器視覺技術,從目標檢測算法和跟蹤算法兩方面,進行移動機器人目標檢測與跟蹤方法的比較、分析與總結。

3 目標檢測算法

目標檢測算法分為傳統(tǒng)目標檢測算法、基于候選區(qū)域的目標檢測算法、基于回歸的目標檢測算法和基于增強學習的目標檢測算法。本文將結合特征表達的類型和檢測步驟對4大類目標檢測算法的優(yōu)、缺點進行介紹和分析。

3.1 傳統(tǒng)目標檢測算法

傳統(tǒng)目標檢測算法有3個核心步驟:首先,采用滑動窗口方式或圖像分割技術來生成大量的候選框;然后,對每一個候選框基于人為設計的特征提取圖像特征;最后,將這些特征傳遞給一個分類器用來判斷該候選區(qū)域的類別。圖3為傳統(tǒng)目標檢測算法流程示意圖。

傳統(tǒng)目標檢測算法主流的分類器有SVM(Support Vector Machines)[26]以及Adaboost和Random Forest[27]等集成分類器。對于不同的檢測對象,需要選擇對應的圖像特征,常用的圖像特征有顏色特征、形狀特征、梯度特征和模式特征4種。

圖 3 傳統(tǒng)目標檢測算法流程圖Fig.3 Flow chart of traditional target detection algorithms

其中,顏色特征主要包括RGB(Red,Green,Blue),HSV(Hue Saturation Value)和Color Names 3種。RGB是最早的顏色模型,其優(yōu)點是能夠較為直觀地表達顏色[28-29];HSV的優(yōu)點是不易受明度變化的影響[30-31];Color Names將RGB顏色細化為11種基本顏色,從而進一步提升其表達能力[32]。顏色特征統(tǒng)計了顏色信息,因此與其他視覺特征相比,其對光照和陰影的變化更敏感。但由于其忽略了目標的結構特性,因此顏色特征在形變和部分遮擋的情況下更加穩(wěn)定。所以在應用中常將顏色特征與其他特征結合使用,如Color空間不變特征(Color-SIFT)[33]、HSV空間不變特征(HSV-SIFT)[34]、色調(diào)直方圖不變特征(Hue-SIFT)[35]等算法,在利用顏色特征描述目標的同時,通過融合梯度特征適當?shù)匾种破涔庹詹环€(wěn)定性。文獻[36]以相關濾波的跟蹤算法為基礎,融合HOG和Color Names特征用于訓練一個一維尺度濾波器,該算法可適應一定的尺度變化,提高了跟蹤器的魯棒性。

常見的形狀特征有Harris和FAST。Harris算法對圖像旋轉、光線變化、噪聲和視點變換不敏感,但計算復雜度較高,所以實時性較差[37]。FAST算法速度相對于Harris更快,但更易受噪聲影響[38]。由于這兩種算法對尺度變化較敏感,所以多應用于相機位置固定的場合。如文獻[39-40],將Harris與模式特征相結合對目標的角點進行檢測與定位,以平衡機器人伺服定位抓取中對定位精度和實時性的要求。

梯度特征是一種局部特征,其核心步驟是通過組合局部區(qū)域的梯度方向直方圖以描述目標特征。SIFT(Scale Invariant Feature Transform),HOG(Histogram of Oriented Gradient)和DPM(Deformable Part Model)是目前最具代表性的梯度特征。SIFT通過特征點附近的梯度信息對圖像中的目標進行描述[41];HOG通過梯度的強度與方向對圖像中的目標進行描述[42];DPM算法是基于HOG特征的改進算法,其最大改進為訓練不止一個濾波器對目標的不同部分進行描述,該算法的優(yōu)點是能更好地適應動態(tài)物體的變形,進一步提高檢測精度[43]。梯度特征具有圖像縮放、旋轉、光照和仿射不變性等優(yōu)良性質(zhì),目前已成為眾多車輛識別、行人識別算法中的重要組成部分。如文獻[44]算法通過目標候選區(qū)域提取HOG特征得到相應深度圖像的局部邊緣特征,并訓練SVM分類器進行分類,最終實現(xiàn)行人檢測。但梯度特征的描述子的維度較大,導致其計算成本也較大。梯度特征的改進算法有PCA(SIFT)和Co HOG(Co-occurrence Histogram of Oriented Gradients)等。PCA-SIFT對梯度特征描述子通過主成分分析法進行降維,以此來減少描述子的維度帶來的大量數(shù)據(jù),提升了算法的速度[45],Co HOG在HOG的基礎上引入了共生矩陣,更加細化地表達了圖像的形狀信息,進一步提升了算法的精度[46]。

模式特征主要有紋理、粗糙度等特征,代表性的算法包括Gabor變換、LBP(Local Binary Pattern)和Haar等。Gabor變換的核心思想是對圖像通過Gabor濾波器進行卷積以得到特征,其模擬了視覺感受野機制,能有效檢測對象局部的紋理變化特征[47]。LBP利用像素點與其周圍像素的信息進行對比得到一種局部描述,因其較低的計算復雜度和旋轉不變性被廣泛使用[48]。Haar描述了線性、邊緣、中心點以及對角線等特征,其計算方式為將相鄰矩形區(qū)域的像素和相減,該差值體現(xiàn)了圖像的灰度變化情況[49]。模式特征用于描述與圖像或圖像區(qū)域對應的表面屬性,所以對于光照變化更魯棒,但由于其只考慮到對象表面的特性,因此對遮擋敏感,常應用于人臉檢測。代表性的VJ(Viola Jone)人臉檢測算法就是基于模式特征,其關鍵步驟為:首先基于Haar特征提取邊緣特征、線性特征、圓心環(huán)繞特征和特定方向特征,再使用Adaboost算法訓練分類器,最后采用滑動窗口進行檢測[50]。

綜上所述,傳統(tǒng)特征表達總結如表1所示。

表1 傳統(tǒng)特征表達總結Table 1 Summary of traditional feature representation

傳統(tǒng)目標檢測算法都不可避免地采用不同尺寸的滑窗遍歷整幅圖像,此類窮舉策略的缺點是產(chǎn)生冗余窗口較多,效率不高,易拉低算法整體的速度和性能。而傳統(tǒng)算法的準確性依賴人為設計的特征表達,單一的特征各有其優(yōu)勢與局限性,而要做到對復雜圖像特征的精確描述,則需要融合多種特征,以上特點導致傳統(tǒng)的目標檢測算法依賴經(jīng)驗,泛化能力較差且工作量大。

3.2 基于深度學習的目標檢測算法

卷積神經(jīng)網(wǎng)絡(Convolutional Neural Networks,CNN)[51-52]是最具代表性的基于深度學習的算法之一。LECUN等[53]在1989年構建的LeNet首次將卷積神經(jīng)網(wǎng)絡應用于計算機視覺領域。HINTON等于2012年提出了AlexNet[54],也對計算機視覺領域產(chǎn)生了深遠影響。近年來,國內(nèi)外學者對深度學習目標檢測算法進行了大量的研究和開發(fā),除傳統(tǒng)目標檢測算法之外,按照實現(xiàn)方式還有以下3種。

1) 基于候選區(qū)域的目標檢測算法。最具代表性的有R-CNN(Regions with Convolutional Neural Network Features),Fast R-CNN以及Faster R-CNN。R-CNN的基本流程是:首先通過算法提取候選框,然后通過深度特征對候選框中的目標進行分類,接著對候選區(qū)域進行位置回歸,最后定位目標并輸出分類結果[55]。Fast R-CNN利用自適應尺度池化優(yōu)化網(wǎng)絡結構,相較于R-CNN提高了準確率[56]。

Faster R-CNN構建區(qū)域建議網(wǎng)絡(Region Proposal Network,RPN)代替了選擇性搜索方法,減少了算法的時間開銷[57]。文獻[58]基于Faster R-CNN提出了一種實時的車輛檢測方法,并引入多尺度訓練和難負樣本挖掘策略,實驗采集實際場景中的圖像進行測試,結果精度和效率相較于傳統(tǒng)算法都取得了較大的進步。總體來說,基于候選區(qū)域的目標檢測算法進行圖像目標檢測可以做到較為準確的定位以及識別,不過由于識別過程中仍離不開反復選擇候選區(qū)域的步驟,所以效率存在瓶頸。文獻[59]對Faster R-CNN進行改進,提出了一種視覺感知方法,通過聚類算法劃分出圖像的關鍵區(qū)域,并利用優(yōu)化算法對不同區(qū)域的候選框進行優(yōu)化,將其應用于自主駕駛的對象檢測,在保證精度的同時也提升了檢測效率。

2) 基于回歸的目標檢測算法。例如YOLO(You Only Look Once)系列算法和SSD(Single Shot Multibox Detector)。其中最先被提出的是YOLO算法[60]:預測時省略了通過滑窗選擇候選區(qū)域的步驟,直接將整張圖像輸入網(wǎng)絡中,通過深度神經(jīng)網(wǎng)絡進行一次前向傳播,在使用非極大值抑制后,直接輸出識別對象。SSD則引入多尺度的金字塔結構特征層組融合不同卷積層的特征圖,對目標進行分類和定位,其特征表征能力更強,檢測精度更高[61]。原始的YOLO算法檢測精度不高,隨后誕生了YOLOv2,YOLOv3,YOLOv4,YOLOv5等一系列的改進算法,目的是進一步實現(xiàn)檢測精度與速度的平衡[62]。YOLO系列算法的優(yōu)點在于其出色的檢測效率,但正是由于省略了通過滑窗選擇候選區(qū)域的步驟,該類算法的精度低于基于候選區(qū)域的目標檢測算法,且對畫面中的小目標也更容易發(fā)生漏檢的情況。大量研究人員對其進行改進,通過數(shù)據(jù)增強、融合特征、引入殘差網(wǎng)絡、改變網(wǎng)絡參數(shù)等方式產(chǎn)生效果不錯的變體,并將其應用于多目標檢測、車輛障礙檢測、遙感圖像檢測和目標跟蹤等場景[63-66]。

3) 基于增強學習的目標檢測算法。如Q-learning,該算法可以不斷地對候選區(qū)域邊框進行調(diào)整,并增設一定的獎勵機制判斷抓取框的大小變化以及上下左右移動是否有效,再進行識別并最后輸出結果,所以這種方法的優(yōu)點是場景適應性很強而且靈活[67]。但由于要進行主動搜索和多次邊框的調(diào)整,所以計算較耗時,實時性較差,在實際應用中較少見[68]。

3.3 各類目標檢測算法特點

目標檢測算法特點見表2。

表2 目標檢測算法特點Table 2 Characteristics of target detection algorithms

如表2所示,上述目標檢測算法各有優(yōu)劣。傳統(tǒng)的目標檢測算法的優(yōu)點在于易實現(xiàn),計算復雜度也較低;基于候選區(qū)域的目標檢測算法精度高,但需要反復進行候選區(qū)域的選擇,檢測速度難免受限制;基于回歸的目標檢測算法速度雖快,但大小目標同時存在時容易忽略小目標從而影響檢測精度;基于增強學習的目標檢測算法的特別之處在于能靈活調(diào)整候選框以適應目標的變化,但是精度和速度都略遜于另外兩種算法。綜合考慮移動機器人目標檢測與跟蹤任務的難點,如何探索更優(yōu)的特征以及有效地進行特征融合,在保障速度的基礎上提高目標檢測算法的檢測精度,是值得進一步研究的內(nèi)容。

4 跟蹤算法

跟蹤算法可分為生成式和判別式兩種。生成式跟蹤算法多存在于傳統(tǒng)跟蹤算法中,其跟蹤過程中無檢測步驟;判別式跟蹤算法由于在跟蹤過程中增加了目標檢測的步驟,取得了更好的效果,也逐漸成為主流的跟蹤算法。判別式跟蹤算法又可分為基于稀疏表示的跟蹤算法、基于相關濾波的跟蹤算法和基于深度學習的跟蹤算法。本文將按照時間順序概括4階段跟蹤算法的主要思想和一些典型跟蹤算法及其改進算法。

4.1 傳統(tǒng)跟蹤算法

早期典型的目標跟蹤算法主要有光流法、Meanshift和Camshift。光流法早在1950年被提出,SHI等于1994年首次將光流法應用于目標跟蹤[69],核心思想為:將當前幀和下一幀的灰度進行比較,以匹配當前幀特征點在下一幀的位置。該算法基于兩個基本假設:1) 假設同一物體亮度恒定不變;2) 假設目標只有小距離運動。其優(yōu)點在于無需了解場景信息就能準確地檢測識別運動目標位置;缺點是在實際應用中較難滿足其假設的兩大條件。Meanshift算法[70]的主要步驟是:首先通過目標檢測算法從初始幀中分離目標物體,提取其輪廓,然后收集初始幀中目標物體的信息,反向投影該信息得到反向投影圖,再搜索出與目標模板最相似的區(qū)域并定位,該算法實現(xiàn)了運動目標的跟蹤定位。但對快速運動的目標,還難以實現(xiàn)準確跟蹤或會出現(xiàn)目標丟失。Camshift算法[71]則將Meanshift算法從圖像擴展到連續(xù)圖像序列,且將特征描述方式從RGB模型變成HSV模型,能一定程度上解決目標變形和遮擋的問題。文獻[72]將Meanshift算法與Kalman濾波器相結合,利用位置和速度信息預測跟蹤路徑,有效減少了Meanshift算法出現(xiàn)的目標丟失現(xiàn)象。由于此類跟蹤算法對系統(tǒng)資源要求不高,且時間復雜度低,所以在移動機器人目標跟蹤領域的應用仍較活躍[73-77]。

4.2 基于稀疏表示的跟蹤算法

基于稀疏表示的跟蹤算法開創(chuàng)性地通過一組過完備字典實現(xiàn)了圖像信號的線性表示,再對得到的線性系數(shù)進行稀疏性約束,使其系數(shù)向量的分量多數(shù)為0,其核心思想是將跟蹤問題轉變成稀疏逼近問題。2009年,CHANG等提出L1Tracker[78],通過目標模板和小模板稀疏表示候選區(qū)域,并實時更新目標模板,通過L1正則化的最小二乘法解決稀疏逼近問題,最終與目標模板誤差最小的候選區(qū)域被認定為跟蹤結果。由于L1Tracker算法中小模板的使用,該算法在目標被部分遮擋的情況下也能取得較高的精度,而背景的雜斑問題也通過對稀疏系數(shù)的非負約束得到了一定程度的解決。L1Tracker算法魯棒性好,但L1正則化復雜度高,導致其實時性較差。后人的研究也致力于在保證L1Tracker精度的基礎上,提升其運行效率。如文獻[79]運用最小誤差有界重采樣使L1Tracker運行速度加快了4~5倍;文獻[80]引入了Haar-like特征及特征塊的思想,將正負小模板由單個像素改為像素塊,減少了稀疏矩陣的計算量。

4.3 基于相關濾波的跟蹤算法

在信號處理領域,常用相關濾波計算兩個信號之間的相似度。2010年,BOLME等[81]嘗試將相關濾波方法引入到跟蹤算法中,使計算從時域轉換到頻域,減少了運算量,并提出了MOSSE(Minimum Output Sum of Squared Error)算法。其基本思想是:設置一個濾波模板,通過卷積計算后續(xù)圖像與濾波模板的相似程度,預測目標即是相似度最大的區(qū)域。但由于該算法僅采用灰度特征,其跟蹤準確率并不高。繼MOSSE之后,涌現(xiàn)出了大量的基于相關濾波的方法。如KCF(Kernelized Correlation Filters)算法[82],通過循環(huán)矩陣增加負樣本數(shù)量,優(yōu)化了分類器;通過將高斯核加入嶺回歸中,簡化了算法,最終得到了更高的精度和效率。在KCF的基礎上又發(fā)展出了一系列的算法。如:C-COT(Continuous Convolution Operators Tracker)[83],采用VGG-net和立方插值優(yōu)化了特征表達;采用Hessian矩陣將目標定位精度提升到亞像素級別。ECO(Efficient Convolution Operators)算法[84]以C-COT為基礎,利用空間正則化方法或者掩膜矩陣方法處理邊界效應,由于采用更大的目標搜索范圍,提升了速度,對包含快速移動目標的場景的應對能力更強。

4.4 基于深度學習的跟蹤算法

由于在線的目標跟蹤缺少可供神經(jīng)網(wǎng)絡學習的大量數(shù)據(jù),所以基于深度學習的跟蹤算法在早些年的發(fā)展較緩慢。得益于遷移學習的研究和發(fā)展,近年來,專家學者嘗試把大型數(shù)據(jù)集上預訓練的卷積神經(jīng)網(wǎng)絡應用于目標跟蹤任務。WANG等[85]在2013年提出了DLT(Deep Learning Tracker),DLT是首個應用深度網(wǎng)絡模型的目標跟蹤算法,其采用遷移學習的思想,跟蹤時通過有限的樣本對預訓練模型進行微調(diào),結合粒子濾波和基于深度學習的分類器完成跟蹤,深度特征對目標運動過程中發(fā)生的形變和部分遮擋不敏感,但在多目標且部分重疊的情況下效果不佳;文獻[86]對DLT進行了改進,在目標跟蹤期間,從跟蹤結果和上下文信息中收集在線訓練樣本,訓練樣本中包含不同的模糊內(nèi)核,并在粒子濾波框架中估計對象的運動參數(shù),該算法在模糊的圖像中也能魯棒地跟蹤目標,提升了算法的跟蹤效果;文獻[87]提出TOD(Tracking Object based on Detector of YOLOv3)算法,該算法先用YOLOv3提取目標特征得到候選框,再結合LBP特征和顏色直方圖搜索目標鄰域實現(xiàn)跟蹤,該算法利用了深度特征的優(yōu)勢,取得了較好的性能。

深度學習目標跟蹤算法發(fā)展至今,已不滿足于僅采用深度特征進行分類,而是將深度網(wǎng)絡加入到跟蹤過程中模擬相關濾波過程。此類深度學習目標跟蹤算法一般采用孿生網(wǎng)絡結構,代表算法包括:1) SiamFC(Fully-Convolutional Siamese Networks)[88],2016年SiamFC首次將孿生網(wǎng)絡結構運用于目標跟蹤領域,利用孿生網(wǎng)絡學習一個函數(shù),該函數(shù)用來計算第一幀目標和后面所有幀采樣的匹配度,將匹配度最高的位置視為目標位置,從而將視覺跟蹤問題轉化為一個相似性判定的問題。且由于缺少網(wǎng)絡更新策略,在顯卡加速的條件下可以實現(xiàn)很快的跟蹤速度,但缺點是丟失目標后很難找回。2) SiamRPN(Region Proposal Network Siamese Networks)[89],SiamRPN在SiamFC算法的跟蹤框架的基礎上引入了Faster RCNN中的RPN(Region Proposal Network)和bounding box regression模塊,利用RPN實現(xiàn)前景和背景快速判別,而bounding box regression模塊使跟蹤框更加靈活準確。

4.5 各類跟蹤算法特點

現(xiàn)階段各類跟蹤算法在特征提取、算法結構以及模型更新等方面都進行大量的研究和改進,使得跟蹤算法的性能得到大幅提升,典型跟蹤算法總結見表3。

表3 跟蹤算法特點總結Table 3 Summary of characteristics of tracking algorithms

然而,這些算法在顯著改善相應問題的同時,也帶來一些新情況,如算法復雜度增大、運行速度下降,對計算能力要求越來越高等。如何在移動機器人的應用場景中穩(wěn)定搭載現(xiàn)有的跟蹤算法并避免這些問題仍需進一步研究。

5 總結

基于視覺的目標檢測與跟蹤方法在移動機器人技術研究與發(fā)展中有著重要的研究意義與應用價值。本文對基于視覺的目標檢測與跟蹤算法進行了對比分析與總結??梢钥闯?,對基于視覺的目標檢測與跟蹤方法的研究已取得很大的進展,但在移動機器人實際應用場景中,在算法特征選擇、網(wǎng)絡結構優(yōu)化與更新策略等方面仍有進一步研究的空間。具體描述如下。

1) 針對運動場景中單一特征難以對目標和背景可靠建模的問題,可從特征選擇的角度進行改進:如何在避免特征冗余的前提下將互補特征進行融合、如何利用高效的檢測器快速獲取適合跟蹤任務的深度特征、如何將深度特征與傳統(tǒng)特征融合運用等都是值得研究的方向。

2) 針對深度學習方法計算成本高等問題,可從網(wǎng)絡結構優(yōu)化的角度進行改進。如提出有效的網(wǎng)絡結構壓縮方法,優(yōu)化深度學習方法的算法結構以降低計算成本等。

3) 針對移動機器人跟蹤中被跟蹤物體先驗信息較少且物體易發(fā)生形變等問題,可從模型更新策略的角度開展研究,開發(fā)出更優(yōu)秀的模型更新機制,使算法速度和精度都得以提高。

猜你喜歡
移動機器人特征圖像
根據(jù)方程特征選解法
移動機器人自主動態(tài)避障方法
離散型隨機變量的分布列與數(shù)字特征
淺析p-V圖像中的兩個疑難問題
移動機器人路徑規(guī)劃算法綜述
巧用圖像中的點、線、面解題
有趣的圖像詩
基于四元數(shù)卷積神經(jīng)網(wǎng)絡的移動機器人閉環(huán)檢測
基于改進強化學習的移動機器人路徑規(guī)劃方法
不忠誠的四個特征
文水县| 富蕴县| 新密市| 绥阳县| 石城县| 哈巴河县| 班玛县| 富民县| 新沂市| 巴中市| 玛多县| 唐山市| 江都市| 宜都市| 潼关县| 保德县| 塔河县| 鹤岗市| 新绛县| 侯马市| 博客| 南溪县| 三台县| 九龙县| 石屏县| 尼玛县| 信阳市| 三江| 象州县| 德清县| 石河子市| 黄冈市| 天气| 涡阳县| 鄂温| 永康市| 定安县| 从化市| 鹰潭市| 莱州市| 黄石市|