盧遠(yuǎn)志
(湖南大學(xué) 機械與運載工程學(xué)院,湖南 長沙,410082)
智能車(又稱無人車)作為智能交通系統(tǒng)的關(guān)鍵技術(shù),應(yīng)能夠?qū)崿F(xiàn)車道保持與跟蹤等智能行為。它作為視覺信息處理的集成驗證平臺,是在無人條件下完全自主駕駛的,其系統(tǒng)的安全性和可靠性極為重要。在研制過程中,針對智能車的智能行為驗證需要以大量試驗作為支持,而常規(guī)車輛試驗無法滿足智能車自主駕駛能力驗證的需求[1-2]:首先,智能車的安全問題無法得到有效驗證;其次,智能車試驗所需的道路條件較高,需要大量人力、物力和財力的投入。因此,設(shè)計和構(gòu)建經(jīng)濟安全、魯棒性高的測試環(huán)境顯得尤為重要。在視覺導(dǎo)航技術(shù)中,車道保持與跟蹤的前提是如何快速而準(zhǔn)確地獲取車道線或者道路邊緣信息。目前,比較成熟的視覺導(dǎo)航系統(tǒng)主要有意大利的 GOLD系統(tǒng)[3]以及美國的 RALPH系統(tǒng)。國內(nèi)也提出了一種基于逆投影變換的智能車道路識別方法[4-9]。以上系統(tǒng)和方法對實際道路環(huán)境的依存性很高,基于機器視覺的車道標(biāo)志線識別常常會受到感知環(huán)境復(fù)雜性和不確定性等因素的影響,在道路質(zhì)量較差的條件下會出現(xiàn)較大偏差,甚至無法識別車道線,從而影響視覺導(dǎo)航功能。目前,智能車測試環(huán)境的構(gòu)建方法主要有真實路面選擇和虛擬場景[10-12]創(chuàng)建2種方法。前者的測試環(huán)境直接在真實路段上進行,在時間與空間上均受到一定限制,并且需提前進行道路交通管制,投入大、周期長且無法保證測試過程的安全性和可靠性,影響了智能車測試實驗效果;后者的測試環(huán)境主要是利用虛擬現(xiàn)實技術(shù)來構(gòu)建虛擬交通場景[1-3],雖然能保證測試安全,但無法完全模擬和仿真實際道路交通環(huán)境,因此,無法替代真實的路面測試環(huán)境,具有一定的局限性。為此,本文作者提出一種基于錐形交通標(biāo)識別的虛擬車道線構(gòu)建方法:根據(jù)測試要求設(shè)計并序列化排列錐形交通標(biāo)快速搭建智能車測試環(huán)境,在機器視覺基礎(chǔ)上根據(jù)其拓補關(guān)系構(gòu)建虛擬車道線,為智能車的車道保持與跟蹤等智能行為測試提供經(jīng)濟、安全而又可靠的測試環(huán)境?;阱F形交通標(biāo)識別的虛擬車道線構(gòu)建方法主要包括錐形標(biāo)識別與虛擬車道線構(gòu)建2個主要環(huán)節(jié)。
錐形交通標(biāo)又稱路錐、錐筒標(biāo),通常為紅色與白色相間的錐形筒狀物體,上面涂有反光材料,主要起提示和警示作用。為了安全駕駛和有效導(dǎo)航,道路交通安全中常通過設(shè)置錐形交通標(biāo)的方法對道路進行臨時隔離,告知過往車輛道路前方有障礙物或前方道路封閉改道或道路施工等路況信息,提示駕駛員提前采取措施,防止發(fā)生交通事故,并引導(dǎo)其改道行駛。
基于機器視覺的錐形交通標(biāo)識別主要包括目標(biāo)檢測和目標(biāo)識別2個主要環(huán)節(jié),首先根據(jù)其顏色、幾何等先驗知識快速定位和提取感興趣區(qū)域,然后,針對上述結(jié)果采用不變矩和 BP神經(jīng)網(wǎng)絡(luò)的方法進行分類辨識。
目標(biāo)檢測是錐形交通標(biāo)識別的前提,其目的是快速定位和提取感興趣區(qū)域。錐形標(biāo)的類型繁多,不失一般性,本文采用紅白雙色相間的錐形標(biāo)作為研究對象。如圖1所示錐形交通標(biāo)具有鮮明的顏色信息和規(guī)則的幾何特征,充分利用已知的先驗信息可提高目標(biāo)檢測的準(zhǔn)確率。
圖1所示錐形標(biāo)由上、中、下3部分構(gòu)成,通過顏色分割和形狀分析,錐形標(biāo)可表達為下列集合形式:
式中:設(shè)C1和C2分別代表紅色和白色(灰度圖中的深灰色對應(yīng)紅色);S1和S2分別代表三角形和梯形。
圖1 錐形交通標(biāo)顏色-幾何對模型Fig.1 Color-Geometry pair model of traffic cone
顏色分割后的圖像通過canny算子進行邊緣特征提取,可進一步確定它們的最小外接矩形,經(jīng)上述處理后錐形標(biāo)將被分割成“紅—白—紅”3個獨立區(qū)域。分別計算最近鄰的3個窗口區(qū)域的y向中心軸與水平x軸的夾角,分別設(shè)為θ1, θ2和θ3,利用下式進行幾何共軸約束:
式中:i=1, 2;δ為相鄰夾角偏差;θ0為常數(shù),本文取為5°。利用式(1)和式(2)的“顏色-形狀對模型”可實現(xiàn)目標(biāo)檢測。
1.2.1 仿射不變矩
Hu于1962年提出的仿射不變矩理論具有平移、縮放、鏡像和旋轉(zhuǎn)均不敏感的仿射不變特點[12]。在此基礎(chǔ)上,又有許多學(xué)者對其加以改進,使不變矩特征的描述能力不斷提高[13-14]。本文利用不變矩方法對目標(biāo)樣本進行參數(shù)化處理,僅需要通過7個不變矩進行目標(biāo)識別,在減少計算量的同時,提高對紋理特征靈敏度的計算能力。
設(shè)1幅數(shù)字圖像f(x,y)的二維(p+q)階矩定義為
式中:p=0, 1, 2, …;q=0, 1, 2, …。求和是在圖像的所有空間坐標(biāo)x和y上進行的,相應(yīng)的中心矩定義為
式中:γ=(p+q)/2+1。由上述2階和3階中心距公式可以推導(dǎo)出對平移、縮放、鏡像和旋轉(zhuǎn)都不敏感的7個不變矩集合,分別為:
由于直接利用上式計算所得的不變矩具有很大的動態(tài)變化范圍,為了便于比較和后續(xù)的神經(jīng)網(wǎng)絡(luò)處理,通過取對數(shù)的方法縮小其動態(tài)變化范圍,同時考慮到不變矩有可能出現(xiàn)負(fù)值的情況,采用的不變矩公式為:
式中:k=1, 2, …, 7。
1.2.2 BP神經(jīng)網(wǎng)絡(luò)
模式識別系統(tǒng)[15-16]主要包括訓(xùn)練和識別 2個環(huán)節(jié)。訓(xùn)練環(huán)節(jié)是針對預(yù)先準(zhǔn)備好的錐形標(biāo)正樣本和負(fù)樣本進行學(xué)習(xí)訓(xùn)練的分析處理和分類器的設(shè)計過程;識別環(huán)節(jié)則是將未知目標(biāo)與訓(xùn)練好的分類器進行匹配和識別未知目標(biāo)的過程。如圖2所示,根據(jù)錐形標(biāo)正負(fù)樣本分類器的設(shè)計要求,將神經(jīng)網(wǎng)絡(luò)設(shè)計成7—50—2三層結(jié)構(gòu)的BP神經(jīng)網(wǎng)絡(luò):其中,輸入層由7個不變矩構(gòu)成;輸出層由正、負(fù)樣本構(gòu)成;隱層神經(jīng)元數(shù)目依據(jù)經(jīng)驗確定,本文設(shè)計為50個神經(jīng)元。隱層和輸出層的節(jié)點作用函數(shù)均為log-sigmoid的“S型”函數(shù),這是因為該函數(shù)輸出量在(0,1)區(qū)間內(nèi),恰好滿足學(xué)習(xí)后輸出布爾值的分類器設(shè)計要求。
由圖2可知傳遞函數(shù)的確定方法,輸出端神經(jīng)元輸入為各隱含層神經(jīng)元輸出的加權(quán)求和:
式中:i=1, 2, …, m,為隱層神經(jīng)元節(jié)點數(shù);j=1, 2, …,n,為輸入層節(jié)點數(shù);Wij為隱層神經(jīng)元輸出權(quán)值;Tij為隱層神經(jīng)元輸入權(quán)值;φ為隱層神經(jīng)元的傳遞函數(shù);x為輸入模式矢量。
BP算法的權(quán)值迭代修正公式統(tǒng)一表示為
式中:ωij為神經(jīng)元的連接權(quán)值;η為網(wǎng)絡(luò)學(xué)習(xí)效率;δj為誤差修正值;yj為樣本輸出;k為迭代次數(shù)。BP神經(jīng)網(wǎng)絡(luò)中隱層節(jié)點數(shù)、學(xué)習(xí)效率、初始權(quán)值、學(xué)習(xí)精度等網(wǎng)絡(luò)參數(shù)可根據(jù)網(wǎng)絡(luò)學(xué)習(xí)效率和收斂速度確定。
圖2 神經(jīng)網(wǎng)絡(luò)系統(tǒng)結(jié)構(gòu)簡圖Fig.2 Framework of BP neural network
根據(jù)智能行為測試要求,在測試環(huán)境中通過序列化擺放錐形交通標(biāo)P1, P2, …, Pi可方便而快捷地設(shè)計并搭建出諸如S型彎道、右轉(zhuǎn)等測試環(huán)境,如圖3所示。圖3中的虛線即為由序列化錐形標(biāo)所構(gòu)成的虛擬車道線。
從圖3可見:在同一場地上可進行不同測試環(huán)境的構(gòu)建,形成“車-環(huán)境”的閉環(huán)交通系統(tǒng),如直線及各類“U型”、“L型”、“S型”彎道導(dǎo)航路徑。本方法還可以很方便地與其他類型的傳感器相結(jié)合實現(xiàn)無人車智能行為的綜合測試,如自動避障行為下的航向及車速控制。
基于上述構(gòu)建思想可靈活地選擇場地,在保證測試過程安全的前提下,設(shè)計并構(gòu)建滿足智能車智能行為要求的測試環(huán)境。將錐形標(biāo)序列擺放至場地中央即可實現(xiàn)智能車的往返測試,既可提高測試效率,又可降低測試成本。
圖3 虛擬車道線構(gòu)建示意圖Fig.3 Schematic diagram for contrustion of virtual lane based on traffic cones
虛擬車道線的構(gòu)建包括控制點集合的獲取和虛擬車道線的生成2個環(huán)節(jié)。
2.2.1 錐形標(biāo)的定位
為實現(xiàn)對識別出的錐形標(biāo)路障進行快速定位,需要將圖像坐標(biāo)系轉(zhuǎn)換為空間物理坐標(biāo)系,這是一個攝像頭的標(biāo)定與目標(biāo)重建的過程,其計算公式為
式中:q=[u, v, 1]′,為圖像坐標(biāo)系的坐標(biāo),單位為像素;Q=[X, Y, Z, 1]′為世界坐標(biāo)系的坐標(biāo)(mm);s為縮放因子,即空間某點在Z軸方向上的坐標(biāo)值;H為單應(yīng)變換矩陣,它由內(nèi)參數(shù)矩陣和外參數(shù)矩陣2部分構(gòu)成。
在機器視覺的基礎(chǔ)上,通過計算幾何方法可提取出所有識別后錐形標(biāo)ROI(region of interesting)區(qū)的底邊中點,并將其作為虛擬車道線的控制特征點Pi(x, y),如圖3所示。
2.2.2 虛擬車道線的生成
虛擬車道線的構(gòu)建需要根據(jù)錐形標(biāo)間的拓補關(guān)系連接創(chuàng)建,在設(shè)計的測試路線上,錐形交通標(biāo)是序列化連續(xù)擺放的,由此可以根據(jù)視場內(nèi)識別出的錐形標(biāo)空間位置分別沿x和y方向進行掃描排序,沿X向排序后代表由近及遠(yuǎn),將最近鄰的2個錐形標(biāo)進行拓補連接從而構(gòu)造出虛擬車道線,Y向可確定左轉(zhuǎn)或右轉(zhuǎn)。
與真實的道路標(biāo)志線一致,所創(chuàng)建的虛擬車道線可直接用于智能車的定位、導(dǎo)航和局部路徑規(guī)劃,這樣對行車控制決策無需調(diào)整和不增加難度的前提下即可進行智能車的視覺導(dǎo)航測試。
設(shè)錐形交通標(biāo)為集合A(點集合),虛擬車道線為集合B(線集合),則集合映射g的表達式如下:
式中:l為虛擬車道線;f為虛擬車道線中的直線段表達式;a和b為直線參數(shù)。
由式(11)可知:虛擬車道線的構(gòu)建需要求解a和b 2個參數(shù),因此,要求視覺傳感器采集的視場中至少要同時采集到2個錐形交通標(biāo),如圖3所示,需要適當(dāng)控制錐形標(biāo)間距L。
QT是一個適合做界面開發(fā)的 C++工具包,OpenCV是一個實時性強且功能強大的圖像處理工具包[17],利用這些工具包可提高軟件系統(tǒng)的開發(fā)效率。另外,這兩者都是基于開源思想開發(fā)的,在遵守通用公共授權(quán)協(xié)議GPL (general public license)的前提下進行適當(dāng)處理,不需要添加新的外部支持也可以完整地編譯鏈接生成執(zhí)行程序。
本文基于上述算法,在 VC++環(huán)境下,利用 QT和OpenCV開發(fā)一套基于錐形標(biāo)的虛擬車道線系統(tǒng)。基于上述理論,采用圖4所示的設(shè)計思路進行設(shè)計。算法實現(xiàn)步驟如下:
(1) 利用彩色視覺傳感器獲取圖像后,根據(jù)顏色-幾何對模型提取圖像感興趣區(qū)域。
(2) 目標(biāo)檢測后,需要對感興趣區(qū)域進行適當(dāng)預(yù)處理,以提高識別準(zhǔn)確率,主要包括圖像尺寸重置、直方圖均衡化、背景去除、圖像校正等預(yù)處理。
(3) 對目標(biāo)進行不變矩計算,并利用BP神經(jīng)網(wǎng)絡(luò)進行目標(biāo)識別。
(4) 據(jù)識別后的結(jié)果進行目標(biāo)定位,并根據(jù)其拓補關(guān)系創(chuàng)建虛擬車道線。
該算法全部由C++語言編程實現(xiàn),為了提高學(xué)習(xí)效率和判別速度,采集圖像的像素為320×240,目標(biāo)訓(xùn)練與識別均采用 50×50像素的圖片模板,因此,BP網(wǎng)絡(luò)的輸入量也為50×50的矩形區(qū)域的不變矩。
圖4 錐形交通標(biāo)識別流程圖Fig.4 Flowchart for pattern identification of traffic cone
測試環(huán)境的設(shè)計與構(gòu)建應(yīng)該能保證智能車測試過程的安全性和可靠性,基于錐形交通標(biāo)識別的虛擬車道線構(gòu)建方法正是針對智能車智能行為的驗證試驗而提出的,并應(yīng)用到無人駕駛車測試環(huán)境設(shè)計中。
湖南大學(xué)于 2008年開始研制開發(fā)無人駕駛智能車。該車是在現(xiàn)有商用車的基礎(chǔ)上改裝而成,是對其轉(zhuǎn)向、制動、油門、換擋機構(gòu)進行機電化改裝,并加裝GPS、慣導(dǎo)、激光雷達和視覺等傳感器。系統(tǒng)結(jié)構(gòu)如圖5所示,主要包括環(huán)境感知子系統(tǒng)、決策控制子系統(tǒng)和底層執(zhí)行子系統(tǒng)三大部分,采用總線方式進行各子系統(tǒng)間的數(shù)據(jù)與控制通訊。其中視頻采集部分采用型號為HuaQi DL-800C的彩色CMOS工業(yè)攝像頭,分辨率為300萬像素,并配合型號為M0814-MP的定焦工業(yè)放大鏡頭,視場角為56.3°,焦距為8 mm;視頻通訊接口為USB2.0,可直接與筆記本電腦連接。為方便移動測試,系統(tǒng)測試平臺在通用的商務(wù)筆記本上運行,處理器為Intel(R) Core(TM)2 Duo CPU T6570@2.10 GHz。
測試場地選擇在市內(nèi)的實際道路環(huán)境,根據(jù)智能車測試任務(wù)的需求,在同一場地分別搭建S型和U型彎道。圖6所示為智能車測試環(huán)境的實際現(xiàn)場圖片。
圖5 基于視覺導(dǎo)航的智能車系統(tǒng)功能結(jié)構(gòu)簡圖Fig.5 Diagram on intelligent vehicle of vision based navigation system
圖6 智能車測試環(huán)境現(xiàn)場圖片F(xiàn)ig.6 Photo on practical testing environment for intelligent vehicle
圖7 虛擬車道線識別結(jié)果Fig.7 Image processing results on construction of virtual lane
圖7所示為采用本文所開發(fā)的系統(tǒng)得到的虛擬車道線測試結(jié)果,圖中錐形標(biāo)底部的標(biāo)志點為系統(tǒng)識別出錐形標(biāo)定位后給出的虛擬車道線的控制點位置,其連線構(gòu)成了虛擬車道線。其中,圖7(a)和圖 7(b)所示分別為城市道路和高速公路測試環(huán)境中虛擬車道線的測試結(jié)果,此時智能車為車道保持與跟蹤狀態(tài)。圖7(a)中虛擬車道線出現(xiàn)在智能車的右側(cè),圖7(b)中虛擬車道線出現(xiàn)在智能車的左側(cè),虛擬車道線距離車體縱向中心1.5~2.0 m處,此時車輛位于車道中心處于安全行車狀態(tài)。由于錐形標(biāo)的特征明顯,即使當(dāng)行車環(huán)境中局部出現(xiàn)行人或車輛干擾,也能準(zhǔn)確識別并構(gòu)建出虛擬車道線,這進一步表明此方法具有較強的抗干擾能力。
圖8所示為利用錐形標(biāo)序列在非結(jié)構(gòu)化道路中構(gòu)建的L型左轉(zhuǎn)測試環(huán)境下,采用本文方法計算得出的智能車航向角變化的時間歷程變化曲線。圖8中的縱坐標(biāo)為航向角,即為虛擬車道線與車輛航向間的夾角,根據(jù)此參數(shù)并結(jié)合車輛轉(zhuǎn)向系的傳動比,即可對智能車進行視覺導(dǎo)航。實驗中智能車過此彎道時的平均車速為6 km/h,錐形標(biāo)序列間距為2~3 m,以保證視覺傳感器采集的視場中能獲取到 2個以上的錐形交通標(biāo)。構(gòu)建出的虛擬車道線將被傳送給決策控制層作為智能車轉(zhuǎn)向控制視覺導(dǎo)航的參考數(shù)據(jù),由決策控制子系統(tǒng)根據(jù)系統(tǒng)構(gòu)建的虛擬車道線進行車輛局部路徑規(guī)劃與行為控制。由圖8可知:轉(zhuǎn)向控制過程以圖中虛線為分界點分為直行、左轉(zhuǎn)、回正3個連續(xù)操控階段;圖中定義數(shù)據(jù)右轉(zhuǎn)為正值,左轉(zhuǎn)為負(fù)值,左轉(zhuǎn)最大航向角變化量為-24.2°。通過對機器視覺處理過程的實時回放分析發(fā)現(xiàn):由于實驗環(huán)境中個別錐形標(biāo)擺放不夠規(guī)范,會造成視場中該處虛擬車道線呈現(xiàn)“Z字型”波動現(xiàn)象,同時伴隨智能車的行進過程,前后錐形標(biāo)在視場中的交替出現(xiàn)與消失是非連續(xù)的,因此,會導(dǎo)致航向角曲線呈現(xiàn)出局部階躍變化的現(xiàn)象;圖中K點為智能車由入彎狀態(tài)轉(zhuǎn)為出彎狀態(tài)的臨界拐點,即此時方向盤控制將由左轉(zhuǎn)改為右轉(zhuǎn)。
圖8 虛擬車道線導(dǎo)引下智能車轉(zhuǎn)向角變化的時間歷程曲線Fig.8 Vision base navigation based on virtual lane when left turning
(1) 通過序列化擺放錐形交通標(biāo)搭建測試環(huán)境是一種快速構(gòu)建智能車測試環(huán)境的有效方法,在場地選擇上更加靈活,環(huán)境構(gòu)建上更加方便,在結(jié)構(gòu)化道路與非結(jié)構(gòu)化道路環(huán)境中均適用,為智能車測試環(huán)境設(shè)計提供了新的思路和方法。
(2) 本方法不受場地限制,具有一定的柔性和適應(yīng)性??梢愿鶕?jù)智能車智能行為的測試要求,在同一場地上靈活設(shè)計和搭建各類不同的測試環(huán)境,保證了測試過程的安全性,在提高測試效率的同時,降低了試驗成本。
(3) 所采用的基于不變矩和神經(jīng)網(wǎng)絡(luò)的錐形交通標(biāo)識別方法充分利用了神經(jīng)網(wǎng)絡(luò)較強的非線性映射能力和不變矩的仿射不變特征,是一種有效的錐形交通標(biāo)識別方法。該系統(tǒng)可以對單個或多個錐形交通標(biāo)以及室內(nèi)或室外、簡單或復(fù)雜背景下的視頻圖像序列取得很好的識別結(jié)果。
(4) 該方法對光照條件、雨霧天氣等實際路面環(huán)境要求不高,同時對行人和運動車輛等環(huán)境的抗干擾能力強,保證了錐形交通標(biāo)識別的準(zhǔn)確性和魯棒性,為進一步虛擬車道線構(gòu)建提供了有力的支持。基于錐形標(biāo)的虛擬車道線導(dǎo)引手段比實際車道線導(dǎo)航方法具有更高的可靠性。
[1] 王榮本, 趙一兵, 李琳輝, 等. 智能車輛的障礙物檢測研究方法綜述[J]. 公路交通科技, 2007, 124(11): 109-113, 124.WANG Rongben, ZHAO Yibing, LI Linhui, et al. Approach review of obstacle detection for intelligent vehicle[J]. Journal of Highway and Transportation Research and Development, 2007,124(11): 109-113, 124.
[2] 劉欣. 智能車智能行為驗證平臺的虛擬交通場景研究[D]. 合肥: 中國科學(xué)技術(shù)大學(xué)信息科學(xué)技術(shù)學(xué)院, 2009: 56-80.LIU Xin. Virtual traffic scene of intelligent behavior validation platform for driverless vehicle[D]. Hefei: University of Science and Technology of China. School of Information Science and Technology, 2009: 56-80.
[3] Broggi A, Cattani S. An agent based evolutionary approach to path detection for off-road vehicle guidance[J]. Pattern Recognition Letters, 2006, 27(1): 1164-1173.
[4] 付夢印, 李博, 王美玲. 一種基于逆投影變換的智能車道路識別方法[J]. 光學(xué)技術(shù), 2008, 34(3): 368-371.FU Mengyin, LI Bo, WANG Meiling. Inverse perspective transform based lane detection in autonomous vehicle[J]. Optical Technique, 2008, 34(3): 368-371.
[5] 金輝, 吳樂林, 陳慧巖, 等. 結(jié)構(gòu)化道路車道線識別的一種改進算法[J]. 北京理工大學(xué)學(xué)報, 2007, 27(6): 501-505.JIN Hui, WU Lelin, CHEN Huiyan, et al. An Improved algorithm for the lane recognition of structured road[J].Transactions of Beijing Institute of Technology, 2007, 27(6):501-505.
[6] 郭磊, 李克強, 王建強, 等. 應(yīng)用方向可調(diào)濾波器的車道線識別方法[J]. 機械工程學(xué)報, 2008, 44(8): 214-218, 226.GUO Lei, LI Keqiang, WANG Jianqiang, et al. Lane detection method by using steerable filters[J]. Chinese Journal of Mechanical Engineering, 2008, 44(8): 214-218, 226.
[7] McCall J C, Trivedi M M. Video-based lane estimation and tracking for driver assistance: Survey, system, and evaluation[J].Intelligent Transportation Systems, IEEE Transactions on, 2006,7(1): 237.
[8] Broggi A. A new approach to urban pedestrian detection for automatic braking[J]. IEEE Transactions on Intelligent Transportation Systems, 2009, 10(4): 594-605.
[9] Broggi A. TerraMax vision at the urban challenge 2007[J]. IEEE Transactions on Intelligent Transportation Systems, 2007, 11(1):194-205.
[10] 史美萍, 彭曉軍, 賀漢根. 全虛擬智能車輛自主導(dǎo)航仿真系統(tǒng)的研究與實現(xiàn)[J]. 系統(tǒng)仿真學(xué)報, 2004, 16(8): 1721-1724,1728.SHI Meiping, PENG Xiaojun, HE Hangen. Research and accomplishment of auto-navigating simulation system for virtual unmanned vehicles[J]. Acta Simulata Systematica Sinica, 2004,16(8): 1721-1724, 1728.
[11] 李力, 王飛躍, 鄭南寧, 等. 駕駛行為智能分析的研究與發(fā)展[J]. 自動化學(xué)報, 2007, 33(10): 1014-1022.LI Li, WANG Feiyue, ZHENG Nanning, et al. Research and developments of intelligent driving behavior analysis[J]. Acta Automatica Sinica, 2007, 33(10): 1014-1022.
[12] Hu M K. Visual pattern recognition by moment invariants[J].IRE Transactions on Information Theory, 1962(8): 179-187.
[13] Huh S, Shim D H. A vision-based landing system for small unmanned aerial vehicles using an airbag[J]. Control Engineering Practice, 2010, 18(3): 812-823.
[14] Flusser J, Suk T. Pattern recognization by affine moment invariants[J]. Pattern Recognition, 1993, 26(1): 167-174.
[15] 朱雙東, 張懿, 陸曉峰. 三角形交通標(biāo)志的智能檢測方法[J].中國圖像圖形學(xué)報, 2006, 11(8): 1127-1131.ZHU Shuangdong, ZHANG Yi, LU Xiaofeng. Intelligent approach for triangle traffic sign detection[J]. Journal of Image and Graphics, 2006, 11(8): 1127-1131.
[16] 張科, 羅華, 王秀琴. 基于不變矩和神經(jīng)網(wǎng)絡(luò)的目標(biāo)識別方法[J]. 火力與指揮控制, 2009, 34(3): 16-18.ZHANG Ke, LUO Hua, WANG Xiuqin. Object recognition method based on neural network and invariant moments[J]. Fire Control and Command Control, 2009, 34(3): 16-18.
[17] 曾祥樟, 盧道華. 一種基于OpenCV和 Tsai的攝像機兩步標(biāo)定新方法[J]. 機電工程, 2008, 25(12): 49-52.ZENG Xiangzhang, LU Daohua. A new method of camera calibration based on OpenCV and Tsai[J]. Mechanical &Electrical Engineering Magazine, 2008, 25(12): 49-52.