張 蕊,趙 帥,張慶余,張 驍
基于觸覺信息的駕駛員操作意圖識別方法
張 蕊,趙 帥*,張慶余,張 驍
(中汽智聯(lián)技術有限公司,天津 300000)
隨著人工智能和自動駕駛技術的不斷發(fā)展,以電動化、網(wǎng)聯(lián)化、智能化和共享化為基礎的自動駕駛技術已成為未來汽車工業(yè)的主要發(fā)展方向。然而,受當前自動駕駛技術和相關政策法規(guī)制定的限制,可以預見,人機共駕將作為面向自動駕駛的過度階段將長時間存在。因此,針對人機共駕中駕駛員操作意圖識別問題,文章提出了一種基于卷積神經(jīng)網(wǎng)絡的機器學習方法,從駕駛員最長接觸的轉向盤入手,通過對觸覺壓力圖像的特征訓練,將操作意圖的識別問題轉化為對圖像的分類識別問題,實現(xiàn)了對不同駕駛意圖(緊抓握行駛意圖、松抓握行駛意圖、危險駕駛意圖)的準確識別。仿真結果表明,意圖識別準確率超過97%,對將來人機共駕控制中車輛輔助駕駛系統(tǒng)的研究具有重要的理論和應用價值。
自動駕駛;人機共駕;意圖識別;觸覺信息;機器學習
隨著人工智能和自動駕駛技術的不斷發(fā)展,汽車逐漸發(fā)展成為具有一定環(huán)境感知和自主決策規(guī)劃能力的“自動化智能體”,并且以電動化、網(wǎng)聯(lián)化、智能化和共享化為基礎的自動駕駛技術已成為未來汽車工業(yè)的主要發(fā)展方向[1]。關于自動駕駛的分級,目前全球汽車行業(yè)普遍公認的智能汽車等級劃分標準將其分為六個階段,L0為無自動駕駛功能或技術、L1為輔助駕駛、L2為部分自動化、L3為有條件自動化、L4為高度自動化和L5為完全自動化[2]。
然而,雖然當前汽車的智能化水平在不斷提升,但仍然停留在L0-L2級。并且由于當前自動駕駛技術仍然不夠成熟,相關政策法規(guī)制定還不夠完善,智能汽車在未來幾年內(nèi)難以實現(xiàn)從L2到L5的快速發(fā)展[3]??梢灶A見,人機共駕將作為面向無人駕駛的過渡階段長時間存在,即駕駛員和自動化系統(tǒng)共同完成駕駛任務的技術架構。在當前自動駕駛的研發(fā)和應用階段,駕駛員作為絕對主體依然扮演著重要角色[4-5]。
在“人-車-路”系統(tǒng)中,駕駛員和自動駕駛系統(tǒng)作為兩個駕駛主體,共享決策控制權,在不同的行駛環(huán)境中協(xié)同完成駕駛任務。自動駕駛系統(tǒng)具有精準化的控制能力,可以根據(jù)環(huán)境主動控制車輛精確運動,提高行駛安全性,同時減輕駕駛員的工作負荷[6-7]。駕駛員的操作意圖作為銜接自動駕駛系統(tǒng)的關鍵部分,可以為人機共駕系統(tǒng)提供支持。因此,如何提高駕駛員狀態(tài)監(jiān)測和操作意圖識別的準確性,實現(xiàn)自動駕駛系統(tǒng)和駕駛員之間的自然交互,實現(xiàn)人機優(yōu)勢互補,已成為當前研究的熱點話題[8-9]。
近年來,針對人機共駕中的駕駛員狀態(tài)監(jiān)測和駕駛操作意圖識別作了大量研究。目前關于駕駛員狀態(tài)監(jiān)測的研究主要集中在識別疲勞駕駛、分心駕駛以及其他不當駕駛行為,主要通過視覺捕捉工具,監(jiān)測駕駛員的眼瞼運動、頭部姿態(tài)和面部表情[10],采用機器學習算法推斷駕駛員的疲勞和注意力分散程度[11]。除了計算機視覺的手段外,還有學者通過采集駕駛員的生理信號(如腦電信號、心電信號和肌電信號等),識別駕駛員的操作意圖[12]。然而,上述方法都要求駕駛員佩戴檢測設備,這必將會對駕駛員的操作產(chǎn)生干擾,不利于行車安全。駕駛員意圖識別的過程從本質(zhì)上講就是模式識別的過程,最具代表性的是支持向量機、隱性馬爾可夫模型和稀疏貝葉斯學習。通過采集表征駕駛員操作意圖的轉向盤轉角、車速、擋位、油門踏板和制動踏板等行車參數(shù),駕駛員自身狀態(tài)特征參數(shù)信息和車輛的周邊環(huán)境信息,在多信息融合數(shù)據(jù)的支持下,運用相關算法,建立駕駛員意圖辨識模型,從而識別出駕駛員的轉向、換道、超車、加速、停車、制動等操作意圖,進一步保障駕駛員的行車安全[13-18]。
從用戶的角度來說,出行的第一要素便是安全。轉向盤作為人機交互在物理層面的主要接口,從駕駛員最長接觸的汽車轉向盤出發(fā),實時感知駕駛員的操作意圖,理應成為解決駕駛員安全駕駛問題的第一突破點。智能汽車的誕生,意味著轉向盤同時也要具備更多的智能化功能,能夠主動識別和發(fā)現(xiàn)駕駛員的危險因素,進行早期的預防和提示。駕駛車輛時,駕駛員的手不能離開轉向盤,因此,如果觸覺信息能夠在一定程度上,通過轉向盤作為媒介對駕駛員不良習慣予以預先的糾正和引導,并通過預警的方式來構建安全行駛的系統(tǒng),將從根源上解決駕駛隱患,保證行車安全。
現(xiàn)在大多數(shù)基于觸覺的人機共享控制研究,主要是根據(jù)駕駛員作用在轉向盤上的力矩來感知駕駛員的操作意圖,并通過轉向盤力矩來輔助駕駛員完成駕駛任務,如基于駕駛意圖的觸覺輔助轉向系統(tǒng)研究,通過調(diào)整轉向轉矩,可以在智能汽車遇到緊急情況時保證車輛的平穩(wěn)行駛[19-23]。雖然這些研究在某種程度上提高了車輛運行的安全性,但忽視了駕駛員之間的差異性及其他因素的影響。一方面,駕駛習慣受駕駛員的生理參數(shù)影響,并具有一定的隨機性,駕駛員與自動駕駛系統(tǒng)的交互過程難以建立精確的人機共享模型;另一方面,上述研究只考慮了駕駛員施加的轉向盤轉角,缺乏了表征駕駛員在極限工況下駕駛意圖的物理量描述,極易造成對駕駛員正常行駛意圖的錯誤估計。
綜上所述,研究駕駛員的神經(jīng)肌肉狀態(tài),將更有利于識別駕駛員與自動化系統(tǒng)之間的合作狀態(tài),對于避免駕駛員和智駕系統(tǒng)之間的沖突和保證行車安全至關重要。同時,駕駛員的駕駛技能也在不斷地變化,是長期的在線學習和優(yōu)化的過程。為此,本文采用能夠反映駕駛員神經(jīng)肌肉狀態(tài)的轉向盤抓握信號,采用基于卷積神經(jīng)網(wǎng)絡的學習算法,選取不同駕駛員的抓握圖像信息(松抓握、緊抓握和非正常抓握)作為樣本庫,通過訓練得到駕駛員的駕駛意圖模型,得到松抓握(正常行駛)、緊抓握(復雜交通情景)和非正常抓握(危險操作)3種意圖識別結果,為后期降低駕駛員操作意圖和提升行車安全的相關研究奠定了堅實基礎。
本文采用的電容陣列柔性壓力傳感器原理如圖 1 所示。
(a) 柔性傳感元件陣列結構
(b) 柔性電容單元等效電路
(c) 柔性電容單元
傳感器采用平行板電容原理制作而成,其結構原理如圖1(a)、圖1(b)所示,其柔性單元電容表示為
式中,為電極面積;為上下電極之間距離;介電常數(shù)=0r;r為相對介電常數(shù);0≈8.85× 10-12F/m。
本文采用的觸覺傳感器配件及整體結構如圖 2 所示,整體尺寸為150 mm×150 mm,導電布寬度為10 mm,上下電極板交叉組成10×10個面積為100 mm2的電容單元。
圖2 觸覺傳感器配件及整體結構
1.3.1觸覺壓力傳感器標定
采用ZQ-21 A-2型壓力計對電容式壓力敏感單元在0~550 kPa范圍內(nèi)進行重復加載實驗,傳感器標定實驗如圖3所示。
如圖4(a)所示,傳感器重復性誤差約為 2.75%;如圖4(b)所示,傳感器最大遲滯誤差為5.88%;如圖4(c)所示,在該傳感器上隨機選擇了10個不同位置的電容單元進行了輸入(壓強)標定,一致性最大誤差約為12.2%。通過傳感器的性能曲線可知,該傳感器具有良好的壓力感知功能,能夠滿足對駕駛員手抓握力檢測的要求。因此,本文選用該傳感器實現(xiàn)駕駛員手握轉向盤時中觸覺抓握信息的采集。
(a) 觸覺傳感器電容單元重復性
(b) 觸覺傳感器電容單元遲滯性
(c) 觸覺傳感器電容單元一致性
1.3.2柔性觸覺壓力傳感器封裝
為了實現(xiàn)模擬在駕駛過程中對人手抓握轉向盤的圖像信息采集,本文選用厚度為0.5 mm耐水性良好的乙烯-醋酸乙烯酯共聚物(Ethylene-Vinyl Acetate copolymer, EVA)海綿膠帶對傳感器進行封裝。手柄本體采用3D打印成型的柱狀結構模擬轉向盤的結構(圖5柱狀結構),白色十字交叉部分模擬駕駛員手心抓握位置。
圖5 觸覺傳感器封裝組件及成品
現(xiàn)實生活中,汽車的轉向盤完全由駕駛員控制,最為推薦的抓握方式就是三點九點抓握法,相當于轉向盤的左側和右側各放一直手,這樣更加有助于行車過程中的安全性。然而,在實際的駕駛過程中,存在著許多危險或錯誤的抓握方式,為行車安全埋下了重大隱患,如單手抓握、單個手指勾握,甚至有時雙手脫離轉向盤,一旦發(fā)生緊急情況,后果將不堪設想。通過研究發(fā)現(xiàn),在一些低速或比較寬闊車輛較少的直線行駛場景中,駕駛員一般雙手會比較放松的握在方向盤上,而在一些急轉彎或復雜路況的場景中,駕駛員一般會雙手緊握方向盤操作汽車行駛,以保證行車過程中的安全。幾種常見的駕駛員轉向盤抓握方式如圖6所示。
圖6 駕駛員轉向盤抓握方式
駕駛員的操作意圖從本質(zhì)上是一種模式識別,并且不同駕駛員的操作意圖在實際操作過程中具有一定的相似性,導致無法硬性的對各種意圖加以區(qū)分,因此,模式識別是一種適合于駕駛員駕駛意圖辨識的方法。結合對駕駛員轉向盤抓握方式和抓握力度的描述,本文將駕駛員的轉向盤抓握意圖分為3類:1)緊抓握狀態(tài),對應低速寬闊路況的直線行駛意圖,自動駕駛系統(tǒng)占主導;2)松抓握狀態(tài),對應轉向或復雜路況的行駛意圖,駕駛員主導;3)危險(錯誤)抓握狀態(tài),對應非正常行駛意圖,自動駕駛系統(tǒng)需給出報警提示或正確引導。
為了表征駕駛員的抓握狀態(tài)信息,需要將封裝好的觸覺傳感器徑向展開,粗線部分為傳感器封裝時的黏合處,沿粗線部分進行分割,俯視圖方向順時針展開如右側平面圖所示,本文以白色十字交叉部分為原點構建平面,如圖7所示。
圖7 觸覺傳感器平面展開圖
為了更加清晰地表征人手的抓握狀態(tài),在圖像顯示程序中對原始數(shù)據(jù)進行了插值處理。在圖像采集階段,要求受試者盡量將手掌中心放于白色十字交叉位置,從上到下分別為非正常抓握、緊抓握(習慣手為左手)和松抓握(習慣手為右手)。如圖8所示,可以明顯看出,在正常抓握狀態(tài)下,雖然慣用手不同,施力方式稍有區(qū)別,但松緊抓握的區(qū)分度能夠用來區(qū)分駕駛員在不同路況下的駕駛意圖。
(a) 非正常抓握
(b) 左手緊抓握
(c) 右手松抓握
根據(jù)上文可知,駕駛員在行車過程中轉向盤抓握壓力信息可以間接體現(xiàn)人體上肢關節(jié)運動狀態(tài)和肌肉的活性,觸覺壓力圖像是某一時刻對駕駛員上肢肌肉活性的間接描述。因此,本節(jié)將采用觸覺壓力信息來提取駕駛員在任務層的操作意圖。圖9是從眾多觸覺圖像中隨機抽取的3幅圖像,可以明顯看出,駕駛員在抓握觸力轉向盤時,主要通過大魚際、大拇指以及食指、中指和無名指的指肚部位施加抓握力。雖然在抓握過程中手心和其他部位幾乎不施加力,不能完整顯示駕駛員的手型,但這并不影響對駕駛員抓握狀態(tài)的描述。
圖9 駕駛員抓握狀態(tài)表征
從圖9中可以看出,在緊抓握狀態(tài)下的接觸面積要明顯大于松抓握狀態(tài),并且在緊抓握狀態(tài)下,駕駛員手部施加的壓力要遠遠大于松抓握狀態(tài),二者區(qū)分度明顯。并且可以明顯看出,駕駛員的非正常(危險)抓握狀態(tài)下的壓力分布只是零星的幾個接觸點,與上述兩種狀態(tài)區(qū)分明顯,另外,在駕駛員不抓握狀態(tài)下,觸覺圖像不顯示任何信息。綜上所述,本文通過觸覺壓力信息對駕駛員在任務層的駕駛意圖進行表征,針對駕駛員在人機共駕系統(tǒng)中的駕駛意圖進行分類定義。
由于駕駛員之間存在性別、身高、體重、肌肉力量、習慣用手、施力特點等個體差異,不同駕駛員的觸覺圖像會存在明顯差異,即使對于同一駕駛員做同樣的抓握動作時,采集到的觸覺信息也會存在微小差異,對于上述三種駕駛員操作意圖狀態(tài)的區(qū)分無法給出明確的界定方法。因此,本節(jié)采用卷積神經(jīng)網(wǎng)絡的機器學習方法,對觸覺壓力圖像的特征進行訓練,構建不同類型操作意圖的分類器,將操作意圖的識別問題轉化為對圖像的分類識別問題,實現(xiàn)對駕駛員駕駛意圖的識別。
卷積神經(jīng)網(wǎng)絡的重要思想包括局部感知野、權值共享和下采樣。由于圖像局部區(qū)域具有很強的相關性,因此,通過在更高層將局部的信息綜合起來即可得到圖像的全局信息。權值共享策略在減少訓練參數(shù)的同時,提升了訓練模型的泛化能力。下采樣操作主要提升了模型的魯棒性。
1.輸入層
卷積神經(jīng)網(wǎng)絡的輸入層選用經(jīng)過歸一化處理的駕駛員抓握圖像,每張圖像的分辨率為10×10像素,并將像素值歸一化為0~1之間的數(shù)字。
2.卷積層
卷積層主要實現(xiàn)對輸入圖像的多維特征提取。本文采用卷積核的尺寸為33,移動步長為1。
3.激勵層
激勵層中的激活函數(shù)提供了卷積神經(jīng)網(wǎng)絡的非線性建模能力,將線性映射的表達空間擴增到了非線性空間。本文采用ReLU激勵函數(shù),具有收斂速度快、求梯度簡單的優(yōu)點。
4.下采樣層
下采樣層又稱為池化層,用于壓縮數(shù)據(jù)和參數(shù)的數(shù)量,減少過擬合。本文采用最大池化操作,池化區(qū)域為22,步長為2。
5.全連接層
全連接層主要負責對圖像特征進一步降維操作,進一步綜合特征得到輸入圖像特征的高層含義,實駕駛意圖模式分類。
6.輸出層
本文主要是對駕駛員抓握圖像的數(shù)據(jù)集識別分類,輸出層可以看作是一個節(jié)點數(shù)目為3的分類器,分別代表低速直線行駛意圖、轉向或復雜路況駕駛意圖和非正常(危險)駕駛意圖三種模式。本文采用的卷積神經(jīng)網(wǎng)絡整體結構如圖10所示,各層的具體網(wǎng)絡參數(shù)如表1所示。
圖10 卷積神經(jīng)網(wǎng)絡整體結構
卷積神經(jīng)網(wǎng)絡模型訓練過程包括正向傳播和反向傳播,在正向傳播的過程中,卷積層通過卷積核來提取輸入圖像的多維局部特征,將得到的特征圖輸入到激勵函數(shù),從而得到新一層的特征圖。其中,正向傳播各公式參數(shù)含義如表2所示。卷積核的工作過程為
本文選用ReLU作為激勵函數(shù),表達式為
本文選用的池化過程為
表2 正向傳播各公式參數(shù)含義
在多分類問題中,對于訓練集{(1,1),...,(x,y)},類標簽為y∈{1,2,...,}。對于給定的輸入(n),用假設函數(shù)h(x)針對每一個類的概率為((n)=|(n)),=1,2, ...,。假設函數(shù)h(x)的公式為
將(n)分為第類的概率記為
式中,為模型參數(shù),本文的類別一共分為3類,分別用1、2、3表示。
反向傳播過程中,采用反向傳播算法進行誤差傳遞,使用隨機梯度下降法更新權值參數(shù),使得損失函數(shù)達到最小,直到網(wǎng)絡收斂達到迭代終止條件才停止整個訓練過程。其中,反向傳播各公式參數(shù)含義如表3所示。損失函數(shù)計算公式如下:
采用隨機梯度下降法更新權值,權重迭代表達式為
表3 反向傳播各公式參數(shù)含義
在卷積神經(jīng)網(wǎng)絡的分類過程中,為了保證數(shù)據(jù)的全面性和各類樣例的均勻性,本文的數(shù)據(jù)集由3 000張駕駛員抓握形成的觸覺傳感器顯示圖像組成,共分為低速直線行駛意圖、轉向或復雜路況駕駛意圖和危險駕駛意圖三種模式,數(shù)據(jù)集如表4所示。駕駛員手掌抓握圖像尺寸統(tǒng)一為10×10像素。
表4 數(shù)據(jù)集
參與者生理參數(shù)如表5所示。
表5 參與者生理參數(shù)
訓練集中部分手掌抓握圖像如圖11所示,依次為非正常抓握狀態(tài)、松抓握狀態(tài)和緊抓握狀態(tài)。為了消除偶然性,提升訓練的準確率,對建立的 3 000張數(shù)據(jù)集進行了隨機打亂重排處理。
(a) 非正常抓握狀態(tài)
(b) 松抓握狀態(tài)
(c) 緊抓握狀態(tài)
本實驗中的訓練中本數(shù)量(batchsize)預設為100,不同的學習率和迭代次數(shù)對應的駕駛員操作意圖識別準確率如表6、表7所示。
表6 訓練集準確率
表7 測試集準確率
從表6、表7中可以看出,當訓練集在迭代次數(shù)為110,學習率為0.6時,準確率最高,達到了98.2%;而測試集在迭代次數(shù)為130,學習率為0.6時準確率最高,達到了97.6%。綜合考慮,本文將最終的迭代次數(shù)定位110。
圖12 準確率變化曲線
圖13 損失函數(shù)變化曲線
圖12為訓練集和測試集在學習率為0.6并且迭代次數(shù)為110時對應的準確率變化曲線。圖13為在該參數(shù)設置下的損失函數(shù)變化曲線。為了評價卷積神經(jīng)網(wǎng)絡分類算法的性能,本文采用準確率指標來進行評價:
表8 操作意圖模式識別結果
操作意圖模式識別結果如表8所示。綜上所述,最終本文采用的卷積神經(jīng)網(wǎng)絡訓練模型參數(shù)如表9所示。
表9 卷積神經(jīng)網(wǎng)絡訓練模型參數(shù)
針對人機共駕中駕駛員操作意圖識別問題,本文提出了一種基于卷積神經(jīng)網(wǎng)絡的機器學習方法,從駕駛員最長接觸的轉向盤入手,通過對觸覺壓力圖像的特征訓練,將操作意圖的識別問題轉化為對圖像的分類識別問題,實現(xiàn)了對駕駛員不同駕駛意圖(松抓握-低速寬闊車輛較少的直線行駛意圖,自動駕駛系統(tǒng)占主導;緊抓握-轉向或復雜路況的行駛意圖,駕駛員主導;危險(錯誤)抓握狀態(tài)-非正常行駛意圖,自動駕駛系統(tǒng)需要給出報警提示或正確引導)的準確識別,對將來人機共享控制中車輛輔助駕駛系統(tǒng)的研究具有重要的理論和應用價值。
基于觸覺反饋的變阻抗控制已成為機器人領域中處理人機交互的重要方法,但在智能汽車的人機共享控制領域還鮮有應用。駕駛員和汽車之間轉向盤力是一個動態(tài)交互的過程,駕駛員手部肌肉產(chǎn)生的阻抗特性會隨著不同環(huán)境下的不同的駕駛意圖而改變,通過引入觸覺信息實現(xiàn)變阻抗控制以為人機共駕系統(tǒng)的設計提供新思路。未來,針對基于轉向盤的觸覺共享控制研究,可以考慮將觸覺信息和轉向盤的力矩相結合的方式,通過融合觸覺和力矩信息,將觸覺信息引入到人機共駕的力反饋設計中,實現(xiàn)緊急和放松任務的適時切換。既能保證駕駛員駕駛意圖的有效傳達,又能保證能夠根據(jù)駕駛員的操作意圖平穩(wěn)過渡控制權,使自動駕駛系統(tǒng)能夠生成適當大小的控制轉矩向駕駛人表達自身的駕駛意圖,協(xié)助駕駛員安全平穩(wěn)地完成駕駛任務。
[1] 楊俊儒,褚端峰,陸麗萍,等.智能汽車人機共享控制研究綜述[J].機械工程學報,2022,58(18):31-55.
[2] SAE On-road Automated Vehicle Standards Committee. Taxonomy and Definitions for Terms Related to Driv- ing Automation Systems for on-road Motorvehicles: SAE J30-16[S].Warrendale,PA:SAE International,2021.
[3] XING Y,HUANG C,Lü C.Driver-automation Colla- boration for Automated Vehicles:A Review of Human- centered Shared Control[C]// IEEE.2020 IEEE Intelli- gent Vehicles Symposium(IV).Piscataway:IEEE,2020: 1964-1971.
[4] NUNES A,REIMER B,COUGHLIN F. People Must Retain Control of Autonomous Vehicles[J].Nature, 2018,556:169-171.
[5] 胡云峰,曲婷,劉俊,等.智能汽車人機協(xié)同控制的研究現(xiàn)狀與展望[J].自動化學報,2019,45(7):1261-1280.
[6] 劉瑞,朱西產(chǎn),劉霖,等.基于非合作模型預測控制的人機共駕策略[J].同濟大學學報(自然科學版),2019, 47(7):1037-1045.
[7] 韓嘉懿,趙健,朱冰.面向智能汽車人機協(xié)同轉向控制的強化學習變阻抗人機交互方法[J].機械工程學報, 2022,58(18):141-149.
[8] WANG W,NA X,CAO D,et al.Decision-making in Driver-automation Shared Control:A Review and Perspectives[J].IEEE/CAA Journal of Automatica Sinica,2020,7(5):1289-1307.
[9] MUSLIM H,ITOH M.A Theoretical Framework for Designing Human-centered Automotive Automation Systems[J].Cognition,Technology & Work,2019,21(4): 685-697.
[10] 鄧力夫,羅嗣乾.人工智能時代汽車傳感器的現(xiàn)狀與展望[J].汽車實用技術,2021,46(2):204-206.
[11] 宗長富,代昌華,張東.智能汽車的人機共駕技術研究現(xiàn)狀和發(fā)展趨勢[J].中國公路學報,2021(6):214-237.
[12] 馮吉偉.基于駕駛員意圖識別的共駕型智能車輛轉向引導力矩控制研究[D].聊城:聊城大學,2023.
[13] 鄭亞奇.基于駕駛員意圖的智能車輛路徑跟隨研究[D].長沙:湖南大學,2023.
[14] 王暢.基于隱形馬爾科夫模型的駕駛員意圖辨識方法研究[D].長春:吉林大學,2011.
[15] 蕭超武.基于HMM的駕駛模式識別方法研究及應用[D].廣州:華南理工大學,2015.
[16] 弓馨.基于模糊邏輯的駕駛員制動意圖辨識方法研究[D].長春:吉林大學,2014.
[17] 王玉海,宋健,李興坤.基于模糊推理的駕駛員意圖識別研究[J].公路交通科技,2005,22(12):113-118.
[18] 趙楓.冰雪環(huán)境下基于神經(jīng)網(wǎng)絡的多參數(shù)駕駛員意圖識別[D].長春:吉林大學,2023.
[19] NGUYEN A T,SENTOUH C,POPIEUL J C.Driver Automation Cooperative Approach for Shared Steering Control Under Multiple System Constraints:Design and Experiments[J].IEEE Transactions on Industrial Electronics,2017,64(5):3819-3830.
[20] MA B,LIU Y L,NA X X,et al.A Shared Steering Con- troller Design Based on Steer-by-wire System Consi- dering Human-machine Goal Consistency[J].Journal of the Franklin Institute,2019,356(8):4397-4419.
[21] HUANG M Z,GAO W N,WANG Y B,et al.Data-driven Shared Steering Control of Semi-autonomous Vehicles [J].IEEE Transactions on Human-Machine Systems, 2019,49(4):350-361.
[22] 丁飛黎,乾龍,雷飛,等.動態(tài)軌跡跟蹤下力矩相關性驅動輔助的人機協(xié)同轉向預測控制策略研究[J].機械工程學報,2022,58(6):143-152.
[23] 鄧修金,王艷陽,黃秋實,等.基于觸覺引導的L2級智能汽車人機共享控制技術綜述[J].交通信息與安全, 2022,40(5):23-33.
Driver Intention Recognition Method Based on Touch Information
ZHANG Rui, ZHAO Shuai*, ZHANG Qingyu, ZHANG Xiao
( CATARC Intelligent and Connected Technology Corporation Limited, Tianjin 300000, China )
With the continuous development of artificial intelligence and autonomous driving technology, autonomous driving technology based on electrification, networking, intelligence, and sharing has become the main development direction of the future automotive industry. However, due to the limitations of current autonomous driving technology and relevant policies and regulations, it can be foreseen that human-machine co-driving will exist as a transitional stage towards autonomous driving for a long time.Therefore, this paper proposes a machine learning method based on convolutional neural networks to address the issue of driver operation intention recognition in human-machine co-driving. Starting from the steering wheel that the driver has the longest contact with, the problem of operation intention recognition is transformed into a problem of image classification and recognition through feature training of tactile pressure images, accurate identification of different driving intentions of drivers (grip driving intentions, grip driving intentions, dangerous driving intentions) has been achieved. The simulation results show that the accuracy of intention recognition exceeds 97%, which has important theoretical and practical value for the future research of vehicle assisted driving systems in human-machine co-driving control.
Autonomous driving; Human-machine co-driving; Intention recognition; Tactile infor- mation; Machine learning
U426.1
A
1671-7988(2023)22-49-11
10.16638/j.cnki.1671-7988.2023.022.010
張蕊(1993-),男,碩士,助理工程師,研究方向為智能網(wǎng)聯(lián)汽車仿真驗證技術,E-mail:zhangrui01@ catarc.ac.cn。
趙帥(1988-),男,碩士,高級工程師,研究方向為智能汽車場景仿真,E-mail:zhaoshuai@catarc.ac.cn。