李繼秀,李嘯天,劉子儀
(西南交通大學(xué) 唐山研究生院,唐山 063016)
在各大城市公共交通系統(tǒng)中,隨著人口密度的不竭增長(zhǎng),城市公共交通系統(tǒng)經(jīng)常出現(xiàn)滿載現(xiàn)象.乘客進(jìn)出公交車的人數(shù)信息是控制和管理公交車交通系統(tǒng)非常重要的一環(huán).早期計(jì)數(shù)的方法大部分為人工計(jì)數(shù),不僅耗時(shí)長(zhǎng),效率低下,而且消耗大量的人力物力,加重交通系統(tǒng)運(yùn)營(yíng)成本.深度卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展在特征提取上給視頻監(jiān)控下的交通控制帶來(lái)了驚人的便捷,可以端對(duì)端訓(xùn)練公交車視頻監(jiān)控場(chǎng)景下人群計(jì)數(shù)算法模型,省去了前景分割和人為地設(shè)計(jì)和提取特征等步驟,通過(guò)神經(jīng)網(wǎng)絡(luò)多層卷積之后得到的高層特征,能使得人群計(jì)數(shù)算法的功能愈加卓越,增強(qiáng)了人數(shù)統(tǒng)計(jì)數(shù)目的可信度.因此,本文提出基于深度卷積神經(jīng)網(wǎng)絡(luò)技術(shù)的公交車視頻監(jiān)控場(chǎng)景下的人數(shù)統(tǒng)計(jì)系統(tǒng),給公交車管理人員合理地調(diào)度車輛提供參考.
在許多基于視頻圖像處理的人流量統(tǒng)計(jì)技術(shù)中,根據(jù)檢測(cè)模塊的不同,可以分為人頭檢測(cè)[1,2]、頭肩檢測(cè)[3,4]和全身檢測(cè)[5].近些年,又發(fā)展了運(yùn)用卷積神經(jīng)網(wǎng)絡(luò)[2,6]實(shí)現(xiàn)人流量統(tǒng)計(jì).公交車的視頻監(jiān)控場(chǎng)景下進(jìn)行人數(shù)統(tǒng)計(jì)主要有三種:基于差分統(tǒng)計(jì)的公交車人流量統(tǒng)計(jì)[7,8]、基于計(jì)數(shù)線法和閾值法的公交車人流量統(tǒng)計(jì)[9]和基于使用塊運(yùn)動(dòng)功能的公交車人流量統(tǒng)計(jì)[1].
本課題的難點(diǎn)有三:首先,所針對(duì)的公交車視頻數(shù)據(jù)分辨率較低(352×288).且由視頻獲取的視頻幀圖像往往存在運(yùn)動(dòng)模糊的缺點(diǎn).其次,攝像頭角度覆蓋范圍廣.最后,本課題攝像頭角度與已知文獻(xiàn)中的公交車攝像頭角度有較大區(qū)別,傳統(tǒng)過(guò)線計(jì)數(shù)統(tǒng)計(jì)的方法無(wú)法適用本課題.本論文利用 SSD (Single Shot Detector)深度卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行人頭目標(biāo)檢測(cè),SORT (Simple Online and Real-time Tracking)目標(biāo)追蹤算法實(shí)現(xiàn)人頭的多目標(biāo)追蹤,跨區(qū)域人群計(jì)數(shù)方法統(tǒng)計(jì)公交車下車人數(shù).系統(tǒng)準(zhǔn)確率達(dá)到78.38%,實(shí)現(xiàn)了基于深度卷積神經(jīng)網(wǎng)絡(luò)模型實(shí)現(xiàn)公交車監(jiān)控場(chǎng)景下的人數(shù)統(tǒng)計(jì).
基于深度卷積神經(jīng)網(wǎng)絡(luò)算法實(shí)現(xiàn)公交車視頻監(jiān)控場(chǎng)景下的人群數(shù)量統(tǒng)計(jì),并實(shí)現(xiàn)一個(gè)監(jiān)控系統(tǒng),對(duì)人群數(shù)量和人群密度實(shí)施實(shí)時(shí)監(jiān)控、數(shù)據(jù)剖析.公交車視頻監(jiān)控場(chǎng)景下的人數(shù)統(tǒng)計(jì)的系統(tǒng)框架如圖1所示.主要是三大部分:公交車人頭目標(biāo)檢測(cè)、對(duì)人頭運(yùn)動(dòng)軌跡進(jìn)行目標(biāo)跟蹤、跨區(qū)域人數(shù)統(tǒng)計(jì).
圖1 系統(tǒng)框架
本章首先闡述數(shù)據(jù)集的分析和處理,然后運(yùn)用YOLO (You Only Look Once)兩個(gè)不同的版本和 Faster-RCNN (Faster Region based Convolutional Neural Network)以及SSD目標(biāo)跟蹤算法對(duì)公交車乘客進(jìn)行全身檢測(cè).然而在公交車這一特定視頻監(jiān)控場(chǎng)景空間里,由于攝像頭涉及空間狹小,行人之間遮擋嚴(yán)重,效果并不理想,漏檢率和誤檢率較高.故綜合考慮,本論文目標(biāo)檢測(cè)采取運(yùn)用Caffe-SSD網(wǎng)絡(luò)模型進(jìn)行人頭檢測(cè)的方法.再利用SORT目標(biāo)追蹤算法實(shí)現(xiàn)人頭的多目標(biāo)追蹤,最后結(jié)合跨線人群計(jì)數(shù)方法統(tǒng)計(jì)公交車下車人數(shù).
輸入視頻源,使用OpenCV計(jì)算機(jī)視覺庫(kù)的相關(guān)API庫(kù),來(lái)對(duì)輸入的200個(gè)原始視頻幀率為15FPS的視頻文件按每秒抽取一幀的方式切幀,得到公交車后門攝像頭所能覆蓋區(qū)域的306 712張圖片,圖片的分辨率是352×288.圖片涉及多種場(chǎng)景,包括白天、黑夜;涉及多種人群密度,包括擁擠、疏散等.
為了驗(yàn)證對(duì)乘客進(jìn)行全身檢測(cè)的可行性,本系統(tǒng)首先分別使用不同深度神經(jīng)網(wǎng)絡(luò)模型,如YOLO[10]模型,Faster-RCNN[11]模型,SSD[12]模型,設(shè)置置信度均為50%,對(duì)本論文使用的公交車上下車數(shù)據(jù)進(jìn)行目標(biāo)檢測(cè).檢測(cè)結(jié)果如圖2所示,圖2(a)是 YOLOv1-darknet網(wǎng)絡(luò)模型對(duì)行人進(jìn)行全身檢測(cè)的檢測(cè)結(jié)果,由圖可知,檢測(cè)結(jié)果較準(zhǔn)確,但系統(tǒng)識(shí)別框內(nèi)為“person”類的概率較低,置信度太低.圖2(b)是 YOLOv3-darknet模型檢測(cè)結(jié)果,由圖可知,識(shí)別框內(nèi)為“person”類的概率較高,但框中把兩個(gè)人識(shí)別為同一人.圖2(c)是VGG+Faster-RCNN模型檢測(cè)結(jié)果.識(shí)別框內(nèi)識(shí)別框內(nèi)為“person”類的概率較高,但把背景中的不是“person”的類別識(shí)別成了“person”類,誤檢率較高.圖2(d)是使用 SSD 模型對(duì)人數(shù)較少情況進(jìn)行全身檢測(cè)的檢測(cè)結(jié)果,圖2(e)是SSD模型對(duì)人數(shù)較多情況進(jìn)行全身檢測(cè)的檢測(cè)結(jié)果.由檢測(cè)結(jié)果可知,SSD模型無(wú)論在哪種人群密度下,都能較準(zhǔn)確識(shí)別出車中所有乘客,但全身檢測(cè)面積太大,不利于后續(xù)的目標(biāo)跟蹤和人群計(jì)數(shù).這是本論文選擇使用SSD模型作為目標(biāo)檢測(cè)的原因之一.
由圖2所知,圖片中的矩形框是模型識(shí)別出的乘客,雖然這些深度學(xué)習(xí)網(wǎng)絡(luò)模型都能在一定程度上識(shí)別出乘客,但由于公交車攝像頭覆蓋區(qū)域空間狹小,乘客之間存在嚴(yán)重遮擋,還有視頻抽幀存在的運(yùn)動(dòng)模糊等問(wèn)題.對(duì)乘客進(jìn)行全身檢測(cè),漏檢率和誤檢率都很高.考慮攝像頭角度問(wèn)題和乘客頭部面積較小且遮擋不嚴(yán)重等特征,同時(shí)為了便于實(shí)現(xiàn)目標(biāo)幀之間的乘客追蹤和人群計(jì)數(shù).因此本論文目標(biāo)檢測(cè)采用SSD深度神經(jīng)網(wǎng)絡(luò)模型對(duì)乘客進(jìn)行頭部檢測(cè).經(jīng)過(guò)手工標(biāo)注數(shù)據(jù)集,本論文最終選取了10 654張圖像用于標(biāo)注,其中70%的數(shù)據(jù)集用于訓(xùn)練,30%的數(shù)據(jù)集用于測(cè)試.
圖2 不同網(wǎng)絡(luò)模型對(duì)乘客進(jìn)行全身檢測(cè)結(jié)果
SSD[12]深度學(xué)習(xí)目標(biāo)檢測(cè)算法是在YOLO[10]算法上改進(jìn)而來(lái),基于端對(duì)端方法,無(wú)區(qū)域提名,使用 VGG-16-Atrous作為基礎(chǔ)網(wǎng)絡(luò),沿用了YOLO中直接回歸bbox和分類概率的方法,SSD與YOLO差異之處是除了在選取的5個(gè)特征圖上進(jìn)行預(yù)測(cè),還有在最終特征圖上做目標(biāo)檢測(cè).SSD還參考了Faster R-CNN目標(biāo)檢測(cè)算法,大批使用anchor來(lái)提升識(shí)別精確度,應(yīng)用全圖全部位置的多尺度區(qū)域特征并進(jìn)行回歸.由于結(jié)合這兩種結(jié)構(gòu),SSD 綜合了 Faster R-CNN 的 anchor box 和YOLO端對(duì)端的單個(gè)神經(jīng)網(wǎng)絡(luò)檢測(cè)思路.所以SSD能保持較高的識(shí)別準(zhǔn)確度和識(shí)別速度.
相比YOLO模型,SSD模型不僅在檢測(cè)速度上有了很大的提升,而且檢測(cè)識(shí)別精確度也有所加強(qiáng).SSD是YOLO的多尺度版本,由于YOLO對(duì)小目標(biāo)檢測(cè)效果不好,所以SSD在不同的feature map上分割成grid然后采用類似RPN的方式做回歸,較好地解決了這一問(wèn)題,因此本論文選擇的目標(biāo)檢測(cè)算法為SSD算法.
本論文首先創(chuàng)建VOC格式的數(shù)據(jù)集,所有人頭數(shù)據(jù)集均為手工標(biāo)注,耗費(fèi)了大量的人力.難點(diǎn)在于將自己的數(shù)據(jù)集整合到SSD卷積神經(jīng)網(wǎng)絡(luò)中,以期提高實(shí)驗(yàn)性能.數(shù)據(jù)集有多種種類,如JPG圖像、帶有數(shù)據(jù)標(biāo)注的XML文件、帶有圖像信息和標(biāo)注圖像坐標(biāo)等信息的TXT文件.文件歸類、訓(xùn)練集和測(cè)試集分別處理,并將數(shù)據(jù)集轉(zhuǎn)換為L(zhǎng)MDB格式.接著需要修改卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)代碼中相關(guān)路徑;修改Max_iter,分別為4000和8000,即訓(xùn)練和測(cè)試的迭代次數(shù);修改Batch_size,本文設(shè)為 16,既能較好提高內(nèi)存利用率,又能使修正方向得到較好的收斂;修改學(xué)習(xí)率,使得學(xué)習(xí)率隨著訓(xùn)練幀數(shù)的變化而變化,防止過(guò)擬化;設(shè)置置信度為50%,當(dāng)目標(biāo)檢測(cè)結(jié)果在置信區(qū)間內(nèi),就能檢測(cè)出來(lái);最后是設(shè)置了類的數(shù)量,本文只需用到一個(gè)類,故num_class設(shè)置為一加上類別數(shù)等于二.在VGG16+SSD網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上,結(jié)合本論文使用的公交車人頭檢測(cè)數(shù)據(jù)集,進(jìn)行了訓(xùn)練和測(cè)試.參考VGG16+SSD原文的網(wǎng)絡(luò)框架,配置網(wǎng)絡(luò)框架環(huán)境,讀取數(shù)據(jù)集中驗(yàn)證集和測(cè)試集的數(shù)據(jù).訓(xùn)練過(guò)程可視化結(jié)果如下:
(1)訓(xùn)練過(guò)程中迭代 40 000 次,準(zhǔn)確率呈曲線增長(zhǎng),后逐漸平緩,并逐漸穩(wěn)定在84.18%左右.訓(xùn)練迭代40 000次準(zhǔn)確率過(guò)程變化圖如圖3(a)所示;訓(xùn)練過(guò)程中迭代 80 000 次,準(zhǔn)確率在 84.20% 附近波動(dòng),最終準(zhǔn)確率為84.22%,比迭代40 000次的準(zhǔn)確率高了0.04%.訓(xùn)練迭代80 000次,準(zhǔn)確率過(guò)程變化圖如圖3(b)所示.
(2)為了獲得更好的訓(xùn)練效果,迭代 40 000 次訓(xùn)練過(guò)程中,學(xué)習(xí)率呈梯狀逐漸減小,迭代 40 000 次的學(xué)習(xí)率變化如圖4(a)所示;迭代 40 000 次到 80 000 次的學(xué)習(xí)率都是 0.000 000 01,如圖4(b)所示.
(3)迭代 40 000 次訓(xùn)練過(guò)程中,loss 函數(shù)的值呈曲線逐漸減小,并漸漸穩(wěn)定.在訓(xùn)練過(guò)程中l(wèi)oss丟失變化圖如圖5(a)所示;迭代 40 000 次到 80 000 次訓(xùn)練過(guò)程中,loss丟失值在 3 附近波動(dòng),和迭代 40 000 次效果差不多.在訓(xùn)練過(guò)程中l(wèi)oss丟失變化圖如圖5(b)所示.
本論文使用的目標(biāo)追蹤算法:SORT目標(biāo)追蹤算法[13].SORT目標(biāo)追蹤算法是一個(gè)通過(guò)對(duì)MOT基準(zhǔn)進(jìn)行測(cè)試來(lái)實(shí)現(xiàn)的基于深度學(xué)習(xí)的多目標(biāo)追蹤算法.盡管SORT目標(biāo)追蹤算法只是簡(jiǎn)單的結(jié)合了卡爾曼濾波器追蹤算法和匈牙利跟蹤算法,但是卻能有效將對(duì)象與聯(lián)機(jī)和實(shí)時(shí)應(yīng)用程序關(guān)聯(lián)起來(lái).同時(shí)又由于本論文使用的SORT算法方法簡(jiǎn)單,復(fù)雜度低,所以速度性能不錯(cuò),較好地協(xié)調(diào)了精度和速度,算法實(shí)時(shí)性好,能夠?qū)崿F(xiàn)在線更新.比其他在線追蹤器要快20倍左右.在本章中,由于基于CNN的檢測(cè)器的靈活性,它自然可以推廣到公交車頭部對(duì)象類.因而該方法適用于在公交車視頻監(jiān)控場(chǎng)景下對(duì)乘客進(jìn)行頭部跟蹤.
圖3 訓(xùn)練過(guò)程準(zhǔn)確率變化
本論文運(yùn)用了跨區(qū)域人群計(jì)數(shù)方法來(lái)做人流量統(tǒng)計(jì).算法的核心思想是通過(guò)劃定一個(gè)矩形區(qū)域,也就是劃線.如果框內(nèi)有人,結(jié)合目標(biāo)跟蹤,如果目標(biāo)運(yùn)動(dòng)N個(gè)像素點(diǎn)后消失,或人本不在框內(nèi),等待進(jìn)入框內(nèi)后,運(yùn)動(dòng)M個(gè)像素點(diǎn)后消失,上下車人數(shù)就加一.本文的人群計(jì)數(shù)算法增加了判斷功能,也就是誤檢的情況.誤檢的判斷條件為:是否小于60個(gè)像素點(diǎn).最終確定的計(jì)數(shù)算法的一些關(guān)鍵約束:行人在Y方向運(yùn)動(dòng)的距離閾值設(shè)置為25,劃線檢測(cè)的位置設(shè)置為85.本論文跨線人群計(jì)數(shù)技術(shù)的流程圖如圖6所示.
本文基于卷積神經(jīng)網(wǎng)絡(luò)的人頭檢測(cè)訓(xùn)練過(guò)程中,所使用的數(shù)據(jù)集包含多種人流量情況和不同的公交車行車環(huán)境,如圖7所示.保留置信度在 50%,模型每訓(xùn)練10張,記錄一次輸出結(jié)果.訓(xùn)練總時(shí)長(zhǎng)達(dá)50小時(shí),記錄了模型迭代 40 000 次和迭代 80 000 次的結(jié)果.設(shè)置訓(xùn)練過(guò)程中圖像的高為352,寬為288,每次訓(xùn)練的圖像數(shù)為16張,為了防止模型過(guò)擬化,所以學(xué)習(xí)率隨著訓(xùn)練圖像的增多,要逐漸減少.本系統(tǒng)目標(biāo)檢測(cè)無(wú)需分類,只有一個(gè)類.用于訓(xùn)練的數(shù)據(jù)集包括測(cè)量環(huán)境變化和乘客數(shù)量變化等多種情況,如圖7(a)-(d)所示,SSD網(wǎng)絡(luò)模型訓(xùn)練本論文使用的數(shù)據(jù)集的檢測(cè)結(jié)果如圖8所示,人頭目標(biāo)檢測(cè)準(zhǔn)確率約為84.22%.圖8(a)是乘客比較稀疏的檢測(cè)結(jié)果,雖然大部分人頭都檢測(cè)到了,但仍然存在一定的漏檢.圖8(b)是乘客比較密集的檢測(cè)結(jié)果,幾乎圖片中所有的人頭都檢測(cè)到了.圖8(c)是比較稀疏且光照環(huán)境為黑夜下的檢測(cè),檢測(cè)結(jié)果比較準(zhǔn)確,只有一個(gè)人頭沒有檢測(cè)到.圖8(d)是光照環(huán)境為黑夜,但漏檢率較高的情況.綜上所知,本系統(tǒng)公交車人頭檢測(cè)適用于各種光照環(huán)境.
圖4 訓(xùn)練過(guò)程中學(xué)習(xí)率的設(shè)定
圖5 訓(xùn)練過(guò)程中 loss丟失變化圖
圖6 跨線人群計(jì)數(shù)流程圖
本文對(duì)數(shù)據(jù)進(jìn)行了訓(xùn)練集、測(cè)試集進(jìn)行了公交車人頭檢測(cè).使用的檢測(cè)架構(gòu)是Caffe-SSD深度神經(jīng)網(wǎng)絡(luò)模型,人頭檢測(cè)結(jié)果準(zhǔn)確率約為84.22%.再由SORT目標(biāo)跟蹤算法集中處理幀到幀之間的關(guān)聯(lián),實(shí)現(xiàn)人頭檢測(cè)目標(biāo)的跟蹤.整合公交車人頭檢測(cè)、SORT目標(biāo)跟蹤和本論文使用的感興趣區(qū)域計(jì)數(shù)方法后,就完成了基于深度卷積神經(jīng)網(wǎng)絡(luò)的公交車人數(shù)統(tǒng)計(jì)系統(tǒng).由于每個(gè)視頻都包括很多下車片段,故隨機(jī)抽取了三個(gè)視頻樣本,運(yùn)行速率等于運(yùn)行總幀數(shù)和運(yùn)行時(shí)間的比值,視頻準(zhǔn)確率的計(jì)算方法等于時(shí)間段內(nèi)檢測(cè)人數(shù)和實(shí)際下車人數(shù)的比值.三段視頻運(yùn)行速率和準(zhǔn)確率信息表如表1所示,得出實(shí)驗(yàn)結(jié)果:本論文的公交車人數(shù)統(tǒng)計(jì)的系統(tǒng)準(zhǔn)確率約為78.38%,運(yùn)行速率約為每秒識(shí)別19.79幀.
人數(shù)稀疏情況下的目標(biāo)跟蹤和人數(shù)統(tǒng)計(jì)的追蹤效果如圖9(a)-(f)所示,這是比較有代表性的一組照片.是實(shí)現(xiàn)目標(biāo)跟蹤,以及乘客一旦下車就進(jìn)行的計(jì)數(shù)的效果連幀中能表現(xiàn)出下車過(guò)程的抽幀.圖中由點(diǎn)連成的曲線是乘客的運(yùn)動(dòng)軌跡,圖像左上角數(shù)字是當(dāng)前視頻的下車人數(shù),圖像中的兩條橫線是越區(qū)域人數(shù)統(tǒng)計(jì)劃定的矩形框,人頭上的數(shù)字是視頻中系統(tǒng)創(chuàng)建的第N條軌跡.可以看到乘客人頭形心中點(diǎn)離開矩形框后幾幀內(nèi),下車人數(shù)加一.
人數(shù)擁擠情況下的目標(biāo)跟蹤和人數(shù)統(tǒng)計(jì)的追蹤效果如圖10(a)-(f)所示,是檢測(cè)效果連幀中能表現(xiàn)出下車過(guò)程的抽幀.該視頻片段中,上一次下車的人數(shù)共有4人,故下車人數(shù)統(tǒng)計(jì)之前,左上角的數(shù)字即為4.圖10(a)和圖10(b)是乘客開始下車,圖10(c)是第一個(gè)人下車后,左上角下車人數(shù)加一;圖10(d)是第二個(gè)人下車后,下車人數(shù)再加一.接下來(lái)的檢測(cè)效果幀都是乘客下車,人數(shù)就自動(dòng)加一.圖10(e)是該下車片段的第40幀,可以看到左上角的數(shù)字由剛開始的4變成了11,圖10(f)中公交車開始關(guān)門,本次下車人數(shù)統(tǒng)計(jì)結(jié)束,共統(tǒng)計(jì)到7名乘客下車,實(shí)際下車人數(shù)為8名,可見系統(tǒng)有較高準(zhǔn)確率.
黑暗行車環(huán)境情況下的目標(biāo)跟蹤和人數(shù)統(tǒng)計(jì)的追蹤效果如圖11(a)-(f)所示.由于本論文使用的所有視頻數(shù)據(jù)中,黑暗行車環(huán)境數(shù)據(jù)本不多,而黑暗行車環(huán)境下乘客下車的數(shù)據(jù)為零,故只能在圖11系列圖片中看到系統(tǒng)檢測(cè)到乘客人頭,并對(duì)乘客人頭進(jìn)行追蹤的檢測(cè)效果.
圖7 數(shù)據(jù)集的多樣性
圖8 訓(xùn)練SSD網(wǎng)絡(luò)模型后的人頭檢測(cè)結(jié)果
表1 三段視頻運(yùn)行速率和準(zhǔn)確率信息表
特殊情況下,計(jì)數(shù)系統(tǒng)會(huì)存在小概率的誤檢漏檢.如圖12(a)到圖12(b)所示誤檢情況,如圓圈圈中的人頭所示,乘客未下車,卻進(jìn)行計(jì)數(shù).這種情況是乘客一直在劃定的矩形框內(nèi),若視頻連續(xù)幾幀沒有檢測(cè)到該人頭,計(jì)數(shù)系統(tǒng)則認(rèn)為是目標(biāo)運(yùn)動(dòng)了N個(gè)像素點(diǎn),并消失,并且大于60個(gè)像素點(diǎn),所以圖片左上角的計(jì)數(shù)加一.
圖9 稀疏情況下的目標(biāo)跟蹤和人數(shù)統(tǒng)計(jì)效果圖
圖10 擁擠情況下的目標(biāo)跟蹤和人數(shù)統(tǒng)計(jì)效果圖
圖11 黑夜情況下的目標(biāo)跟蹤和人數(shù)統(tǒng)計(jì)效果圖
圖12 誤檢情況
計(jì)數(shù)系統(tǒng)也存在小概率的漏檢情況.檢測(cè)過(guò)程中可能出現(xiàn)如圖13(a)-(d)所示情況,圓圈內(nèi)的乘客就是漏檢情況,乘客已經(jīng)下車,計(jì)數(shù)系統(tǒng)卻沒有加一.這是因?yàn)槌丝偷纳砀哌_(dá)不到我們劃定的矩形框感興趣區(qū)域,或者僅能達(dá)到矩形框的下框線,這樣就不能再框內(nèi)判斷乘客運(yùn)動(dòng)軌跡是否是向上運(yùn)動(dòng).同樣,圖13中左上角顯示的是此段視頻當(dāng)前已下車人數(shù)的總和.
最后,選取了和本文實(shí)現(xiàn)人群計(jì)數(shù)方法比較相近的文獻(xiàn)[2],并從目標(biāo)檢測(cè)方法、目標(biāo)跟蹤方法和人數(shù)統(tǒng)計(jì)方法和人數(shù)統(tǒng)計(jì)系統(tǒng)的準(zhǔn)確率這四個(gè)方面和本文所引用的文獻(xiàn)[2]做一個(gè)比較,比較結(jié)果如表2所示.本文運(yùn)用了較為先進(jìn)的SSD深度卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)了公交車人頭目標(biāo)檢測(cè),獲得了更高的人數(shù)統(tǒng)計(jì)系統(tǒng)準(zhǔn)確率.
圖13 漏檢情況
表2 實(shí)驗(yàn)結(jié)果和引用文獻(xiàn)的比較
本系統(tǒng)提出了一種基于深度卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)公交車視頻監(jiān)控場(chǎng)景中的人數(shù)統(tǒng)計(jì).該系統(tǒng)分三步走,首先是用Caffe-SSD神經(jīng)網(wǎng)絡(luò)框架進(jìn)行目標(biāo)檢測(cè),準(zhǔn)確率約為84.22%,運(yùn)行速率約為每秒識(shí)別19.79幀.然后是運(yùn)用SORT目標(biāo)跟蹤算法實(shí)現(xiàn)了公交車乘客多目標(biāo)追蹤,最后依靠越線人數(shù)統(tǒng)計(jì)技術(shù)對(duì)人群進(jìn)行人數(shù)統(tǒng)計(jì).兼顧檢測(cè)質(zhì)量與速度,實(shí)現(xiàn)了一個(gè)前后端均較穩(wěn)定的公交車人數(shù)統(tǒng)計(jì)系統(tǒng),且系統(tǒng)準(zhǔn)確率達(dá)78.38%.能夠較準(zhǔn)確對(duì)公交車下車人數(shù)進(jìn)行統(tǒng)計(jì),但也存在部分漏檢和誤檢的情況.本系統(tǒng)可初步試驗(yàn)用于城市公交系統(tǒng),幫助公交車運(yùn)營(yíng)管理人員分析客流量結(jié)果,從而合理地調(diào)度車輛.