国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度學(xué)習(xí)的智能交通燈設(shè)計

2024-10-31 00:00:00孔令龍任仕艷
現(xiàn)代信息科技 2024年17期

摘 要:針對傳統(tǒng)交通燈通行時間不靈活,通過對采集交通燈下的車流量信息進行了研究,設(shè)計了一種基于深度學(xué)習(xí)的智能交通燈。首先通過FCN提取車道線,使用聚類算法擬合車道線函數(shù);其次使用以VGG網(wǎng)絡(luò)作為模型的主干特征提取SSD網(wǎng)絡(luò)模型,檢測車輛的位置信息,將車輛的位置信息與車道線位置信息綜合起來,統(tǒng)計當前交通燈下的每個車道上的車流量信息,實驗結(jié)果表明,基于深度學(xué)習(xí)的智能交通燈系統(tǒng)實際的應(yīng)用過程中,車流量統(tǒng)計的精確度為90.69%,基本實現(xiàn)在現(xiàn)實環(huán)境的應(yīng)用。

關(guān)鍵詞:車輛檢測;SSD;FCN;智能交通

中圖分類號:TP391.4 文獻標識碼:A 文章編號:2096-4706(2024)17-0179-06

0 引 言

隨著社會和國民經(jīng)濟持續(xù)快速發(fā)展,人們的生活質(zhì)量不斷提高,全國汽車總量大幅度提高,至2022年11月底,全國汽車保有量已經(jīng)達到3.18億輛,汽車駕駛?cè)嗽黾又?.63億人,全國汽車總量年均增量大約為2 000萬輛,但長期以來,我國城市人均道路面積一直處于低水平狀態(tài),道路用地占城市用地的比重小,路網(wǎng)密度低,路網(wǎng)容量供給嚴重不足,隨即產(chǎn)生的交通問題也越來越多,給交通管理人員帶來了很大的負擔。因此設(shè)計一款智能交通燈,精確檢測各個車道上的車輛數(shù)據(jù),更精細的使用交通資源,成為一項迫切的需求。

傳統(tǒng)的交通燈是采取固定的通行時間,無法根據(jù)車流量的實時情況調(diào)整紅綠燈的通行時間,在車流量大的時間段,沒有足夠的通行時間,車流量小的時間段,通行時間過剩,對交通資源的利用率不高,容易導(dǎo)致交通問題的發(fā)生。對交通燈下的車輛進行精確的檢測,預(yù)測車輛的行駛方向,并根據(jù)這些實時信息動態(tài)調(diào)節(jié)紅綠燈的通行時間,是智能交通系統(tǒng)中主要的功能之一。

智能交通燈通常是基于單片機傳感器[1]或基于圖像處理[2-3]的方式實現(xiàn)。基于單片機傳感器的方式通常使用一個車流量計數(shù)器獲取車流量,構(gòu)造一個延時時間計算函數(shù),通過車流量、車速、車流密度等參數(shù)進行計算延時時間。這種方法構(gòu)造簡單,成本低,可以在單片機上運行,但是缺陷也非常明顯,首先無法精確統(tǒng)計車流量信息,不能準確獲取車輛的位置信息,實際部署難度大、誤差大、精度小。

基于圖像處理的車流量檢測最早使用的檢測方法是從視頻中提取有意義的代表性的圖像特征,例如通過輪廓、圖像直方圖、差分等方法獲取車輛特征[4]。竇菲等通過OpenCV實現(xiàn)的道路分析系統(tǒng)[5],通過幀差法取出視頻中的背景,使用背景與后續(xù)的視頻作差分,可以得到視頻中運動的物體,再通過Mean Shift算法[6]跟蹤視頻中的車輛。傳統(tǒng)的圖像處理算法雖然在一定程度上解決了車輛檢測問題,但是傳統(tǒng)的車輛檢測方法受限于人工設(shè)計的特征優(yōu)劣,人工設(shè)計的特征往往依賴設(shè)計時的具體環(huán)境,當外界環(huán)境變化大時,無法提供一個準確的結(jié)果。并且小目標檢測效果不佳,受環(huán)境影響較大,低泛化,很難在日常的復(fù)雜環(huán)境下應(yīng)用。

隨著近年來深度學(xué)習(xí)的發(fā)展,越來越多研究者將深度學(xué)習(xí)應(yīng)用在目標檢測任務(wù)中來,不再需要設(shè)計者對具體環(huán)境設(shè)計人工特征,機器學(xué)習(xí)到的特征可以在更多場合下使用,在國內(nèi)外,使用深度學(xué)習(xí)進行目標檢測任務(wù)[7-8]已經(jīng)成為一種趨勢,也有很多研究者將深度學(xué)習(xí)引入到車輛檢測和車道線識別任務(wù)中來,獲得了許多優(yōu)秀的成果。

鄧天民等人實現(xiàn)了一個基于FCN的車道線檢測方法[9],首先通過FCN進行語義分割,得到車道線的二值圖,其次通過DBSCAN算法聚類對每一條車道線進行區(qū)分,使用逆透視變換將彎曲的車道線轉(zhuǎn)換俯視圖下的直線,再擬合出車道線轉(zhuǎn)換回原有平面,上述兩種算法的疊加形成一個端對端系統(tǒng)提高了車道線的檢測能力,這個算法雖然可以有效擬合彎曲的車道線,但是由于其結(jié)構(gòu)較為復(fù)雜,需要計算和擬合的參數(shù)較多,檢測的速度較慢,且對于機器擬合的錯誤結(jié)果,比較難以矯正和更改,這個方法更適合在自動駕駛中使用。

秦曉暉實現(xiàn)了一個基于計算機視覺的智能交通燈系統(tǒng)[10],通過SSD網(wǎng)絡(luò)進行目標檢測網(wǎng)絡(luò)實現(xiàn)的車輛檢測,通過一個延時計算模塊計算交通燈的通行時間,通過網(wǎng)絡(luò)通信模塊傳輸交通燈的時間數(shù)據(jù),實現(xiàn)動態(tài)調(diào)節(jié)通行時間,但是缺少車道線信息,不能對車輛進行更詳細的分類,延時計算不夠準確。

目前交通燈下的車流量統(tǒng)計還沒有一個較為完善的方案,本文設(shè)計了一種基于深度學(xué)習(xí)的智能交通燈,通過攝像機拍攝到的圖像,首先通過FCN提取車道線,對車道線進行聚類,擬合獲取車道線信息,通過對ROI(Region Of Interest)區(qū)域進行車輛檢測,獲取車輛信息,綜合車道線和車輛信息統(tǒng)計當前圖片中的每一個車道上的車流量。

1 總體設(shè)計方案

1.1 智能交通燈的設(shè)計框架

智能交通燈主要由5個模塊組成,包括數(shù)據(jù)采集模塊、車道線檢測模塊、車輛檢測模塊、信息傳輸模塊和延時計算模塊,首先數(shù)據(jù)采集模塊會取得交通燈下的圖像信息,通過車道線檢測模塊獲取車道線信息,同時選擇ROI區(qū)域進行車輛檢測獲取車輛信息,綜合車道線和車輛信息統(tǒng)計實時的當前車道的車輛數(shù)量,通過延時計算模塊計算交通燈的通行時間參數(shù),通過信息傳輸模塊與交通燈進行交互,按照計算的參數(shù)設(shè)置通行時間,智能交通燈的系統(tǒng)構(gòu)成如圖1所示。

1.2 數(shù)據(jù)采集模塊

數(shù)據(jù)采集模塊主要功能是獲取當前交通燈下的圖像信息,并對圖像進行預(yù)處理,更好地進行后續(xù)檢測工作,本文使用IP攝像頭作為數(shù)據(jù)采集模塊,對采集到的圖片進行自適應(yīng)圖像填充和裁剪等操作,輸入到下一個模塊。自適應(yīng)圖像填充是一個圖像縮放和裁剪,會根據(jù)采集到圖片的大小計算縮放比例參數(shù),最后將采集到的圖片縮放至合適的模型輸入大小。

1.3 車道線檢測模塊

車道線檢測的方法是通過語義分割網(wǎng)絡(luò)[11]與聚類算法結(jié)合,進行實例分割,將車道線從圖片中分離出來,對每一條車道線進行擬合得到車道線函數(shù)。本文使用FCN網(wǎng)絡(luò)做語義分割任務(wù),F(xiàn)CN網(wǎng)絡(luò)結(jié)構(gòu)簡單,速度快,通過VGG16網(wǎng)絡(luò)進行特征提取,對提取的特征進行反卷積放大,得到車道線的二值圖結(jié)果,車道線檢測結(jié)構(gòu)如圖2所示。

1.4 FCN基本原理

FCN的結(jié)構(gòu)由3部分組成:如卷積、反卷積和跳躍結(jié)構(gòu),F(xiàn)CN網(wǎng)絡(luò)結(jié)構(gòu)[12]如圖3所示。

FCN網(wǎng)絡(luò)使用VGG16的主干網(wǎng)絡(luò),使用卷積層代替VGG16的全連接層,取出VGG16 conv6-7的特征圖,由于經(jīng)過5次池化,特征圖與原圖相差32倍,所以需要做一次32倍上采樣,即可得到與原圖大小一致的語義分割圖FCN-32s,將VGG16 conv6-7特征圖與第四次池化的特征圖融合,進行16倍上采樣,由于同時包含多個層次的特征信息,我們可以獲得比FCN-32s更精細的FCN-16s語義分割圖,融合后的特征圖與第三次池化的特征圖再次融合進行8倍上采樣取得更精細的語義分割圖FCN-8s,F(xiàn)CN通過將一步到位的上采樣拆分成多步上采樣的方式,取得比直接上采樣更好的效果。

本文首先通過FCN進行語義分割,得到車道線的二值圖,對二值圖進行聚類,將每一個車道線實例化,使用最小二乘法進行擬合出車道線函數(shù),通常情況下,交通燈下的車道線可以視為直線,可以直接使用多項式擬合,如果對彎曲車道擬合結(jié)果有需求,可以加入一個逆透視變換矩陣的過程,對彎曲車道的擬合,一般不使用沒有限制條件的多項式,因為如果沒有限制函數(shù)的定義域,在沒有數(shù)據(jù)定義的部分,擬合的函數(shù)可能會出現(xiàn)偏差,本文建議可以使用三階貝塞爾函數(shù)擬合。在訓(xùn)練過程中,由于車道線相對于背景的像素比例較小,需要給予車道線較大的權(quán)重才能得到更好的訓(xùn)練結(jié)果,從圖片中提取車道線,原圖和車道線二值圖對比如圖4所示。

(a)車道線二值圖 (b)原圖

1.5 聚類算法

車道線二值圖是一張可以劃分車道線和背景的圖片,在車道線二值圖上車道線上像素點的值為1,背景上像素點值為0,而二值圖的表示公式如式(1):

(1)

其中PK(X,Y)為第K類物體的二值圖中各像素點像素值,G(x,y)為原圖中各個像素點的物體類別,對于第K類二值圖,只有原圖中像素點屬于K類物體才有值,否則值為0。

使用交叉熵作為損失函數(shù),計算每一個像素點的交叉熵,進行加權(quán)平均,交叉熵公式如式(2):

(2)

其中y為target,表示期望輸出,x為input,是實際輸出,C為類別數(shù)量,N為維度數(shù),W為每一個類的權(quán)重,通過公式可以判斷實際輸出與期望輸出的相似度,對每一個像素點求取交叉熵后,可以得到預(yù)測二值圖與期望輸出的損失。由于車道線相對背景的像素點較少,在計算損失函數(shù)過程中,一般設(shè)置車道線比背景的權(quán)重更大,本文車道線和背景的權(quán)重比為50:1。

取得車道線二值圖后,首先需要對圖片進行預(yù)處理,對車道線二值圖進行一次中值濾波,濾除二值圖中的噪點后,只保留圖片的下半部分,開始使用聚類算法進行聚類,具體步驟如下:

1)從圖片中的某高度選取所有數(shù)值的坐標,放入集合A1中,從圖片中去除這些點。

2)在A1中選取任意一個點,把這個點加入集合A3中,并在A1中刪除這個點,選取與該點距離小于10的所有點,將這些點放入A3,并從圖片中去除這些點。

3)尋找所有在A3內(nèi)的點距離小與10的點,將這些點加入集合A3,并在圖片中刪除這些點

重復(fù)2),直至沒有與A1點集相鄰,A3則表示某一條車道線的全部點集。

不斷重復(fù),直至圖片上所有點都聚類完成,刪除點數(shù)量較少的點集,保留下來的即是圖片中的車道線的點集,通過最小二乘法進行擬合,得到車道線函數(shù)。本文為了刪除和修改擬合和檢測錯誤的車道線,使用參數(shù)最少的一次函數(shù)進行擬合,只需確定兩個參數(shù)即可,唯一確定一條車道線函數(shù),當檢測的車道線錯誤時,最多修改兩個參數(shù),即可對檢測結(jié)果進行修改。

1.6 車輛檢測模塊

對于車輛檢測,首先要確定ROI區(qū)域,使用方框確定一個ROI區(qū)域,使用鼠標確定方框的兩個對角的坐標參數(shù),精細的劃分車道上的檢測區(qū)域,對這些區(qū)域進行目標檢測,計算車輛的位置屬于哪個類型的車道。

1.7 目標檢測

本文使用SSD(Single Shot MultiBox Detector)網(wǎng)絡(luò)[13]作為目標檢測網(wǎng)絡(luò),SSD網(wǎng)絡(luò)是一種多尺度的檢測方式,通過使用大尺度的先驗框和檢測器檢測大尺度的目標,小尺度的先驗框和檢測器檢測大尺度的目標,SSD網(wǎng)絡(luò)有6個不同的尺度分類器,這樣可以防止小目標在深層特征消失的問題,可以檢測不同尺度大小的物體,在遠處像素比較小的車輛也有較高的準確率,也使整個模型擁有較高的可靠性,SSD網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。

SSD網(wǎng)絡(luò)的特征提取網(wǎng)絡(luò)使用VGG16的前4層卷積,后續(xù)補充4層額外卷積層,提取出的第一個特征圖由于特征太淺,需要經(jīng)過一個歸一化模塊,按不同的特征圖尺度分配不同大小的先驗框,先驗框是一個不同尺寸的方框集合,當確定方框的尺寸和坐標后,還需要對計算方框的微調(diào)參數(shù),對先驗框進行微調(diào),得到目標的包圍框,使用非極大抑制,設(shè)置IoU的參數(shù)將所有尺度的包圍框綜合分析,得到最合適的包圍框結(jié)果,IoU是表示兩個框之間的重合程度的參數(shù),通過重合面積除以總面積求得。

1.8 非極大抑制

非極大抑制(Non-Maximum Suppression, NMS)是判斷臨近框是否屬于同一個目標的算法,SSD網(wǎng)絡(luò)會總共產(chǎn)生8 732個先驗框,可想而知很多先驗框是無用的,需要對檢測的結(jié)果進行篩選:

1)對于某個類別,將分類預(yù)測的置信度小于置信度閾值的框刪除。

2)將篩選后的框按照置信度降序排序。

3)對處理后的框進行NMS: 首先計算置信度最高的框與其他所有框的IoU,IoU 大于IoU 閾值則刪除;其次找到經(jīng)過第一步處理后另一個置信度最高的框, 重復(fù)第一步,直到所有框遍歷完成;最后對除背景以外的所有類別執(zhí)行篩選操作。

IoU是指方框之間的重疊面積,當兩個方框之間的重疊面積超過一個閾值時,可以認為這兩個包圍框所包圍的是同一個目標物體,只需保留置信度最高的一個包圍框即可。

1.9 SSD的損失函數(shù)分為置信損失和定位損失

在目標檢測前,首先確定ROI區(qū)域,將車道線進行細致的劃分,減少誤差的出現(xiàn),通過鼠標確定ROI區(qū)域的檢測范圍后,將ROI區(qū)域裁剪下來,將ROI裁剪的圖像通過自適應(yīng)圖像填充調(diào)整為300×300,輸入到車輛檢測模塊。

SSD網(wǎng)絡(luò)的損失函數(shù)包括置信損失和定位損失,首先需要將篩選后的框與真實框?qū)?yīng)起來,通過計算每個預(yù)選框之間的IoU,可以得到預(yù)測框與真實框的匹配關(guān)系,通過匹配關(guān)系計算置信損失,可以由交叉熵計算,計算真實框與預(yù)測框的Jaccard系數(shù),可以得到預(yù)測框與真實框的相似度,計算定位損失,Jaccard系數(shù)和損失函數(shù)的計算公式如式(3)和式(4)所示:

L=Lconf+aLloc (3)

(4)

其中式(3)表示整體損失由置信損失和定位損失構(gòu)成,式中α為定位損失的權(quán)重,默認為1,式中Lconf為置信度損失,表示物體包圍框內(nèi)的類別預(yù)測準確程度,通過匹配后框類型與真實類型的交叉熵計算,Lloc為定位損失,表示物體包圍框與真實框的相似程度,通過計算Jaccard系數(shù)得到,其中,|A∩B|為重合面積,|A|為第一個框的面積,|B|為第二個框的面積,Jaccard系數(shù)就是IoU,是兩個框的重合面積與總面積之比。

車輛檢測的輸出是車輛包圍框的左上角坐標與右下角坐標和置信度,通過包圍框的坐標點計算車輛的中心坐標,結(jié)合車道線函數(shù)計算車輛中心屬于第幾車道,統(tǒng)計各個車道上的車流量,車輛檢測的效果如圖6所示,從左到右分別為左轉(zhuǎn)車道、直行車道、右轉(zhuǎn)車道。

2 實驗結(jié)果與分析

2.1 實驗環(huán)境

GPU是一種圖形處理器技術(shù),他的設(shè)計之初是為了滿足視頻和游戲等行業(yè)的高分辨率、高幀率的圖像顯示,是為了更快速地計算圖像和圖形相關(guān)的運算而設(shè)計的,由于GPU優(yōu)秀的圖像運算和并行計算的能力,GPU也成為深度學(xué)習(xí)發(fā)展的巨大推動力,非常適合深度學(xué)習(xí)中的CNN、RNN和等復(fù)雜模型,本文使用MX350訓(xùn)練本文的所有模型,具體實驗配置如表1所示。

2.2 實驗數(shù)據(jù)

為了驗證真實環(huán)境下基于深度學(xué)習(xí)的智能交通燈設(shè)計的性能和可靠性,模擬交通燈的工作環(huán)境,對設(shè)計進行測試和評估驗證,我們使用天橋下的車流視頻對交通燈下的車流信息進行簡單模擬,錄制了10個不同車流視頻,每個視頻5分鐘,在車流量較少的時段,錄制2個空曠車道的視頻,每個視頻30 s。

主要評估項目為FPS(幀率)和精確度P(Precision),將視頻中指定時間段固定區(qū)域內(nèi)的各個車道的車輛信息人工記錄下來,當系統(tǒng)檢測這段時間的車流量時,與人工記錄的數(shù)據(jù)對比得出系8704fadbff8cd389f1fd87d78f374dad022746c19614a7863f893434cb91f981統(tǒng)的準確度。

首先將模型部署好,這里使用Torchserve配置模型,簡單修改配置文件后,檢查是否部署成功,這里的localhost請根據(jù)真實的IP填寫。模型部署成功圖如圖7所示。

部署成功后,將視頻幀輸入配置文件設(shè)置的端口,模型即可正常工作開始測試。

2.3 評估指標

本文使用2個指標作為車輛識別準確度的評估標準,精確度(P)和幀率FPS。計算公式如式(5)、式(6)所示:

(5)

(6)

其中準確率P為預(yù)測正確的數(shù)量與總數(shù)之比,TP為樣本中預(yù)測正確的數(shù)量,F(xiàn)P為樣本中預(yù)測錯誤的數(shù)量,F(xiàn)PS為每秒處理的幀數(shù),處理圖像數(shù)量和時間之比,F(xiàn)rameNum為處理的整體圖像數(shù)量,ElapsedTime為處理的時間。

本文使用一個自制數(shù)據(jù)集測試,數(shù)據(jù)集由視頻和標簽組成,標簽內(nèi)標識對應(yīng)的視頻名字和對應(yīng)幀數(shù)內(nèi)的各個車道車流量,例如在200幀到400幀內(nèi)左轉(zhuǎn)車道3輛車、直行車道4輛車、右轉(zhuǎn)車道5輛車,可以表示為200,3,4,5,400,測試實際結(jié)果與檢測結(jié)果的誤差,使用精確度P作為評估標準。

為了驗證設(shè)計的泛化能力,本文使用在玉林市天橋上拍攝的道路視頻制作的測試數(shù)據(jù)集,視頻在三個時間段進行拍攝,分為早上和夜間2個不同種類的視頻,分別測試在不同時間段中,系統(tǒng)的性能表現(xiàn),測試結(jié)果如表2所示。

智能交通燈在光線充足的情況下準確率在90.69%,最遠可以檢測到50 m以內(nèi)的車輛,可以檢測到視頻2/3的區(qū)域,在30 m到50 m對于部分重疊在一起的車輛檢測正確檢測不穩(wěn)定,容易將重疊的兩輛車輛檢測成為一個車輛,在30 m以內(nèi)重疊車輛的檢測更加穩(wěn)定,基本不犯錯誤,夜間檢測由于車輛的輪廓和邊界沒有日間明顯,導(dǎo)致車輛檢測的錯誤率急劇上升。

3 結(jié) 論

本文對目前的傳統(tǒng)交通燈存在的缺陷進行分析,對智能交通燈的主要功能進行設(shè)計。首先使用計算機視覺的方式統(tǒng)計各個車道的車流量信息,比原有的傳感器檢測檢測范圍更廣、車流量信息更豐富、準確率更高,使用這些數(shù)據(jù)通過交通判決系統(tǒng),可以實現(xiàn)對交通燈的動態(tài)調(diào)節(jié),更好地利用交通路網(wǎng),減少交通問題的發(fā)生,在日常出行有更好的體驗。

參考文獻:

[1] 林春雨,代春宇,田偉,等.基于車流量檢測的智能交通燈控制系統(tǒng)設(shè)計與實現(xiàn) [J].無線互聯(lián)科技,2021,18(18):77-78.

[2] 李克文,楊建濤,黃宗超.基于邊界極限點特征的改進YOLOv3目標檢測 [J].計算機應(yīng)用,2023,43(1):81-87.

[3] 趙奇慧,劉艷洋,項炎平.基于深度學(xué)習(xí)的單階段車輛檢測算法綜述 [J].計算機應(yīng)用,2020,40(S2):30-36.

[4] 李凌,李一平.一種基于輪廓和混合高斯模型的運動車輛視頻檢測方法 [J].吉林師范大學(xué)學(xué)報:自然科學(xué)版,2013,34(4):64-67.

[5] 竇菲,劉新平,王風(fēng)華.基于OpenCV的道路視頻分析系統(tǒng) [J].計算機系統(tǒng)應(yīng)用,2017,26(8):94-98.

[6] 韓俊,王保云.MeanShift算法在圖像分割中的應(yīng)用 [J].現(xiàn)代計算機,2021,27(33):71-76.

[7] 伍瀚,聶佳浩,張照娓,等.基于深度學(xué)習(xí)的視覺多目標跟蹤研究綜述 [J].計算機科學(xué),2023,50(4):77-87.

[8] 楊鋒,丁之桐,邢蒙蒙,等.深度學(xué)習(xí)的目標檢測算法改進綜述 [J].計算機工程與應(yīng)用,2023,59(11):1-15.

[9] 鄧天民,蒲龍忠,萬橋.改進FCN的車道線實例分割檢測方法 [J].計算機工程與設(shè)計,2022,43(10):2935-2943.

[10] 秦曉暉.基于計算機視覺的流量監(jiān)控智能交通燈系統(tǒng)的設(shè)計與實現(xiàn) [J].軟件工程,2021,24(7):43-45.

[11] 王漢譜,瞿玉勇,劉志豪,等.基于FCN的圖像語義分割算法研究 [J].成都工業(yè)學(xué)院學(xué)報,2022,25(1):36-41.

[12] 黃子蘭.基于語義分割的復(fù)雜場景下的車道線識別 [D].石家莊:石家莊鐵道大學(xué),2023.

[13] 宋曉茹,劉康,高嵩,等.基于深度學(xué)習(xí)的軍事目標識別算法綜述 [J].科學(xué)技術(shù)與工程,2022,22(22):9466-9475.

作者簡介:孔令龍(2000—),男,漢族,廣西桂平人,電子工程師,本科在讀,研究方向:機器學(xué)習(xí)、人工智能;任仕艷(2000—),女,漢族,貴州羅甸人,本科在讀,研究方向:機器學(xué)習(xí)、人工智能。

DOI:10.19850/j.cnki.2096-4706.2024.17.035

收稿日期:2024-03-10

Design of Intelligent Transportation Light Based on Deep Learning

KONG Linglong, REN Shiyan

(Yulin Normal University, Yulin 537000, China)

Abstract: In view of the inflexibility of the passage time in traditional transportation light, an intelligent transportation light based on Deep Learning is designed through research on the traffic flow information collected under the transportation light. Firstly, the lane lines are extracted using FCN, and a clustering algorithm is used to fit the lane line function. Secondly, the SSD network model is extracted, with the VGG network as the backbone feature of model, to detect the positional information of vehicles, and the positional information of vehicles is combined with the positional information of lane lines to count the traffic flow information of each lane under the transportation light. The experimental results show that the intelligent transportation light system based on Deep Learning has an accuracy of 90.69% in the actual application process, which is basically applied in the real environment.

Keywords: vehicle detection; SSD; FCN; intelligent transportation

秦安县| 翼城县| 蚌埠市| 法库县| 乐陵市| 农安县| 陵水| 惠东县| 东光县| 高邮市| 白水县| 伊金霍洛旗| 芮城县| 苏尼特左旗| 志丹县| 青河县| 社会| 鄂温| 镇江市| 舟山市| 天峻县| 县级市| 台东市| 奇台县| 凤翔县| 江都市| 博湖县| 浙江省| 葵青区| 公主岭市| 安义县| 永平县| 建昌县| 乐安县| 博罗县| 蓬溪县| 青铜峡市| 镇宁| 桃园县| 杂多县| 望谟县|