国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進(jìn)YOLOv4 算法的動(dòng)車庫接地桿狀態(tài)檢測(cè)

2022-06-02 13:05劉強(qiáng)李鵬鄒一鳴熊歆斌陳金源鄭衡
關(guān)鍵詞:池化聚類精度

劉強(qiáng),李鵬,鄒一鳴,熊歆斌,陳金源,鄭衡

(1.五邑大學(xué) 軌道交通學(xué)院,廣東 江門 529020;2.北京鐵道工程機(jī)電技術(shù)研究所股份有限公司,北京 100071)

目前,動(dòng)車組檢修作業(yè)多采用人工登頂列車作業(yè)的方式. 在動(dòng)車檢修作業(yè)前,需對(duì)檢修庫內(nèi)對(duì)應(yīng)作業(yè)股道接觸網(wǎng)斷電,并且在檢修庫兩端手動(dòng)掛接接地桿、在重連端(股道中部)電動(dòng)掛接接地桿[1];作業(yè)完成后,需摘除已掛接的接地桿為接觸網(wǎng)供電. 在工人申請(qǐng)登頂作業(yè)前以及檢修作業(yè)完成后,均需要調(diào)度人員在調(diào)度室通過攝像頭一一確認(rèn)各接地桿的掛摘狀態(tài)并記錄,不僅耗時(shí)費(fèi)力,而且存在人為不確定因素. 據(jù)合作動(dòng)車段統(tǒng)計(jì),自動(dòng)車所運(yùn)營以來,已多次發(fā)生因人員確認(rèn)重連端接地桿掛接狀態(tài)錯(cuò)誤而導(dǎo)致接觸網(wǎng)通過接地桿大電流對(duì)地放電或帶負(fù)載斷電而損壞供電設(shè)施的事故,造成了巨大的損失.

目標(biāo)檢測(cè)技術(shù)通過圖像處理算法對(duì)目標(biāo)進(jìn)行特征提取,再根據(jù)提取的特征區(qū)分出目標(biāo). 傳統(tǒng)的圖像處理技術(shù)識(shí)別速度很快,但是,該類算法受環(huán)境干擾大,對(duì)于背景復(fù)雜目標(biāo)的特征提取非常困難,而且目標(biāo)發(fā)生形態(tài)變換、光照變化等情況時(shí),其識(shí)別精度就會(huì)大大降低甚至需要重新設(shè)計(jì)檢測(cè)算法. 與傳統(tǒng)方法相比,深度學(xué)習(xí)算法不需要人工提取目標(biāo)特征,神經(jīng)網(wǎng)絡(luò)會(huì)獨(dú)立地學(xué)習(xí)相關(guān)屬性,對(duì)于以不同形式出現(xiàn)的目標(biāo)或特征,以及目標(biāo)背景、環(huán)境的變換都有很強(qiáng)的適應(yīng)能力,不需要針對(duì)每個(gè)可能的特性進(jìn)行專門的訓(xùn)練,提高了檢測(cè)算法的魯棒性. 現(xiàn)階段提出的基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法主要分為兩類,一類為 Two-stage 方法,該方法將目標(biāo)檢測(cè)分為定位和分類兩個(gè)步驟,代表算法有R-CNN、Fast R-CNN、Faster R-CNN 等. 另一類為One-stage 方法,該方法直接將定位和分類融合在一起,實(shí)現(xiàn)端到端計(jì)算,代表算法有YOLO、SSD、Retina-Net 等[2]. Two-stage 方法會(huì)對(duì)每一個(gè)可能包含目標(biāo)的區(qū)域進(jìn)行檢測(cè),其識(shí)別準(zhǔn)確度較高,但大量的計(jì)算會(huì)影響網(wǎng)絡(luò)的檢測(cè)速度,在實(shí)際工程運(yùn)用中達(dá)不到實(shí)時(shí)檢測(cè)的要求. One-stage 方法犧牲了少量的檢測(cè)準(zhǔn)確度,但大大提高了檢測(cè)速度,檢測(cè)效率良好[3]. 鑒于檢修庫內(nèi)接地桿所處背景環(huán)境比較復(fù)雜,接地桿狀態(tài)也會(huì)發(fā)生改變,傳統(tǒng)的圖像處理方法不能很好地對(duì)接地桿進(jìn)行檢測(cè),本文采用改進(jìn)的深度學(xué)習(xí)YOLOv4 算法作為重連端接地桿的狀態(tài)檢測(cè)算法,以期對(duì)檢修庫內(nèi)重連端接地桿接地狀態(tài)進(jìn)行準(zhǔn)確檢測(cè),從而保證工人施工以及動(dòng)車段內(nèi)設(shè)備的安全.

1 YOLOv4 算法原理

YOLOv4 算法是對(duì)YOLOv3 算法改進(jìn)優(yōu)化而來的,其網(wǎng)絡(luò)模型結(jié)構(gòu)如圖1 所示. YOLOv4 算法的主干特征提取網(wǎng)絡(luò)(Backbone)部分將CSPNet 網(wǎng)絡(luò)結(jié)構(gòu)與Darknet53 中的殘差模塊結(jié)合在一起,以增強(qiáng)網(wǎng)絡(luò)的學(xué)習(xí)效率、減少計(jì)算參數(shù)量,故檢測(cè)精度比YOLOv3 網(wǎng)絡(luò)有很大的提升[4]. Neck 部分采用空間金字塔池化(Spatial Pyramid Pooling,SPP)[5]、特征金字塔(Feature Pyramid Net-works,F(xiàn)PN)[6]和路徑聚合網(wǎng)絡(luò)(Path Aggregation Network,PAN)方式[7]. SPP 模塊的加入提高了圖像的尺度不變性,降低了過擬合,使得主干特征的接收范圍增大,顯著分離了重要的上下文信息.FPN+PAN 結(jié)構(gòu),是通過FPN 將高層的強(qiáng)語義特征傳遞下來,以增強(qiáng)了整個(gè)特征金字塔;在后面添加一個(gè)自底向上的金字塔,將低層次的強(qiáng)定位特征傳遞上去,彌補(bǔ)了金字塔僅增強(qiáng)語義信息、缺失定位信息的短板. YOLO-head 部分采用CIOU_Loss 和DIOU_nms 算法,提升了檢測(cè)框的檢測(cè)精度與速度.

圖1 YOLOv4 網(wǎng)絡(luò)結(jié)構(gòu)模型圖

YOLOv4 的主干特征提取網(wǎng)絡(luò)采用Mish 激活函數(shù),其公式如下:

如圖2 所示,Mish 函數(shù)有效避免了邊界值過高封頂而導(dǎo)致飽和,能獲得可靠的準(zhǔn)確性和泛化性[8].

圖2 Mish 激活函數(shù)

YOLOv4 網(wǎng)絡(luò)的損失函數(shù)采用CIOU-Loss 損失函數(shù),公式如下:

2 YOLOv4 算法改進(jìn)

2.1 K-means 算法

原YOLOv4 算法的錨框值是基于VOC 數(shù)據(jù)集生成的,與本文的接地桿沒有良好的匹配度,并且 K-means 算法本身存在一定的局限性,其聚類結(jié)果受初始值選取的影響. 因此,本文采用K-means++算法對(duì)初始值進(jìn)行重新聚類[10],步驟如下:

1)在接地桿數(shù)據(jù)集中隨機(jī)初始化一個(gè)聚類中心;

2)計(jì)算數(shù)據(jù)集中的每個(gè)點(diǎn)和與之相近的聚類中心的距離;

3)選擇一個(gè)新的數(shù)據(jù)點(diǎn)作為新的聚類中心,距離越大,被選中的概率就越高;

4)重復(fù)上述2)、3)步,直到選出K 個(gè)聚類中心;

5)得出的K 個(gè)聚類中心再運(yùn)用K-means 算法進(jìn)行計(jì)算,獲得想要的結(jié)果.

2.2 CBAM 注意力模塊

注意力模塊模仿了人在學(xué)習(xí)時(shí)專注自己感興趣的事物而忽視無關(guān)事物的特性. 如圖 3 所示,它由通道注意力與空間注意力串聯(lián)組合而成,其中,通道注意力關(guān)注輸入特征,空間注意力關(guān)注最具信息量的特征部分[11]. 輸入特征先與通道優(yōu)化權(quán)重進(jìn)行乘積,獲得的特征再與空間優(yōu)化權(quán)重進(jìn)行乘積,最終獲得新特征,極大地節(jié)約了參數(shù)和計(jì)算量,提高了特征提取效率.

圖3 CBAM 注意力模塊

如圖4 所示,通道注意力模塊將輸入的特征F 分別進(jìn)行平均池化和最大池化,將兩種池化后的特征送入多層感知機(jī)(MutiLayer Perception,MLP)[12]網(wǎng)絡(luò)進(jìn)行計(jì)算,分別獲得平均池化特征最大池化特征相加并使用sigmoid 函數(shù)處理,獲得通道優(yōu)化權(quán)重

圖4 通道注意力模塊

如圖5 所示,空間注意力模塊對(duì)輸入特征進(jìn)行最大池化和平均池化,將得到的特征在空間方向上堆疊(Concat)并進(jìn)行卷積操作,輸出特征再用sigmoid 函數(shù)處理,最后獲得空間優(yōu)化權(quán)重

圖5 空間注意力模塊

2.3 改進(jìn) SPP 結(jié)構(gòu)

在 YOLOv4 網(wǎng)絡(luò)中,Neck 部分采用空間池化金字塔結(jié)構(gòu)(SPP),分別使用 1×1、5×5、9×9、13×13等4 個(gè)尺度的卷積核對(duì)輸入的特征圖進(jìn)行最大池化操作,然后把已池化的特征圖與未池化前的特征圖堆疊在一起,最終獲取特征圖局部與全局的感受野信息[13]. 根據(jù)本文實(shí)驗(yàn)背景,檢修庫內(nèi)背景比較復(fù)雜且被檢測(cè)目標(biāo)與背景的相似程度較高,采用最大池化會(huì)損失接地桿部分信息,進(jìn)而影響識(shí)別精度. 針對(duì)該問題,本文對(duì)SPP 結(jié)構(gòu)進(jìn)行修改,改進(jìn)的SPP 結(jié)構(gòu)在池化部分采用平均池化的方法,能夠有效保留接地桿信息,同時(shí)適度減小卷積核的大小以減少計(jì)算量.

3 實(shí)驗(yàn)與結(jié)果分析

3.1 圖像數(shù)據(jù)與網(wǎng)絡(luò)訓(xùn)練

本實(shí)驗(yàn)所需數(shù)據(jù)集通過現(xiàn)場(chǎng)安裝的邊緣計(jì)算模塊進(jìn)行自動(dòng)采集,在合作動(dòng)車運(yùn)用所內(nèi)獲取接地桿視頻文件. 逐幀提取獲取的視頻形成大量包含接地桿的圖片,對(duì)這些圖片進(jìn)行篩選,去掉模糊、缺失信息重復(fù)率高的,最后生成1 000 張接地桿圖片集. 對(duì)比正負(fù)樣本數(shù)量,對(duì)數(shù)據(jù)集進(jìn)行擴(kuò)充,分別對(duì)圖片采用鏡像對(duì)稱、添加噪聲、色彩變換等操作,最終形成5 000 張可用圖片集. 采用LabelImg對(duì)圖片集進(jìn)行標(biāo)注,生成YOLOv4 算法所需的txt 文件格式數(shù)據(jù):其中4 000 張圖片作為訓(xùn)練集,1 000張圖片作為測(cè)試集.

實(shí)驗(yàn)采用的硬件配置為Intel(R) Xeon(R) CPU、NVIDIA Geforce RTX 2080 Ti 顯卡、Linux 操作系統(tǒng);軟件環(huán)境為CUDA 11.0、Cudnn 8.0、Tensorflow 深度學(xué)習(xí)框架. 選取Adam 優(yōu)化器,采用Mosaic數(shù)據(jù)增強(qiáng)方式,余弦退火學(xué)習(xí)率,Batchsize 設(shè)置為8.

3.2 評(píng)價(jià)指標(biāo)

在模型評(píng)估中,需要選取評(píng)價(jià)指標(biāo)對(duì)模型性能進(jìn)行評(píng)估,通常需要計(jì)算精確度(Precision)、召回率(Recall)、平均精度 AP(Average Precision)以及均值平均精度(Mean Average Precision,mAP).在實(shí)際開發(fā)中,對(duì)網(wǎng)絡(luò)的檢測(cè)速度也有一定的要求,檢測(cè)速度由每秒傳輸幀數(shù)(Frames Per Second,F(xiàn)PS)決定[14],F(xiàn)PS 值越大網(wǎng)絡(luò)檢測(cè)速度越快.

3.3 實(shí)驗(yàn)結(jié)果與分析

采用改進(jìn)的 K-means 算法篩選出適用于本數(shù)據(jù)集的錨框,共生成 9 個(gè)框,分別是(15,121),(32,347),(37,347),(44,124),(94,325),(108,55),(111,59),(192,264),(269,152). 由于新的錨框值根據(jù)既有數(shù)據(jù)集生成,可以與數(shù)據(jù)集中目標(biāo)大小快速匹配,故能提高模型的訓(xùn)練速度. 算法改進(jìn)前后的實(shí)驗(yàn)結(jié)果如表1 所示.

表1 算法改進(jìn)前后對(duì)比

由表1 可知,本文改進(jìn)算法在精度上比原YOLOv4 算法分別提高了3.36%(close 檢測(cè))和1.67%(open 檢測(cè)),mAP 值提高了2.51%,說明本文改進(jìn)算法在提高檢測(cè)精度上是有效的;在速度上,與原YOLOv4 算法相比提高了大約5 f/s,檢測(cè)速度有一定提升. 本文改進(jìn)算法不論是在精度上還是檢測(cè)速度上都要優(yōu)于原YOLOv4 算法,證實(shí)了本文算法有一定的魯棒性.

為了進(jìn)一步驗(yàn)證本文算法的檢測(cè)性能,我們用相同的數(shù)據(jù)集對(duì)Faster R-CNN 算法、SSD 算法進(jìn)行網(wǎng)絡(luò)訓(xùn)練,其訓(xùn)練結(jié)果與本文方法的對(duì)比如表2 所示. 由表2 可知,在檢測(cè)精度上,本文算法比Faster R-CNN 算法、SSD 算法分別高出了7.23%和11.13%;在檢測(cè)速度上,比Faster R-CNN、SSD算法分別提高了12.9 f/s 和4.4 f/s. 證明了本文改進(jìn)算法的有效性和優(yōu)勢(shì).

表2 不同算法對(duì)比結(jié)果

用測(cè)試集對(duì)改進(jìn)后網(wǎng)絡(luò)模型進(jìn)行測(cè)試的結(jié)果如圖6 所示:圖中接地桿均能被正確檢測(cè)識(shí)別;對(duì)于和背景相似的接地桿,如較遠(yuǎn)處的接地桿,用肉眼很難分辨,但本文算法也能很好地識(shí)別出來. 證明了本文提出的改進(jìn)的YOLOv4 算法對(duì)接地桿識(shí)別方法是可靠的.

圖6 測(cè)試集圖片測(cè)試結(jié)果

將改進(jìn)算法部署在合作動(dòng)車段內(nèi)邊緣計(jì)算模塊中進(jìn)行實(shí)際測(cè)試,部分測(cè)試結(jié)果如圖7 所示.

圖7 實(shí)際檢測(cè)結(jié)果

從圖7 可以看出,本文算法在實(shí)際檢測(cè)中能夠正確識(shí)別接地桿目標(biāo),且識(shí)別置信度也比較高. 對(duì)比測(cè)試集測(cè)試結(jié)果,實(shí)際檢測(cè)結(jié)果會(huì)損失部分目標(biāo)置信度,一方面是由于在實(shí)際部署中對(duì)模型進(jìn)行了剪枝操作;另一方面檢測(cè)圖像與訓(xùn)練圖像有差異也會(huì)產(chǎn)生一定的干擾,但總體上對(duì)檢測(cè)結(jié)果準(zhǔn)確度影響不大. 統(tǒng)計(jì)兩周檢測(cè)結(jié)果,總共發(fā)起檢測(cè) 200 余次,每次均能正確檢測(cè)接地桿狀態(tài),檢測(cè)效果良好.

4 總結(jié)

本文提出了一種基于改進(jìn)YOLOv4 算法的動(dòng)車庫接地桿狀態(tài)檢測(cè)方法,運(yùn)用該算法對(duì)動(dòng)車庫內(nèi)接地桿的掛摘狀態(tài)進(jìn)行檢測(cè)驗(yàn)證實(shí)驗(yàn),結(jié)果表明該改進(jìn)方法對(duì)接地桿有不錯(cuò)的識(shí)別效果,檢測(cè)準(zhǔn)確度達(dá)到100%. 對(duì)于庫內(nèi)與背景相似的接地桿能夠準(zhǔn)確識(shí)別,且識(shí)別速度也快. 不足之處是該算法暫時(shí)無法識(shí)別電動(dòng)接地桿是否損壞,以及判斷電動(dòng)接地桿是處于由閉到開還是由開到閉的狀態(tài),后續(xù)會(huì)針對(duì)這些不足繼續(xù)完善算法模型.

猜你喜歡
池化聚類精度
基于不同快速星歷的GAMIT解算精度分析
基于高斯函數(shù)的池化算法
一種傅里葉域海量數(shù)據(jù)高速譜聚類方法
卷積神經(jīng)網(wǎng)絡(luò)中的自適應(yīng)加權(quán)池化
熱連軋機(jī)組粗軋機(jī)精度控制
一種改進(jìn)K-means聚類的近鄰傳播最大最小距離算法
AR-Grams:一種應(yīng)用于網(wǎng)絡(luò)輿情熱點(diǎn)發(fā)現(xiàn)的文本聚類方法
基于卷積神經(jīng)網(wǎng)絡(luò)和池化算法的表情識(shí)別研究
用于手寫漢字識(shí)別的文本分割方法
基于Spark平臺(tái)的K-means聚類算法改進(jìn)及并行化實(shí)現(xiàn)
调兵山市| 阜城县| 桑日县| 龙门县| 兴隆县| 东兰县| 临夏县| 正阳县| 延川县| 徐汇区| 宁乡县| 达日县| 苗栗市| 台中市| 广灵县| 靖宇县| 霍林郭勒市| 大荔县| 林周县| 拉萨市| 开江县| 获嘉县| 苏州市| 东宁县| 万全县| 乐业县| 龙胜| 龙海市| 和田县| 沂水县| 普格县| 普兰店市| 石门县| 聂拉木县| 通榆县| 胶州市| 屯昌县| 雷山县| 竹山县| 呼和浩特市| 莒南县|