国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于YOLOv7的顯著性目標檢測

2025-03-04 00:00:00劉偉楊蕾徐爭超龔大偉
物聯(lián)網(wǎng)技術 2025年5期
關鍵詞:目標檢測深度學習信息安全

摘 要:隨著信息顯示技術的持續(xù)發(fā)展,信息顯示的安全性問題愈發(fā)突出。信息加密顯示技術的實現(xiàn)依賴于目標檢測技術,需要根據(jù)不同信息的特點來選用相應的加密算法。為此,提出一種基于YOLOv7的顯著性目標檢測算法,該算法可以通過自建數(shù)據(jù)集標定顯著性區(qū)域,對模型進行訓練,并將得到的顯著性區(qū)域用于自適應加密顯示算法,以實現(xiàn)可分級的加密顯示。實驗結(jié)果表明,該模型性能優(yōu)越,有著較高的檢測準確率,能夠為后續(xù)針對敏感信息區(qū)域進行加密提供有力的支撐。

關鍵詞:YOLOv7;目標檢測;深度學習;信息安全;CBAM;加密顯示

中圖分類號:TP391 文獻標識碼:A 文章編號:2095-1302(2025)05-00-03

0 引 言

當前,隱私保護議題受到社會各界的廣泛關注,信息顯示安全也成為人們討論的熱點。主流的加密顯示技術通過生成與原圖相關性很高的干擾幀,將其與原圖疊加并進行前后幀間隔顯示,再通過主動式快門眼鏡在人眼接收端濾去干擾幀,從而達到加密顯示的目的[1]。干擾幀的生成需借助目標檢測算法檢測出顯著性區(qū)域,并根據(jù)區(qū)域內(nèi)容特點,選擇合適的自適應加密算法對區(qū)域進行加密。顯著性區(qū)域主要包括人臉和字符。本文提出一種基于YOLOv7的顯著性區(qū)域檢測算法,通過自建數(shù)據(jù)集訓練模型權(quán)重。當該算法與加密顯示技術相結(jié)合時,能夠廣泛應用于會議室、作戰(zhàn)室等場景,對多種類型的敏感信息進行加密處理,使得擁有不同權(quán)限的人僅能看到與其權(quán)限相匹配的保密信息。

1 研究現(xiàn)狀

本文提出了一種基于YOLOv7的顯著性目標檢測算法,該算法通過對圖像各個位置進行采樣分析,檢測是否存在特定對象,并根據(jù)測試結(jié)果動態(tài)調(diào)整區(qū)域邊界,從而更準確地預測對象的真實邊界框。當前,目標檢測技術主要分為附著錨點和非附著錨點兩類。無錨點算法能夠借助密集預測直接推測目標位置與尺度,但該方法往往會產(chǎn)生大量候選框,其中大部分為無目標的背景框,從而增加了計算負擔及誤檢風險。此外,對于體積小、不易察覺的目標,當感受野過大時,無法對目標進行準確提取,導致檢測精度下降。針對上述問題,本文選擇基于錨點的算法,其中一階段檢測算法將圖像分成若干網(wǎng)格,再利用聚類算法找出每個網(wǎng)格內(nèi)的錨點;二階段檢測算法,如Mask R-CNN[2]、Faster R-CNN[3]、Cascade R-CNN[4]等則使用區(qū)域建議網(wǎng)絡(RPN)篩選錨點。常見的一階段檢測算法包括YOLOv4[5]、YOLOv5[6]、SSD等。自2016年推出以來,YOLO已被廣泛應用于基于深度神經(jīng)網(wǎng)絡的實時目標識別和定位系統(tǒng),并且隨著不斷迭代和改進,YOLO在平衡速度和精度方面不斷精進,成為目標檢測的主流技術。YOLOv5作為YOLO系列的一個經(jīng)典版本,性能表現(xiàn)優(yōu)越。而YOLOv7在YOLOv5的基礎上將模型重新參數(shù)化引入到網(wǎng)絡架構(gòu)中,并提出了一種新的高效網(wǎng)絡結(jié)構(gòu)ELAN,以及一種包括輔助頭部的訓練方法。該方法使得YOLOv7得以在高達5~160幀/s的畫面刷新率下保持優(yōu)異的性能[7-9]。故本文選用YOLOv7作為本次研究的基準網(wǎng)絡。

2 目標檢測網(wǎng)絡

YOLOv7創(chuàng)新地引入了高效的ELAN網(wǎng)絡架構(gòu),以控制最長與最短的梯度路徑,優(yōu)化網(wǎng)絡特性學習并增強其抗干擾能力。圖1所示為ELAN網(wǎng)絡架構(gòu),該網(wǎng)絡由兩部分組成,第一部分采用1×1卷積對通道數(shù)進行調(diào)整;第二部分運用1×1卷積模塊與3×3卷積模塊對特征進行深度抽取。最后將兩個部分的特征融合,形成最終的特征提取結(jié)果。

3 CBAM-YOLOv7改進算法

CBAM即卷積塊注意力模塊,是一種輕量級的注意力機制,它融合了通道注意力和空間注意力兩個關鍵組件。圖2所示為CBAM模型結(jié)構(gòu),輸入特征F∈RC×H×W,進行通道注意力模塊一維卷積,則MC∈RC×1×1;將卷積結(jié)果和原圖點乘,進行空間注意力模塊二維卷積,則MS∈R1×H×W,再將輸出結(jié)果與原圖點乘[10]。

通道注意力模塊的核心任務在于增強各通道的特征表達能力??臻g注意力模塊的主要目的是凸顯圖像中不同位置的重要性。CBAM模塊通過自適應地學習通道和空間注意力權(quán)重,顯著提升了卷積神經(jīng)網(wǎng)絡的特征表達能力。通過將通道注意力和空間注意力相結(jié)合,CBAM模塊能夠同時捕捉不同維度上特征之間的相關性,進而優(yōu)化圖像識別的性能。

4 實驗與結(jié)果分析

4.1 自制數(shù)據(jù)集

圖像中的信息分為動態(tài)信息和靜態(tài)信息,動態(tài)信息包括移動的人或物體,常出現(xiàn)在畫面中部,表示情景、過程等信息;靜態(tài)信息包括相對靜止的說明性字符、符號、圖表等,常出現(xiàn)在畫面底部、側(cè)邊,表示狀態(tài)名稱、型號類別等信息。針對動態(tài)信息,需要對其運動變化趨勢進行跟蹤與標記,及時捕捉其位置,確保加密的全面性;針對靜態(tài)信息,其在畫面中的位置相對靜止,重點在于捕捉圖像內(nèi)部的光學特征,包括亮度、對比度、飽和度、邊緣信息豐富程度等,結(jié)合人眼的觀看習慣,針對性地進行加密。

人臉和字符檢測作為計算機視覺領域的常見算法,已被廣泛應用于多個場景。因此,為了獲得準確詳細的結(jié)果,構(gòu)建一個場景豐富、規(guī)模龐大、注釋更詳細準確的數(shù)據(jù)集進行訓練和測試顯得尤為重要。網(wǎng)上已有的數(shù)據(jù)集往往只針對某一動態(tài)信息進行歸納收集,比如固定攝像頭拍攝的車輛車牌檢測數(shù)據(jù)集只包括動態(tài)的車輛車牌,而缺乏對路邊的固定指示牌等靜態(tài)信息的標記。為了滿足靜態(tài)信息和動態(tài)信息并存的要求,通過官網(wǎng)下載新聞聯(lián)播錄像,并借助MATLAB R2017a工具對錄像按照固定的時間間隔提取視頻幀。通過手動篩選,刪除重復的演播室圖像,得到2 000張分辨率為1 280×720的圖像。隨后,使用labelimg工具進行手動標注,標注內(nèi)容包括人臉和字符兩種標簽,采用YOLO格式標簽并保存為txt文件,用于訓練YOLOv7目標檢測網(wǎng)絡。將訓練集、驗證集和測試集按8∶1∶1的比例進行分配,劃分為1 600張訓練集、200張驗證集和200張測試集,進行300輪訓練。選用CBAM-YOLOv7、YOLOv7-d6和YOLOv7-tiny三種網(wǎng)絡進行訓練。

4.2 實驗環(huán)境

本實驗使用的服務器為七彩虹BATTLE-AX B560M-FPRO臺式電腦,搭載Intel i5-10400F@2.90 GHz六核處理器,配備2塊16 GB威剛DDR4 3 200 MHz內(nèi)存條,具體實驗環(huán)境配置見表1。

4.3 評價指標

通過查準率(Precision Rate)、查全率(Recall Rate)和mAP(mean Average Precision)等指標來衡量目標檢測網(wǎng)絡的性能。其中,mAP指標是對每種類別分別求出精確度,然后進行平均處理;而針對特定IoU區(qū)間的mAP,例如mAP@.5:.95,則代表了在0.5至0.95的間隔中按照步長0.05逐步選擇IoU數(shù)值進行評估后得到的所有mAP值的平均結(jié)果。查準率、查全率的計算公式如下:

5 結(jié) 語

本文提出了一種基于YOLOv7的目標檢測網(wǎng)絡,自建新聞聯(lián)播數(shù)據(jù)集并進行訓練,針對人臉和字符進行檢測。實驗結(jié)果表明,該網(wǎng)絡在檢測查準率和查全率方面均表現(xiàn)出色,特別在CBAM-YOLOv7模型上,查準率高達99.1%。這一成果為后續(xù)針對敏感信息區(qū)域進行加密處理奠定了堅實的基礎。今后將增加更多的檢測標簽,不局限于人臉和字符,還將納入槍械、坦克等武器裝備,進一步增強敏感區(qū)域的檢測能力。

參考文獻

[1]王鵬,王鹍. 一種用于信息安全防護的同步式屏幕顯示: CN202011003136. X [P]. 2021-01-01.

[2] HE K M, GKIOXARI G, DOLLAR P, et al. Mask R-CNN [J]. IEEE transactions on pattern analysis and machine intelligence, 2020, 42(2): 386-397.

[3] DING X T, LI Q D, CHENG Y Q, et al. Local keypoint-based faster R-CNN [J]. Applied intellgence, 2020, 50: 3007-3022.

[4] CHENG M, FAN C, CHEN L, et al. Partial atrous cascade R-CNN [J]. Electronics, 2022, 11(8): 1241.

[5] ZENG L, DUAN X, PAN Y, et al. Research on the algorithm of helmet-wearing detection based on the optimized YOLOv4 [J]. The visual computer, 2023, 39: 2165-2175 .

[6] ZHANG R, ZHENG K, SHI P, et al. Traffic sign detection based on the improved YOLOv5 [J]. Applied sciences, 2023, 13(17): 9748.

[7]劉虎成.基于YOLOv7的交通標志目標檢測方法研究[D].西安:西安電子科技大學,2023.

[8]韓朔.基于YOLOv7的缺陷雞蛋在線檢測系統(tǒng)的研究[D].銀川:寧夏大學,2023.

[9]馬銘駿.基于YOLOv7的市區(qū)道路擁堵檢測研究[D].蘭州:蘭州交通大學,2023.

[10] YANG K, ZHANG Y, ZHANG X, et al. YOLOX with CBAM for insulator detection in transmission lines [J]. Multimedia tools and applications, 2023, 83: 43419-43437.

猜你喜歡
目標檢測深度學習信息安全
保護信息安全要滴水不漏
高校信息安全防護
消費導刊(2017年20期)2018-01-03 06:26:38
視頻中目標檢測算法研究
軟件(2016年4期)2017-01-20 09:38:03
行為識別中的人體運動目標檢測方法
MOOC與翻轉(zhuǎn)課堂融合的深度學習場域建構(gòu)
大數(shù)據(jù)技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
基于深度卷積網(wǎng)絡的人臉年齡分析算法與實現(xiàn)
軟件工程(2016年8期)2016-10-25 15:47:34
移動機器人圖像目標識別
保護個人信息安全刻不容緩
高邑县| 黔南| 明溪县| 芷江| 高尔夫| 南华县| 宁蒗| 油尖旺区| 石棉县| 当涂县| 鹤庆县| 开鲁县| 临沧市| 洛南县| 青阳县| 潢川县| 额济纳旗| 云龙县| 黄浦区| 义乌市| 昔阳县| 涟水县| 交城县| 澳门| 新化县| 景宁| 那曲县| 大同县| 文化| 比如县| 鄂托克前旗| 健康| 普宁市| 宁化县| 鄯善县| 博野县| 水富县| 图们市| 安徽省| 白山市| 大同县|