国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

異常行為檢測(cè)數(shù)據(jù)集快速構(gòu)建方法

2021-09-28 10:17:00杜潘飛王志輝李雄偉朱永旺
關(guān)鍵詞:視頻文件邊框類別

杜潘飛,王志輝,李雄偉,朱永旺

(1.陸軍工程大學(xué) 石家莊校區(qū),河北 石家莊 050003;2.河北建設(shè)投資集團(tuán)有限責(zé)任公司,河北 石家莊 050001)

0 引 言

自從AlexNet[1]在ImageNet圖像分類比賽中取得標(biāo)志性的進(jìn)步以來,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)在計(jì)算機(jī)視覺領(lǐng)域得到廣泛的應(yīng)用與發(fā)展。與此同時(shí),從2D圖像空間目標(biāo)識(shí)別擴(kuò)展到3D時(shí)空的視頻行為識(shí)別也成為該領(lǐng)域的研究熱點(diǎn),視覺行為的識(shí)別不僅增加模型的復(fù)雜性,而且訓(xùn)練行為識(shí)別模型所需的數(shù)據(jù)量也顯著地增加。異常行為檢測(cè)作為行為識(shí)別中的一個(gè)特殊領(lǐng)域,在公共安全、自動(dòng)駕駛、視頻監(jiān)控等應(yīng)用中具有相當(dāng)重要的意義,現(xiàn)代智慧城市的發(fā)展高度依賴于以人為中心分析的技術(shù)的進(jìn)步。文獻(xiàn)[2]中說明對(duì)于一個(gè)動(dòng)作識(shí)別模型,越多的訓(xùn)練數(shù)據(jù)對(duì)模型的識(shí)別性能越有益,因此為了獲得更好的檢測(cè)精度,通常需要大量的訓(xùn)練數(shù)據(jù)。但構(gòu)建一個(gè)大尺度、高質(zhì)量的行為檢測(cè)數(shù)據(jù)集是一個(gè)很大的挑戰(zhàn),其構(gòu)建過程涉及視頻收集、人物空間位置檢測(cè)以及人物行為標(biāo)注,因而如何快速地構(gòu)建一個(gè)高質(zhì)量的數(shù)據(jù)集對(duì)提升模型的檢測(cè)性能具有重大的意義。早期的行為識(shí)別數(shù)據(jù)集HMDB-51[3]和UCF-101[4]包含的數(shù)據(jù)量較少且都是對(duì)經(jīng)過裁剪的視頻片段做的標(biāo)注,其每個(gè)視頻片段中僅僅含有一個(gè)人物的一個(gè)動(dòng)作,很明顯這種方法構(gòu)建的數(shù)據(jù)集不能滿足實(shí)時(shí)運(yùn)行的異常行為檢測(cè)應(yīng)用的需要。

為解決這個(gè)問題,文中提出一種快速構(gòu)建行為檢測(cè)數(shù)據(jù)集的方法,其以一種半自動(dòng)的方式來完成數(shù)據(jù)集的構(gòu)建,具有很強(qiáng)的適用性和有效性,同時(shí)有助于節(jié)省人力成本,使用該方法生成的數(shù)據(jù)集不僅覆蓋多個(gè)領(lǐng)域的視頻,且都是無裁剪的,可應(yīng)用于訓(xùn)練實(shí)時(shí)運(yùn)行的行為檢測(cè)系統(tǒng)。(文中使用的相關(guān)程序代碼及生成的數(shù)據(jù)集可在https://github.com/xiayule158/AbnormalAction/上獲取。)

1 相關(guān)工作

隨著計(jì)算機(jī)硬件算力的不斷提升與存儲(chǔ)設(shè)備價(jià)格的不斷下降,計(jì)算機(jī)視覺在過去的十多年中得到快速的發(fā)展,其中行為檢測(cè)更是在實(shí)際生活中具有很多潛在的應(yīng)用,如自動(dòng)駕駛、社會(huì)安防等。為實(shí)現(xiàn)讓計(jì)算機(jī)自動(dòng)識(shí)別視頻中的異常行為,首先要解決的問題便是擁有大量已標(biāo)注的異常行為檢測(cè)視頻數(shù)據(jù)集,而到目前為止這些數(shù)據(jù)集大多是以人工的手段標(biāo)注完成,花費(fèi)時(shí)間長(zhǎng)。當(dāng)前數(shù)據(jù)集可根據(jù)對(duì)視頻中行為的標(biāo)注方法不同而將其分為視頻水平的標(biāo)注和視頻幀水平的標(biāo)注,在這部分中介紹比較典型的公共數(shù)據(jù)集,簡(jiǎn)要地介紹其特點(diǎn)和構(gòu)建的流程。

Charades數(shù)據(jù)集[5],2016年公開的包含157個(gè)日常室內(nèi)動(dòng)作的數(shù)據(jù)集,其通過Amazon Mechanical Turk(AMT)這個(gè)眾包平臺(tái)發(fā)布任務(wù)來完成數(shù)據(jù)的收集工作;主要構(gòu)建流程為:生成室內(nèi)活動(dòng)劇本、要求工作人員表演劇本中的活動(dòng)并記錄、確認(rèn)記錄的視頻和劇本是否對(duì)應(yīng)和標(biāo)注出視頻中動(dòng)作發(fā)生起點(diǎn)以及終點(diǎn)作為時(shí)序標(biāo)簽。這個(gè)數(shù)據(jù)集是基于視頻水平來完成標(biāo)注的,每個(gè)視頻中都包含一種動(dòng)作,屬于裁剪過的數(shù)據(jù)集,不適合在實(shí)時(shí)的異常行為檢測(cè)應(yīng)用中作為訓(xùn)練集使用。

Kinetics-400數(shù)據(jù)集[6],于2017年Google發(fā)布,其視頻來源于YouTube上的短視頻,整個(gè)數(shù)據(jù)集包含400個(gè)類別的動(dòng)作,每個(gè)類別包含至少400個(gè)識(shí)別片段,每個(gè)片段長(zhǎng)度大約為10 s。其構(gòu)建流程主要為:確定動(dòng)作列表、根據(jù)標(biāo)題與動(dòng)作列表是否匹配從YouTube中檢索視頻、通過AMT發(fā)布視頻標(biāo)注任務(wù)來完成標(biāo)注和最后人工完成數(shù)據(jù)集的核對(duì)。該數(shù)據(jù)集同樣屬于視頻水平的標(biāo)注,且大部分的工作由人工來完成,同樣需要較高的人工成本。

AVA[7],2017年公開發(fā)布的基于視頻幀水平標(biāo)注的數(shù)據(jù)集,擁有80個(gè)原子動(dòng)作類別。與基于視頻水平標(biāo)注不同的是,該數(shù)據(jù)集是對(duì)視頻的中動(dòng)作的關(guān)鍵幀做的標(biāo)注,且對(duì)其中的每個(gè)人物標(biāo)注多種行為,這種標(biāo)注方法突破了對(duì)動(dòng)作視頻長(zhǎng)度的限制,屬于無裁剪的動(dòng)作視頻,適合作為實(shí)時(shí)檢測(cè)場(chǎng)景應(yīng)用的訓(xùn)練集。其主要的構(gòu)建流程分為:動(dòng)作詞典生成、視頻段選擇、人物邊框標(biāo)注(由Faster R-CNN[8]人物檢測(cè)器來完成)和人物動(dòng)作標(biāo)注(在眾包平臺(tái)發(fā)布任務(wù)完成)。

HiEve[9](Human in Events)數(shù)據(jù)集,2020年發(fā)布的稠密場(chǎng)景監(jiān)控視頻數(shù)據(jù)集,其視頻來源于9個(gè)不同的稠密場(chǎng)景,行為識(shí)別部分包含14類別,且其標(biāo)注方法屬于視頻幀水平的標(biāo)注,很適合作為實(shí)際場(chǎng)景中異常行為檢測(cè)的訓(xùn)練集,但其標(biāo)注過程仍屬于手工標(biāo)注的方法,工作量較大。數(shù)據(jù)集構(gòu)建流程:選擇幾個(gè)有復(fù)雜事件的密集場(chǎng)所和直接從YouTube上通過異常行為關(guān)鍵字搜索來收集視頻、手工核對(duì)消除冗余視頻、手工標(biāo)注視頻中所有行人的邊框和以20幀的間隔手工完成行人行為類別標(biāo)簽的標(biāo)注工作。

本部分提及的數(shù)據(jù)集和文中收集的數(shù)據(jù)集比較如表1所示。從中可以看出:基于視頻水平的標(biāo)注方法雖然工作量較小,但不適合作為實(shí)時(shí)行為檢測(cè)的訓(xùn)練集;相比之下,基于視頻幀水平標(biāo)注的數(shù)據(jù)集更適合作為實(shí)時(shí)檢測(cè)的數(shù)據(jù)集,但目前基于幀水平的數(shù)據(jù)集標(biāo)注過程很多步驟都是由人工來完成,工作量非常大。

表1 動(dòng)作識(shí)別數(shù)據(jù)集比較

2 視頻收集

在異常行為檢測(cè)的研究過程中,快速且高質(zhì)量地構(gòu)建數(shù)據(jù)集是算法優(yōu)化的前提,為此文中提出一種半自動(dòng)化的構(gòu)建方法,在保證數(shù)據(jù)集質(zhì)量的同時(shí),有助于降低時(shí)間成本。整個(gè)數(shù)據(jù)集的構(gòu)建過程如圖1所示(注:圖中模塊帶陰影的流程為自動(dòng)完成部分,否則為手動(dòng)完成)。從圖中可以看出,視頻收集是完成數(shù)據(jù)集構(gòu)建的基礎(chǔ),視頻收集的過程主要包括行為列表確定、視頻文件獲取和視頻文件清理三個(gè)步驟。

圖1 數(shù)據(jù)集構(gòu)建流程

2.1 行為列表確定

文中主要考慮公共場(chǎng)所中的異常行為,選擇對(duì)公共安全影響較大的動(dòng)作作為候選對(duì)象。由于當(dāng)前對(duì)公共安全中的異常行為并沒有一個(gè)清晰明確的定義,因此如何構(gòu)建一個(gè)描述異常行為的列表是非常困難的。為了確定候選的動(dòng)作,參考現(xiàn)有的公開視頻數(shù)據(jù)集(如:CASIA行為分析數(shù)據(jù)庫(kù)[10]、UCF-Crime[11])中的動(dòng)作類別標(biāo)簽以及公開發(fā)表的該領(lǐng)域的學(xué)術(shù)論文,查閱現(xiàn)行法律、法規(guī)和條例等相關(guān)文件,最后確定了14種對(duì)公共安全妨害嚴(yán)重的行為作為候選列表對(duì)象,包括:行走、交通事故、搶劫、盜竊、追逐、縱火、砸車、醉酒、槍擊、刀砍、打架、摔倒、跳躍、翻越護(hù)欄。

2.改革金融會(huì)計(jì)監(jiān)管模式。針對(duì)金融會(huì)計(jì)的監(jiān)督管理模式的改革,要從以下兩個(gè)方面著手:一是對(duì)企業(yè)當(dāng)中參與金融監(jiān)管的各個(gè)部門的職能都進(jìn)行明確,合理安排各個(gè)部門之間的分工,每個(gè)部門之間的信息都要進(jìn)行共享,從而使得每個(gè)部門都能對(duì)金融會(huì)計(jì)起到監(jiān)督的作用。企業(yè)根據(jù)現(xiàn)有的金融管理監(jiān)督機(jī)制,根據(jù)不同的情況和種類制定出相對(duì)應(yīng)的解決方案,充分利用資源,使得企業(yè)金融的監(jiān)管能夠發(fā)揮最大的作用。二是將監(jiān)察管理原則變更為事前、事中、事后,來對(duì)金融會(huì)計(jì)進(jìn)行監(jiān)管。方案確定之前需要仔細(xì)考量,集思廣益,對(duì)制定出的方案也要反復(fù)的檢查,方案實(shí)行之后要做一個(gè)全方位的評(píng)定,這樣才能反映出企業(yè)最真實(shí)的情況。

2.2 視頻文件獲取

在確定異常行為列表之后,以其的行為標(biāo)簽和同義詞作為關(guān)鍵字從網(wǎng)絡(luò)上搜索與之相關(guān)的視頻。此外,為盡可能多地獲取視頻資源,對(duì)每個(gè)候選動(dòng)作同時(shí)使用其他語(yǔ)言(如:英語(yǔ)、法語(yǔ)、日語(yǔ)等)作為關(guān)鍵詞進(jìn)行搜索。為提高視頻的搜索和下載的效率,文中采取以Python語(yǔ)言實(shí)現(xiàn)的網(wǎng)絡(luò)爬蟲程序來自動(dòng)地完成這項(xiàng)工作,減少人工參與的工作量;為提高視頻下載的速度,文中采取多線程(設(shè)置為8)的方式并行下載,對(duì)于每個(gè)類別搜索到的視頻,最后將其以mp4的格式保存到以動(dòng)作類別命名的文件夾下,實(shí)現(xiàn)視頻的自動(dòng)下載,這個(gè)過程花費(fèi)5個(gè)小時(shí)共計(jì)下載2 200個(gè)視頻文件,總計(jì)大小約為18 GB。

2.3 視頻文件清理

為構(gòu)建高質(zhì)量的行為檢測(cè)數(shù)據(jù)集,視頻下載完成之后首先需要對(duì)視頻文件進(jìn)行清理,移除其中下載出錯(cuò)而不能正常打開、不包含候選異常行為列表中動(dòng)作類別、重復(fù)、模糊不清的視頻文件。另外,為減少視頻文件清理過程中工作人員的工作量,在這部分中采取行為檢測(cè)器與人工核對(duì)相結(jié)合的方式來完成此項(xiàng)工作。

首先,對(duì)于其中下載出錯(cuò)而不能打開的視頻文件,采用OpenCV這一計(jì)算機(jī)視覺工具來檢驗(yàn)是否可以讀取視頻中的每一幀圖像,若讀取中發(fā)生錯(cuò)誤,則說明其視頻文件出現(xiàn)問題,直接將其移除。

其次,對(duì)于不包含候選列表中行為以及模糊不清的視頻文件,采用行為檢測(cè)算法來完成。文中使用SlowFast[12]和AIA[13]作為視頻行為檢測(cè)器來檢測(cè)視頻中是否包含行為列表中的行為。對(duì)于未能檢測(cè)其中行為的視頻,先將其移動(dòng)到另外一個(gè)對(duì)應(yīng)類別的文件夾中,以便后續(xù)的人工核對(duì)。

最后,由于目前發(fā)布的檢測(cè)器算法模型中可檢測(cè)的行為類別數(shù)并沒有完全包含文中確定的行為類別,因此對(duì)于其檢測(cè)到行為的視頻需要人工核對(duì)其中是否包含。在這個(gè)過程中,對(duì)那些不包含候選行為、模糊的視頻直接刪除,而對(duì)于檢測(cè)器誤檢的視頻將其恢復(fù)到原始文件中。

至此已完成視頻文件的清洗工作,共獲得2 100個(gè)包含候選異常行為的視頻文件,這個(gè)過程中人工參與的工作為核對(duì)行為檢測(cè)器未能正確識(shí)別的視頻文件共計(jì)84個(gè),占總工作量的4%。

3 視頻幀標(biāo)注

構(gòu)建的數(shù)據(jù)集是用于實(shí)時(shí)場(chǎng)景下監(jiān)控視頻中的異常行為檢測(cè),因此采取基于幀水平的模式對(duì)視頻中的動(dòng)作進(jìn)行標(biāo)注,另外為了和當(dāng)前通用的數(shù)據(jù)集在標(biāo)注文件的格式上保持一致,文中采用與HiEve相同的標(biāo)注形式。不同的是通過對(duì)數(shù)據(jù)的分析和觀察認(rèn)為其標(biāo)注間隔過于密集,導(dǎo)致較大的工作量,因此,文中視頻幀間隔采用40幀。本部分詳細(xì)介紹視頻幀水平的半自動(dòng)標(biāo)注方法,主要流程包括:視頻幀人物邊框標(biāo)注、人物動(dòng)作標(biāo)注和標(biāo)簽人工核對(duì)。

3.1 人物邊框標(biāo)注

視頻中動(dòng)作檢測(cè)首先要定位人物在視頻幀中的空間位置,故而人物邊框標(biāo)注的問題便轉(zhuǎn)化為目標(biāo)檢測(cè)的特殊情況,只需檢測(cè)視頻幀圖像中的人物即可。為實(shí)現(xiàn)人物定位的自動(dòng)化,文中采用目標(biāo)檢測(cè)模型作為人物檢測(cè)器;另外考慮到公共場(chǎng)景的監(jiān)控視頻中可能會(huì)出現(xiàn)密集人群以及為了保證人物檢測(cè)器的高召回率,目標(biāo)檢測(cè)器選擇CrowdDet[14]和Faster R-CNN。對(duì)于視頻中的幀圖像,執(zhí)行以下的步驟完成人物邊框標(biāo)注:

首先,將幀圖像F分別輸入到人物檢測(cè)器DetF、DetC中,得到各自預(yù)測(cè)的人物邊框集合BF和BC;為找到兩個(gè)人物邊框集合中的對(duì)應(yīng)項(xiàng),遍歷集合BF和BC中所有元素組成邊框?qū)FC={(bF,bc)|?bF∈BF,?bC∈BC}中的元素。

選擇其中IoU>0.95的項(xiàng)作為同一個(gè)人物邊框的預(yù)測(cè)結(jié)果,取其兩者的平均值作為人物邊框值。在得到所有人物邊框值之后,將其所在幀和邊框值保存到本地文件中,作為后續(xù)核對(duì)的對(duì)象。

其次,為了保證人物邊框標(biāo)注的質(zhì)量,在完成人物邊框的自動(dòng)提取之后,需要以人工的方式來核對(duì)提取的人物邊框是否正確以及是否出現(xiàn)誤判和遺漏項(xiàng)。在此將提取到的邊框數(shù)值通過OpenCV展示在視頻幀中,對(duì)其誤判的人物邊框刪除,并對(duì)其未提取到的人物邊框以手工的方式進(jìn)行標(biāo)注。

至此,便完成視頻幀的人物邊框標(biāo)注工作,在這個(gè)過程中,僅有5%的人物邊框需要手工添加和修改,其余都是通過人物檢測(cè)器自動(dòng)完成的,這在很大程度上節(jié)約了數(shù)據(jù)集標(biāo)注的時(shí)間。

3.2 人物動(dòng)作標(biāo)注

在確定人物與視頻幀中的空間位置之后,接下來要完成的便是人物動(dòng)作識(shí)別及其時(shí)序定位,即人物動(dòng)作標(biāo)注。這是構(gòu)建行為檢測(cè)數(shù)據(jù)集的最關(guān)鍵部分,文中采取行為識(shí)別模型和手工標(biāo)注相結(jié)合的方式來完成;另外,與AVA與HiEve數(shù)據(jù)集不同的是,文中確定的候選行為之間具有互斥性,因而對(duì)于其中的每個(gè)人物只標(biāo)注一個(gè)動(dòng)作,其具體步驟如下:

(1)將視頻分別輸入到目前公開可用的SlowFast與AIA行為檢測(cè)模型做推理,得到部分人物行為標(biāo)簽的預(yù)測(cè)結(jié)果,其中包含人物動(dòng)作的開始位置、結(jié)束位置、動(dòng)作類別及其概率。

(2)人工核對(duì)1中預(yù)測(cè)的行為標(biāo)簽,對(duì)其中誤判和未能成功識(shí)別的行為做10%的人工標(biāo)注。

(3)使用2中人工核對(duì)與標(biāo)注后的數(shù)據(jù)集作為訓(xùn)練集重新訓(xùn)練模型。

(4)重復(fù)1~3步,直到視頻中約95%的人物的動(dòng)作都被正確標(biāo)注為止。

(5)對(duì)于剩下未能成功識(shí)別的人物,采用手工的方式來完成標(biāo)注。

3.3 數(shù)據(jù)集概覽

通過使用文中提出的方法所構(gòu)建的異常行為數(shù)據(jù)集,共包含2 100個(gè)視頻片段,總計(jì)時(shí)長(zhǎng)約210個(gè)小時(shí);14個(gè)人物動(dòng)作類別,總計(jì)標(biāo)注數(shù)量為73 652個(gè)。其中手工標(biāo)注的動(dòng)作標(biāo)簽數(shù)量約為10 300個(gè),占總標(biāo)簽量的14%,相比于當(dāng)前多個(gè)數(shù)據(jù)集的構(gòu)建過程中手工標(biāo)注量已經(jīng)減少30%~50%。采用文中提出的構(gòu)建方法構(gòu)建的數(shù)據(jù)集的最終標(biāo)注視頻動(dòng)作標(biāo)簽樣本如圖2所示,各類別動(dòng)作所含標(biāo)注數(shù)量分布如圖3所示。

圖2 標(biāo)注樣本示例

圖3 各個(gè)類別動(dòng)作標(biāo)注數(shù)量分布

從中可以看出各個(gè)類別所含的標(biāo)注數(shù)量大致相同,滿足了樣本均衡的要求。

4 實(shí) 驗(yàn)

為驗(yàn)證文中提出的構(gòu)建數(shù)據(jù)集方法的有效性,本部分以該數(shù)據(jù)集(為方便描述,將該數(shù)據(jù)集記為OurData)和與之行為類別相近的HiEve分別作為訓(xùn)練集,CASIA行為分析數(shù)據(jù)庫(kù)(記為CASIA)作為測(cè)試集,并采用當(dāng)前性能處于行業(yè)領(lǐng)先的SlowFast與AIA作為行為檢測(cè)模型來評(píng)估數(shù)據(jù)集的質(zhì)量,OurData、HiEve和CASIA數(shù)據(jù)集所包含的動(dòng)作標(biāo)簽如表2所示。

表2 OurData、HiEve和CASIA所含動(dòng)作標(biāo)簽比較

為減少模型的訓(xùn)練時(shí)間,本實(shí)驗(yàn)中所有檢測(cè)模型都使用與Kinetics-400數(shù)據(jù)集上預(yù)訓(xùn)練的權(quán)值作初始化,迭代次數(shù)都設(shè)置為50,使用動(dòng)量值為0.9的SGD[15]作為優(yōu)化器,初始學(xué)習(xí)率為0.01并在30次迭代后衰減到0.01,權(quán)值衰減設(shè)置為0.000 1;實(shí)驗(yàn)中使用的深度學(xué)習(xí)框架為PyTorch且在4塊GeForce RTX2080Ti(11 GB)的GPU上完成,整個(gè)訓(xùn)練過程花費(fèi)25天。實(shí)驗(yàn)結(jié)果如表3所示,從中可以看出:

表3 各類別測(cè)試精度對(duì)比

(1)對(duì)于只在HiEve中含有的類別(run、gather、bend、crouch),在HiEve上訓(xùn)練的模型其檢測(cè)精度都超過OurData訓(xùn)練的模型。

(2)對(duì)于只在OurData中含有的類別(jump、punch car、robbery、overtake),OurData訓(xùn)練的模型的檢測(cè)精度都超過HiEve訓(xùn)練的模型。

(3)對(duì)于HiEve、OurData中都含有的類別(walk、faint、fight),OurData訓(xùn)練的模型的檢測(cè)精度略微優(yōu)于HiEve訓(xùn)練的模型,原因是OurData數(shù)據(jù)集中相應(yīng)類別的標(biāo)簽數(shù)量多于HiEve中的標(biāo)簽數(shù)量。

(4)對(duì)于HiEve、OurData中都不含有的類別(wander、follow、meet),OurData訓(xùn)練的模型的檢測(cè)精度和HiEve訓(xùn)練的模型基本相同。

(5)總的來說,使用OurData訓(xùn)練的模型相對(duì)于使用HiEve訓(xùn)練的模型的整體行為檢測(cè)性能要好(23.28>20.67,24.42>21.48)。

實(shí)驗(yàn)結(jié)果表明,OurData可以作為異常行為檢測(cè)模型的訓(xùn)練集來使用,證明文中提出的數(shù)據(jù)集構(gòu)建方法是有效的。

5 結(jié)束語(yǔ)

詳細(xì)描述了一種半自動(dòng)構(gòu)建實(shí)時(shí)異常行為檢測(cè)數(shù)據(jù)集方法,通過該方法可以快速地構(gòu)建一個(gè)大尺度、高質(zhì)量的行為檢測(cè)數(shù)據(jù)集,整個(gè)構(gòu)建流程采用自動(dòng)程序和手工核對(duì)相結(jié)合的方式執(zhí)行,顯著地減少了數(shù)據(jù)集構(gòu)建過程中人工參與的工作量。實(shí)驗(yàn)部分說明采用該方法構(gòu)建的數(shù)據(jù)集是高質(zhì)量的,可以作為行為檢測(cè)及其相關(guān)模型的訓(xùn)練集來使用,希望該數(shù)據(jù)集構(gòu)建方法可以成為研究視頻中行為檢測(cè)任務(wù)的一種有效的輔助工具。在接下來的工作中,將使用這一方法來完善異常行為檢測(cè)數(shù)據(jù)集的構(gòu)建,增加其中檢測(cè)精度較低類別(jump、faint等)的樣本數(shù)量,并使用該數(shù)據(jù)集來進(jìn)行異常行為檢測(cè)算法的研究,以期進(jìn)一步提升當(dāng)前公共場(chǎng)景中異常行為檢測(cè)模型的性能。

猜你喜歡
視頻文件邊框類別
流媒體視頻文件相似性識(shí)別的方法
一模六產(chǎn)品篩板模具的設(shè)計(jì)與應(yīng)用
智能制造(2022年4期)2022-08-18 16:21:14
隨心定制視頻文件的縮略圖
用Lightroom添加寶麗來邊框
給照片制作專業(yè)級(jí)的邊框
擺脫邊框的束縛優(yōu)派
服務(wù)類別
論類別股東會(huì)
商事法論集(2014年1期)2014-06-27 01:20:42
中醫(yī)類別全科醫(yī)師培養(yǎng)模式的探討
視頻網(wǎng)格中自適應(yīng)熱度變化的條塊化存儲(chǔ)
無線電工程(2013年1期)2013-09-19 10:18:18
乳山市| 孟州市| 福清市| 茶陵县| 裕民县| 方山县| 鄂托克旗| 扶余县| 镇原县| 平和县| 广西| 石首市| 凤翔县| 扶绥县| 阜城县| 兴宁市| 浪卡子县| 连江县| 辽阳市| 漳浦县| 外汇| 卓尼县| 金塔县| 城口县| 郯城县| 木里| 正阳县| 甘南县| 沁源县| 和政县| 安溪县| 都安| 昌图县| 东安县| 陇南市| 盘山县| 合江县| 盐边县| 平南县| 嘉禾县| 鄂托克前旗|