衛(wèi)鑫 武淑紅 王耀力
摘 要:針對(duì)采樣的每幀煙霧特征具有極大的相似性,以及森林火災(zāi)煙霧數(shù)據(jù)集相對(duì)較小且單調(diào)等問題,為充分利用煙霧的靜態(tài)與動(dòng)態(tài)信息來達(dá)到預(yù)防森林火災(zāi)的目的,提出一種深度卷積集成式長(zhǎng)短期記憶網(wǎng)絡(luò)(DC-ILSTM)模型。首先,使用在ImageNet數(shù)據(jù)集上預(yù)訓(xùn)練好的VGG-16網(wǎng)絡(luò)進(jìn)行基于同構(gòu)數(shù)據(jù)的特征遷移,以有效提取出煙霧特征;其次,基于池化層與長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)提出一種集成式長(zhǎng)短期記憶網(wǎng)絡(luò)(ILSTM),并利用ILSTM分段融合煙霧特征;最后,搭建一種可訓(xùn)練的深度神經(jīng)網(wǎng)絡(luò)模型用于森林火災(zāi)煙霧檢測(cè)。煙霧檢測(cè)實(shí)驗(yàn)中,與深卷積長(zhǎng)遞歸網(wǎng)絡(luò)(DCLRN)相比,DC-ILSTM在最佳效率下以10幀的優(yōu)勢(shì)檢測(cè)到煙霧,而且在測(cè)試準(zhǔn)確率上提高了1.23個(gè)百分點(diǎn)。實(shí)驗(yàn)結(jié)果表明,DC-ILSTM在森林火災(zāi)煙霧檢測(cè)中有很好的適用性。
關(guān)鍵詞:煙霧檢測(cè);深度卷積神經(jīng)網(wǎng)絡(luò);長(zhǎng)短期記憶網(wǎng)絡(luò);遷移學(xué)習(xí);微量數(shù)據(jù)集
中圖分類號(hào):TP391.41
文獻(xiàn)標(biāo)志碼:A
Abstract:? Since the smoke characteristics of each sampled frame have great similarity, and the forest fire smoke dataset is relatively small and monotonous, in order to make full use of the static and dynamic information of smoke to prevent forest fires, a Deep Convolution Integrated Long Short-Term Memory network (DC-ILSTM) model was proposed. Firstly, VGG-16 networks pre-trained on ImageNet dataset were used for feature transfer based on isomorphic data to effectively extract smoke characteristics. Secondly, an Integrated Long Short-Term Memory network (ILSTM) based on pooling layer and Long Short-Term Memory network (LSTM) was proposed, and ILSTM was used for segmental fusion of smoke characteristics. Finally, a trainable deep neural network model was built for forest fire smoke detection. In the smoke detection experiment, compared with Deep Convolution Long Recursive Network (DCLRN), DC-ILSTM can detect smoke with 10 frames advantage under the optimal efficiency and has the test accuracy increased by 1.23 percentage points. The theoretical analysis and simulation results show that DC-ILSTM has good applicability in forest fire smoke detection.
Key words:? smoke detection;deep convolutional neural network; Long Short-Term Memory network (LSTM); transfer learning; small dataset
0 引言
傳統(tǒng)的煙霧檢測(cè)方法大多采用物理傳感器進(jìn)行檢測(cè),該類方法對(duì)環(huán)境依賴較強(qiáng)、檢測(cè)范圍小,且需要安裝大量傳感器,對(duì)人力和物力造成較大消耗。隨著圖像處理、模式識(shí)別和人工智能等技術(shù)的發(fā)展,視頻煙霧檢測(cè)技術(shù)具有很好的應(yīng)用前景。該技術(shù)不僅彌補(bǔ)了傳統(tǒng)方法的不足,而且在初期能夠?qū)馂?zāi)進(jìn)行有效檢測(cè),降低火災(zāi)所造成的危害。
相較于傳統(tǒng)的計(jì)算機(jī)視覺方法[1-5],深度學(xué)習(xí)算法可從大量的圖像數(shù)據(jù)集中進(jìn)行自主學(xué)習(xí),避免了人工提取特征的不足。文獻(xiàn)[6]提出了一種級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)火災(zāi)分類器。該分類器將AlexNet網(wǎng)絡(luò)與兩個(gè)完全連接層和一個(gè)分類層相結(jié)合,達(dá)到了預(yù)防火災(zāi)的目的;文獻(xiàn)[7]選取了一種用于視頻火災(zāi)和煙霧檢測(cè)的卷積神經(jīng)網(wǎng)絡(luò),為火災(zāi)預(yù)測(cè)提供了一定的決策方向。但是,通過以上方法所構(gòu)建的卷積神經(jīng)網(wǎng)絡(luò)模型僅限于處理2D輸入問題,需要逐幀處理視頻圖像,時(shí)間開銷顯著增加。
隨后,文獻(xiàn)[8]提出一種新型深度歸一化卷積神經(jīng)網(wǎng)絡(luò)(Deep Normalization and CNN, DNCNN),將傳統(tǒng)的卷積層替換為歸一化層與卷積層;文獻(xiàn)[9]采用與GoogLeNet[10]相似的模型進(jìn)行煙霧檢測(cè)。該類方法采用的模型均需以大量數(shù)據(jù)為研究基礎(chǔ),但在煙霧識(shí)別領(lǐng)域?qū)嶋H可用的煙霧數(shù)據(jù)量相對(duì)較小且單調(diào)。針對(duì)數(shù)據(jù)限制這一問題,文獻(xiàn)[11]在野外森林火災(zāi)煙霧探測(cè)中使用了faster R-CNN,并且通過合成圖像來創(chuàng)建煙霧圖像序列以增強(qiáng)數(shù)據(jù)集。合成煙霧圖像雖然可一定程度上提高檢測(cè)性能,但在數(shù)據(jù)處理及訓(xùn)練過程中增加了較多成本。
最近,利用循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)解決視頻煙霧檢測(cè)問題得到了發(fā)展。此方法在文獻(xiàn)[12]的下一階段工作中也有提到。為了有效地利用長(zhǎng)時(shí)間煙霧運(yùn)動(dòng)信息,文獻(xiàn)[13]基于RNN提出了一種遞歸卷積神經(jīng)網(wǎng)絡(luò),并成功應(yīng)用于視頻煙霧檢測(cè)領(lǐng)域;文獻(xiàn)[14]提出一種深度卷積長(zhǎng)遞歸神經(jīng)網(wǎng)絡(luò)(Deep Convolutional Long-Recurrent Network, DCLRN),并將DCLRN與光流方法相結(jié)合,實(shí)現(xiàn)了對(duì)開放空間環(huán)境下火災(zāi)的實(shí)時(shí)監(jiān)測(cè)。該類方法由于容易受煙霧變化和與煙霧特征相似的霧的干擾,在一些場(chǎng)景中無法進(jìn)行很好的識(shí)別;同時(shí),在如何結(jié)合更多的鑒別信息來改善煙霧檢測(cè)問題上有待進(jìn)一步研究。
鑒于以上問題,本文將深度CNN和長(zhǎng)短期記憶網(wǎng)絡(luò)(Long Short-Term Memory network, LSTM)相結(jié)合提出一種深度卷積集成式長(zhǎng)短期記憶網(wǎng)絡(luò)(Deep Convolution Integrated LSTM, DC-ILSTM)模型。
該模型不僅提取煙霧運(yùn)動(dòng)和空間特征,而且通過遞歸方法探索有效的信息來綜合考慮煙霧區(qū)域的屬性。首先,基于當(dāng)下較為先進(jìn)的深度CNN模型提出一種具有更好泛化能力的深度卷積網(wǎng)絡(luò)用于提取煙霧特征;其次,為避免采樣視頻幀間存在的相似性問題,提出了一種集成式長(zhǎng)短期記憶網(wǎng)絡(luò)(Integrated LSTM, ILSTM)以處理煙霧特征;然后,針對(duì)森林火災(zāi)煙霧數(shù)據(jù)集小且單一的問題,使用預(yù)訓(xùn)練好的VGG-16網(wǎng)絡(luò)進(jìn)行特征遷移;最后,構(gòu)建了一種可訓(xùn)練的網(wǎng)絡(luò)模型。
1 構(gòu)建集成式長(zhǎng)短期記憶網(wǎng)絡(luò)
長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)作為一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),不僅具有RNN對(duì)前面信息進(jìn)行長(zhǎng)時(shí)記憶的特點(diǎn),還通過增加遺忘門避免長(zhǎng)期依賴的問題。
LSTM將輸入映射到隱藏狀態(tài),并將隱藏狀態(tài)映射到輸出,可以有效地學(xué)習(xí)輸入序列動(dòng)態(tài)信息。在LSTM細(xì)胞結(jié)構(gòu)中,包括遺忘門ft、輸入門it、輸出門Ot和1個(gè)記憶單元,其內(nèi)部結(jié)構(gòu)如圖1所示。LSTM能夠分析煙霧的動(dòng)態(tài)變化,但是,目前一些工作已經(jīng)顯示出在煙霧變化非常緩慢和具有與煙霧極其相似特征的場(chǎng)景下,仍然存在檢測(cè)效率較低的問題。這是由于在同一個(gè)煙霧視頻中,采樣的每幀煙霧特征具有一定相似性。這使得LSTM不能夠很好地學(xué)習(xí)輸入的特征序列。因此,本文提出了ILSTM模塊。ILSTM模塊結(jié)構(gòu)如圖2所示。該模塊首先將輸入的煙霧特征序列進(jìn)行分段處理;其次通過式(8)將分段的煙霧特征序列xt∈R4096映射到[0,1]范圍之間。
其中:c為池化域的大小和步長(zhǎng),矩陣S為池化操作后的特征圖。
最后,將聚合的特征輸入到LSTM單元中,該單元將進(jìn)一步融合煙霧特征進(jìn)行最終的檢測(cè)分類。
本文提出的ILSTM模塊目的是降低輸入序列維度,并學(xué)習(xí)不同的特征表示。在實(shí)驗(yàn)中,該模塊首先將特征序列均勻地劃分成d個(gè)時(shí)間段;其次,每個(gè)時(shí)間段(即長(zhǎng)度為n/d)特征值歸一化到[0,1];然后,這些聚合的特征經(jīng)過最大池化層(卷積核大小為2×2,步長(zhǎng)為2);最后,結(jié)合LSTM單元遞歸地學(xué)習(xí)輸入序列時(shí)序信息。
2 基于VGG-16網(wǎng)絡(luò)優(yōu)化卷積層參數(shù)
本文探索和比較了三種不同的CNN模型用于森林火災(zāi)煙霧檢測(cè),即AlexNet、GoogleNet和VGG-19。
在AlexNet和GoogleNet模型中,分別使用大小為11×11和7×7,步長(zhǎng)為3和5的較大卷積核,可能會(huì)忽略煙霧區(qū)域的重要特征。使用VGG-16的目的是使用大小為3×3,步長(zhǎng)為1的卷積核,這有利于處理和提取煙霧圖像的每個(gè)像素的特征;同時(shí),與VGG-19相比,在精度幾乎相同情況下使用的卷積層和參數(shù)較少。VGG-16與AlexNet和GoogleNet模型的參數(shù)比較如表1所示。從表1可看出,VGG- 16在ImageNet數(shù)據(jù)集上的Top-1準(zhǔn)確率、Top-5準(zhǔn)確率和Top-5測(cè)試錯(cuò)誤率均優(yōu)于其他最先進(jìn)的架構(gòu)。因此,本文根據(jù)森林火災(zāi)煙霧檢測(cè)問題對(duì)VGG-16模型的體系結(jié)構(gòu)進(jìn)行了改進(jìn)。
本文基于VGG-16網(wǎng)絡(luò)的遷移學(xué)習(xí)模型如圖3所示。本文在ImageNet數(shù)據(jù)集上對(duì)模型進(jìn)行了微調(diào),以便用于森林火災(zāi)中煙和非煙的預(yù)期分類。如圖3所示左側(cè)是本文所使用的煙霧識(shí)別模型,主要由卷積層和下采樣層交替構(gòu)成。該模型共包含13個(gè)卷積層、5個(gè)下采樣層,以及1個(gè)全連接層,其中:第一段由3×3×64卷積核構(gòu)成的兩層卷積層,第二段由3×3×128卷積核構(gòu)成的兩層卷積層,第三段由3×3×256卷積核構(gòu)成的三層卷積層,第四段由3×3×512卷積核構(gòu)成的三層卷積層,第五段由3×3×512的卷積核構(gòu)成的三層卷積層,最后連接一層全連接層,神經(jīng)元個(gè)數(shù)為4096。
該模型主要是由VGG-16網(wǎng)絡(luò)遷移得到,同時(shí)加載了對(duì)應(yīng)的VGG-16網(wǎng)絡(luò)已經(jīng)訓(xùn)練好的參數(shù)。首先,基于VGG-16網(wǎng)絡(luò)構(gòu)造卷積層和全連接層;其次,以煙霧數(shù)據(jù)集作為輸入,獲取ImageNet上已訓(xùn)練好的VGG-16網(wǎng)絡(luò)中的卷積層參數(shù);然后,訓(xùn)練模型并微調(diào)參數(shù);最后,進(jìn)行模型預(yù)測(cè)。
3 基于DC-ILSTM網(wǎng)絡(luò)的煙霧檢測(cè)方法
該方法的主要目的是構(gòu)建一種可訓(xùn)練的深度神經(jīng)網(wǎng)絡(luò)模型實(shí)現(xiàn)森林火災(zāi)煙霧檢測(cè)。DC-ILSTM網(wǎng)絡(luò)模型結(jié)構(gòu)如圖4所示。該模型首先用VGG-16提取N維特征;其次,K幀視頻形成一個(gè)長(zhǎng)度為K的N維特征序列,即K×N序列;然后,將K×N序列平均劃分為d個(gè)時(shí)間段進(jìn)行ILSTM模塊處理;最后,通過ILSTM模塊的輸入映射到連接層輸出二分類結(jié)果(即類別的個(gè)數(shù))。
在遷移學(xué)習(xí)中,使用基于ImageNet數(shù)據(jù)集的VGG-16模型作為CNN模型來提取每幀煙霧特征。實(shí)驗(yàn)結(jié)果表明,在ImageNet數(shù)據(jù)集上訓(xùn)練的網(wǎng)絡(luò)具有更好的泛化能力。
在煙霧特征融合過程中,ILSTM模塊使用最大池化層或平均池化層可以進(jìn)一步提高視頻檢測(cè)準(zhǔn)確率;同時(shí),LSTM結(jié)構(gòu)使用了256個(gè)過濾器,且大小為3×3、步長(zhǎng)為1。實(shí)驗(yàn)結(jié)果表明,相比直接使用LSTM網(wǎng)絡(luò),ILSTM網(wǎng)絡(luò)顯著提高煙霧檢測(cè)的準(zhǔn)確率。
該模型動(dòng)態(tài)地輸入一組任意長(zhǎng)度的圖片幀,靜態(tài)地輸出兩種類型結(jié)果(有煙、無煙)。實(shí)驗(yàn)算法主要步驟如下:
Step1 提取視頻的每幀圖像,預(yù)處理數(shù)據(jù)。該方法按有煙和無煙進(jìn)行分類處理、調(diào)整大?。?×224×224)、隨機(jī)變換(隨機(jī)旋轉(zhuǎn)、剪切、翻轉(zhuǎn)等)和歸一化。
Step2 預(yù)訓(xùn)練一個(gè)基于ImageNet圖像分類的VGG-16模型。
Step3 訓(xùn)練DC-ILSTM模型:
1)共享預(yù)訓(xùn)練的VGG-16模型的序列空間特征;
2)以上特征輸入到ILSTM單元;
3)經(jīng)過ILSTM序列特征融合進(jìn)行二分類檢測(cè)。
實(shí)驗(yàn)設(shè)置如下:
1)N是DC-ILSTM網(wǎng)絡(luò)進(jìn)行一次處理的數(shù)據(jù)流量。以實(shí)驗(yàn)訓(xùn)練為例,N=8。
2)T是DC-ILSTM網(wǎng)絡(luò)層處理的總時(shí)間步長(zhǎng),即作為一次輸入ILSTM的視頻幀數(shù)。以實(shí)驗(yàn)訓(xùn)練為例,T=16。
3)T×N×4096是預(yù)訓(xùn)練層的輸出尺度。其中:4096是VGG-16中全連接層的維數(shù),即卷積特征維數(shù)。
4)d是平均劃分時(shí)間段,即作為ILSTM記憶單元輸入。以實(shí)驗(yàn)訓(xùn)練為例,d=3。
5)圖3是本文模型的卷積層參數(shù)詳細(xì)配置。以實(shí)驗(yàn)訓(xùn)練為例,學(xué)習(xí)率為10-4,迭代次數(shù)為300和優(yōu)化函數(shù)采用ADAM。
4 實(shí)驗(yàn)與結(jié)果分析
4.1 實(shí)驗(yàn)環(huán)境
該算法的硬件平臺(tái)是Intel Core i5-4200U CPU@2.30GHz,GPU GEFORCE GTX 1080ti,Ubuntu14.0.4,8GB內(nèi)存。實(shí)驗(yàn)環(huán)境為Python3.5,Tensorflow1.7.0和Keras框架,包括CNN(VGG-16)和LSTM。
4.2 實(shí)驗(yàn)數(shù)據(jù)集
本文采用的實(shí)驗(yàn)數(shù)據(jù)集來自于CVPR實(shí)驗(yàn)室(https://cvpr.kmu.ac.kr)、中國(guó)消防科學(xué)國(guó)家重點(diǎn)實(shí)驗(yàn)室(http://smoke.ustc.edu.cn)、 Bilkent大學(xué)的公開火災(zāi)火焰視頻庫(http://signal.ee.bilkent.edu.tr/VisiFire/)和
網(wǎng)絡(luò)采集(例如:Ultimate Chase公司提供的資源庫(http://ultimatechase.com))。
實(shí)驗(yàn)數(shù)據(jù)集綜合了以上三個(gè)數(shù)據(jù)集和額外收集的關(guān)于森林環(huán)境數(shù)據(jù),共由60個(gè)煙霧視頻和150個(gè)非煙霧視頻組成,能充分體現(xiàn)數(shù)據(jù)的多樣性。
4.3 實(shí)驗(yàn)評(píng)價(jià)標(biāo)準(zhǔn)
本文采用準(zhǔn)確率Accuracy、精確率Precision、召回率Recall和兩者的調(diào)和均值F1來衡量網(wǎng)絡(luò)性能。各指標(biāo)計(jì)算公式如下:
其中:TP為預(yù)測(cè)正類為正類;TN為預(yù)測(cè)負(fù)類為負(fù)類;FP為預(yù)測(cè)負(fù)類為正類;FN為預(yù)測(cè)正類為負(fù)類。
4.4 實(shí)驗(yàn)結(jié)果與分析
實(shí)驗(yàn)視頻包括60個(gè)煙霧視頻和150個(gè)非煙霧視頻。本文采用交叉驗(yàn)證的方法將樣本集按照比例被劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集。其中,訓(xùn)練集占總樣本50%(30個(gè)煙霧視頻、70個(gè)非煙霧視頻),驗(yàn)證集和測(cè)試集各占25%(各包含15個(gè)煙霧視頻、40個(gè)非煙霧視頻)。
實(shí)驗(yàn)一 在遷移學(xué)習(xí)中,VGG-16網(wǎng)絡(luò)與其他CNN網(wǎng)絡(luò)進(jìn)行對(duì)比。
本文使用VGG-16網(wǎng)絡(luò)與其他CNN模型進(jìn)行比較。表2顯示了它們?cè)隍?yàn)證集上各參數(shù)的對(duì)比。從表2中可看出,使用AlexNet的準(zhǔn)確率最低,假陽性和假陰性分值最差;雖然使用GoogleNet的檢測(cè)結(jié)果要優(yōu)于AlexNet,但與VGG-16模型相比,其準(zhǔn)確率仍然較低,誤報(bào)率較高。具體而言,與AlexNet和GoogleNet相比,VGG-16取得了較好的效果,其中,最小假陽性為2.60%、最小假陰性為2.46%、最高準(zhǔn)確率達(dá)93.31%,因此,使用VGG-16模型性能優(yōu)于其他模型。
實(shí)驗(yàn)二 基于VGG-16網(wǎng)絡(luò)的LSTM與ILSTM模塊檢測(cè)效果對(duì)比。
本文分別使用VGG-16網(wǎng)絡(luò)結(jié)合LSTM網(wǎng)絡(luò)與改進(jìn)的ILSTM網(wǎng)絡(luò)進(jìn)行對(duì)比。
表3顯示了訓(xùn)練過程中驗(yàn)證集的假陽性、假陰性和準(zhǔn)確率,可看出,結(jié)合ILSTM模塊準(zhǔn)確性要優(yōu)于LSTM,其中,假陽性最小為2.41%、假陰性最小為2.26%和最高準(zhǔn)確率為94.53%,準(zhǔn)確率提高了1.32個(gè)百分點(diǎn)。
實(shí)驗(yàn)三 基于DC-ILSTM網(wǎng)絡(luò)的森林火災(zāi)煙霧檢測(cè)方法與其他最先進(jìn)的方法檢測(cè)效果對(duì)比。在DC-ILSTM網(wǎng)絡(luò)進(jìn)行訓(xùn)練時(shí),每次迭代8個(gè)視頻,然后平均取30幀圖像。在VGG-16模型中,對(duì)8個(gè)視頻進(jìn)行分類;而在ILSTM模塊中,以30幀圖像平均地劃分為3個(gè)時(shí)間段進(jìn)行分類;最后ILSTM模塊的分類作為最終的檢測(cè)結(jié)果。在測(cè)試過程中,分別對(duì)VGG-16模型和DC-ILSTM模型進(jìn)行了測(cè)試。
本文對(duì)測(cè)試集進(jìn)行測(cè)試。測(cè)試樣本如圖5所示的(a)~(h)。實(shí)驗(yàn)分別用DC-ILSTM網(wǎng)絡(luò)與Hu等[14]提出的深卷積長(zhǎng)遞歸網(wǎng)絡(luò)(DCLRN)和Filonenko等[13]提出的卷積和遞歸網(wǎng)絡(luò)進(jìn)行對(duì)比。表5是以最早檢測(cè)出的幀序號(hào)為指標(biāo),評(píng)估各個(gè)方法的檢測(cè)效果。從表5中可看出,本文方法相比其他兩種方法能夠提前檢測(cè)到煙霧。例如,在Video2中,視頻總幀數(shù)為190,相比文獻(xiàn)[14]方法和文獻(xiàn)[13]方法,本文方法DC-ILSTM分別以提前10幀和15幀檢測(cè)到煙霧;同樣,在1007幀數(shù)量的Video3中,本文方法以367幀檢測(cè)到煙霧,比文獻(xiàn)[14]方法提前17幀。
總之,本文方法在對(duì)煙霧視頻進(jìn)行測(cè)試時(shí),性能優(yōu)于其他兩種方法,具體測(cè)試結(jié)果如表6所示。煙霧視頻為正類,非煙霧視頻為負(fù)類。本文方法之所以能取得較好的性能,并且速度比較快,主要是由于提出的ILSTM網(wǎng)絡(luò)對(duì)空間和運(yùn)動(dòng)上下文特征融合;但是在似煙霧環(huán)境下檢測(cè)性能用有所延遲。例如,野外森林環(huán)境中飄動(dòng)的云與運(yùn)動(dòng)緩慢的煙霧。視頻樣本如圖5所示的(i)~(l)。
5 結(jié)語
針對(duì)森林火災(zāi)煙霧檢測(cè)的問題,本文提出了一種深度神經(jīng)網(wǎng)絡(luò)DC-ILSTM模型。該模型不僅提出結(jié)合ILSTM模塊進(jìn)行煙霧特征融合;而且,在深度遷移學(xué)習(xí)架構(gòu)上處理森林火災(zāi)小樣本數(shù)據(jù)集。在實(shí)驗(yàn)中,基于公開數(shù)據(jù)集對(duì)該模型進(jìn)行評(píng)估,分別與LSTM模型和最先進(jìn)的森林火災(zāi)煙霧檢測(cè)方法進(jìn)行比較。結(jié)果表明,在檢測(cè)性能上,該模型以更小的最早幀數(shù)檢測(cè)到煙霧;同時(shí),檢測(cè)精度達(dá)94.5%以上,比DCLRN提高了1.03個(gè)百分點(diǎn)。在下一階段工作中,我們還需進(jìn)一步優(yōu)化模型提高森林火災(zāi)煙霧檢測(cè)的準(zhǔn)確率。