国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度學(xué)習(xí)的遙感影像基礎(chǔ)設(shè)施目標(biāo)檢測研究

2018-03-01 03:27陳金勇吳金亮
無線電工程 2018年3期
關(guān)鍵詞:殘差深度樣本

王 港,陳金勇,高 峰,吳金亮

(1.中國電子科技集團公司航天信息應(yīng)用技術(shù)重點實驗室,河北 石家莊 050081;2.中國電子科技集團公司第五十四研究所,河北 石家莊 050081)

0 引言

遙感是人類在模擬人的視覺系統(tǒng)基礎(chǔ)上發(fā)展起來的一種高科技觀測技術(shù),通過檢測和度量地物目標(biāo)電磁轄射量所得到的客觀記錄,把人眼看得到的和看不到的景物都轉(zhuǎn)化為人眼所能看到的圖像,重現(xiàn)地物目標(biāo)電磁轄射特性的空間分布狀況。遙感圖像已被廣泛應(yīng)用于環(huán)境檢測、資源探測、生態(tài)研究、測繪制圖和軍事指揮等眾多領(lǐng)域[1]。遙感圖像目標(biāo)檢測作為遙感圖像處理的一個重要部分,具有覆蓋范圍廣、作用距離遠、執(zhí)行效率高等優(yōu)點,在軍事和民用領(lǐng)域都有重要的意義和價值。

高分系列衛(wèi)星是我國自行研制并發(fā)射的系列衛(wèi)星。其中,“高分一號”衛(wèi)星于2013年4月發(fā)射成功,其主要參數(shù)為2 m全色/8 m多光譜分辨率相機和16 m多光譜分辨率寬覆蓋相機,幅寬分別為60 km和800 km?!案叻忠惶枴毙l(wèi)星擁有8 m分辨率多光譜相機,一般的基礎(chǔ)設(shè)施大小在100 m以上,故“高分一號”遙感影像適合作為基礎(chǔ)設(shè)施目標(biāo)檢測的影響材料[2]。

深度學(xué)習(xí)是近年來在大數(shù)據(jù)環(huán)境下興起的一門機器學(xué)習(xí)技術(shù),其實質(zhì)是通過構(gòu)建具有多層結(jié)構(gòu)的機器學(xué)習(xí)模型和海量的訓(xùn)練數(shù)據(jù)來學(xué)習(xí)數(shù)據(jù)中的復(fù)雜特征,用于之后的分析、預(yù)測等應(yīng)用[3]。由于其具備海量數(shù)據(jù)的學(xué)習(xí)能力和高度的特征抽象能力,在諸多圖像應(yīng)用領(lǐng)域都取得了革命性的成功。

自2014年開始,基于深度學(xué)習(xí)(主要是卷積神經(jīng)網(wǎng)絡(luò)(CNN)[4])的目標(biāo)識別在自然圖像應(yīng)用中也取得了巨大突破。例如,以R-CNN(Region with CNN features)方法為代表的結(jié)合通用候選區(qū)域算法和CNN分類的目標(biāo)識別框架(R-CNN[5]、SPP-NET(Spatial Pyramid Pooling Net)[6]、Fast R-CNN(Fast Region with CNN features)方法[7]、Faster R-CNN(Faster Region with CNN features)方法[8])。其候選區(qū)域采用Selective Search[9]、EdgeBox[10]或BING特征[11]等通用目標(biāo)候選方法,而這些通用區(qū)域候選算法本質(zhì)上還是遍歷滑窗的方法。后期的算法包括Fast R-CNN和Faster R-CNN等都采用回歸學(xué)習(xí)方法對目標(biāo)的準(zhǔn)確位置進行了修正,甚至有YOLO(You Only Look Once)方法[12]、SSD(Single Shot Multibox Detector)方法對于“大范圍、小目標(biāo)”的遙感識別效果并不理想。2015年,微軟研究院何凱明提出了深度卷積網(wǎng)絡(luò)的改進——深度殘差網(wǎng)絡(luò),在圖像分類和檢測方面取得了進一步的提高。此后,殘差網(wǎng)絡(luò)結(jié)構(gòu)慢慢成為各種卷積網(wǎng)絡(luò)模型的參照結(jié)構(gòu),為各類圖像處理任務(wù)提供了優(yōu)化。

上述深度學(xué)習(xí)算法模型,都是在ImageNet挑戰(zhàn)賽[13]上獲得過最高名次的算法。ImageNet挑戰(zhàn)賽極大地促進了計算機視覺領(lǐng)域目標(biāo)檢測識別領(lǐng)域的發(fā)展。但是ImageNet所包含的自然圖像和衛(wèi)星遙感影像,存在著一些關(guān)鍵性區(qū)別:① 遙感影像中目標(biāo)相對影像較小,而且其存在很多的旋轉(zhuǎn)、仿射等現(xiàn)象[14];② 輸入圖像巨大,往往有數(shù)百萬像素甚至數(shù)億像素[15];③ 十分缺乏相關(guān)的訓(xùn)練學(xué)習(xí)數(shù)據(jù),尤其在深度學(xué)習(xí)的算法中,高質(zhì)量、高數(shù)量的訓(xùn)練樣本對算法效果起到至關(guān)重要的作用;④ 欺騙性,遙感影像由于其拍攝高度原因,獲得的信息可能是不真實的。故將深度學(xué)習(xí)的算法模型借鑒到遙感影像處理領(lǐng)域,還需要做更多的工作。

針對遙感影像目標(biāo)檢測的具體情況,本文設(shè)計了基于殘差神經(jīng)網(wǎng)絡(luò)模型的“高分一號”遙感影像基礎(chǔ)設(shè)施目標(biāo)檢測算法[16]。為解決訓(xùn)練樣本少、目標(biāo)小、圖像大的問題,通過“高分一號”遙感影像和谷歌地圖建立了圖像目標(biāo)樣本庫;為解決輸入圖像巨大難以處理的問題,對檢測輸入的遙感影像進行分塊處理,使得每一塊都可以直接進行基于殘差神經(jīng)網(wǎng)絡(luò)模型的高分辨率遙感影像目標(biāo)檢測,同時針對重復(fù)區(qū)域建議的問題,進行了RPN優(yōu)化,方便了并行化處理。實驗結(jié)果表明,本文算法很好地解決了深度學(xué)習(xí)模型應(yīng)用于遙感影像的諸多問題,其檢測的準(zhǔn)確率、效率、實用性和魯棒性都有提高。

1 算法流程

總體算法流程如圖1所示。設(shè)計思路主要為目標(biāo)定位和目標(biāo)識別協(xié)同工作,從而達到目標(biāo)檢測的目的。在對寬幅遙感影像進行切分后,運用深度卷積神經(jīng)網(wǎng)絡(luò)進行特征提取,提取的通用特征既可以用于目標(biāo)定位,也可以用于目標(biāo)識別。在目標(biāo)定位給出目標(biāo)具體位置后進行識別,既保證了識別的準(zhǔn)確性,也提高了識別的針對性和魯棒性。

圖1 算法流程

2 網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計

2.1 殘差網(wǎng)絡(luò)

深度卷積神經(jīng)網(wǎng)絡(luò)在圖像目標(biāo)檢測中表現(xiàn)出了較為良好的性能,但是在現(xiàn)有基礎(chǔ)下,想要進一步訓(xùn)練更深層次的神經(jīng)網(wǎng)絡(luò)是非常困難的,而檢測復(fù)雜結(jié)構(gòu)目標(biāo)又迫切需要深層次的網(wǎng)絡(luò)結(jié)構(gòu)來抽象特征。故提出了一種減輕網(wǎng)絡(luò)訓(xùn)練負擔(dān)的殘差學(xué)習(xí)框架,這種網(wǎng)絡(luò)比以前使用過的網(wǎng)絡(luò)本質(zhì)上層次更深。明確地將這層作為輸入層相關(guān)的學(xué)習(xí)殘差函數(shù),而不是學(xué)習(xí)未知的函數(shù)。同時,全面實驗數(shù)據(jù)證明殘差網(wǎng)絡(luò)更容易優(yōu)化,并且可以從深度增加中大大提高精度。在一般圖像的處理上,在ImageNet數(shù)據(jù)集用152層比VGG網(wǎng)絡(luò)深8倍的深度來評估殘差網(wǎng)絡(luò),但它仍具有較低的復(fù)雜度。在ImageNet測試集中,這些殘差網(wǎng)絡(luò)整體達到了3.57%的誤差。該結(jié)果在2015年大規(guī)模視覺識別挑戰(zhàn)賽分類任務(wù)中贏得了第一。從而證明,深度殘差網(wǎng)絡(luò)對于圖像目標(biāo)檢測識別方面是具有優(yōu)勢的,達到了現(xiàn)階段的最好效果。故將其引入到遙感影像目標(biāo)檢測中來,以期達到更加出色的目標(biāo)檢測效果。

將H(x)假設(shè)為由幾個堆疊層匹配的(不一定是整個網(wǎng))基礎(chǔ)映射,用x表示這些第一層的輸入。假設(shè)多元非線性層能逼近復(fù)雜的函數(shù),也就相當(dāng)于假設(shè)它們可以逼近殘差函數(shù),例如H(x)(假設(shè)輸入和輸出在同一規(guī)模)。因此可以非常明確地讓這些層近似于殘差函數(shù),而并非期待堆疊層近似于H(x)。所以原函數(shù)變成了:F(x)+x。盡管2種形式都能逼近期望函數(shù),但F(x)更容易逼近[17]。

本文對每一個堆疊層都采用殘差學(xué)習(xí),構(gòu)建模塊定義為:

H(x)=F(x,{Wi})+x,

(1)

式中,x和H(x)是考慮到的層的輸入和輸出向量;函數(shù)F(x,{Wi})代表學(xué)習(xí)的殘差函數(shù);F+x的操作是由快捷連接和增加的元素智能進行的。

式(1)中介紹的快捷連接,沒有額外的參數(shù)和復(fù)雜的計算。這在實踐中缺乏魯棒性,它在對比平原和殘差網(wǎng)絡(luò)方面也同樣重要。有著相同數(shù)量的參數(shù)、深度、寬度和計算成本時,可以對平原和殘差網(wǎng)絡(luò)進行簡單的對比。

在式(1)中,x和F的大小必須相同。如果不同(例如改變輸入和輸出渠道)可以通過快捷連接線性投影Ws來匹配維度,

H(x)=F(x,{Wi})+Wsx,

(2)

也可以在式(1)中使用一個正方形矩陣Ws。只有在匹配維度時,才使用Ws。

2.2 網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計

在設(shè)計應(yīng)用于遙感影像目標(biāo)檢測的殘差網(wǎng)絡(luò)時,借鑒于VGG網(wǎng)理論[18]。卷積層主要有3×3的過濾器并遵循2個簡單的設(shè)計規(guī)則:① 對于相同的輸出特征映射大小,圖層有相同數(shù)量的濾波器;② 如果特征映射的大小被減半,過濾器的數(shù)量增加一倍,以保持每層的時間復(fù)雜度。通過有一個跨度為2的卷積層,直接進行下采樣[18]。網(wǎng)絡(luò)以一個全局平均池層和全連接層結(jié)尾,其中加權(quán)層的總數(shù)是34。模型比VGG網(wǎng)有著更少的過濾器和更低的復(fù)雜度。34層基線有3.6億個觸發(fā)器(乘加),這只有VGG19的18%(19.6億觸發(fā)器)。網(wǎng)絡(luò)結(jié)構(gòu)示意圖如圖2所示。

圖2 深度殘差網(wǎng)絡(luò)結(jié)構(gòu)示意

基于以前的平原網(wǎng)絡(luò)(無殘差),設(shè)計出這樣一個結(jié)構(gòu)。讓一個更深度模型的訓(xùn)練誤差,不大于與其相應(yīng)的更淺的模型訓(xùn)練誤差,從而精準(zhǔn)度下降問題得到解決。求解器在通過多個非線性層近似于身份映射方面有困難。隨著殘差學(xué)習(xí)重構(gòu),如果身份映射是最佳的方法,那么求解器可以簡單地驅(qū)動多個非線性層的權(quán)重趨向于零,以便逼近身份映射。這樣,函數(shù)逼近的模型也就是學(xué)習(xí)的模型就建立起來了[19]。

3 網(wǎng)絡(luò)訓(xùn)練

在建立的初始深度殘差網(wǎng)絡(luò)中,各個參數(shù)是初始參數(shù),沒有準(zhǔn)確地模擬相應(yīng)的復(fù)雜函數(shù),故需要通過采集到的有標(biāo)簽的遙感影像目標(biāo)樣本來訓(xùn)練,使網(wǎng)絡(luò)學(xué)習(xí)得到特征抽象描述的能力。首先將采集到的樣本數(shù)據(jù)進行歸一化和標(biāo)準(zhǔn)化處理,得到可以直接輸入的標(biāo)準(zhǔn)樣本集;其次將樣本輸入到網(wǎng)絡(luò)中,經(jīng)過層層計算,正向傳播到最后,得到分類結(jié)果;最后結(jié)果與標(biāo)簽進行比照,得到誤差,進行反向傳播,利用隨機梯度下降法(SGD)調(diào)整網(wǎng)絡(luò)各層的參數(shù)。針對每一個樣本進行訓(xùn)練,多次迭代,當(dāng)損失函數(shù)或者樣本準(zhǔn)確率變化不大時,停止迭代。此時的網(wǎng)絡(luò)作為接下來遙感影像目標(biāo)檢測的網(wǎng)絡(luò)模型。深度殘差網(wǎng)絡(luò)的訓(xùn)練流程圖如圖3所示。

圖3 深度殘差網(wǎng)絡(luò)的訓(xùn)練流程

4 基于深度殘差網(wǎng)絡(luò)的目標(biāo)檢測

在獲得訓(xùn)練好的深度殘差網(wǎng)絡(luò)上,進行目標(biāo)未知的遙感影像的目標(biāo)檢測。首先將采集到的樣本數(shù)據(jù)進行歸一化和標(biāo)準(zhǔn)化處理,得到可以直接輸入的標(biāo)準(zhǔn)樣本集;其次將樣本輸入到訓(xùn)練好的網(wǎng)絡(luò)中,通過殘差卷積計算和全連接分類計算,得到分類結(jié)果。基于深度殘差網(wǎng)絡(luò)的目標(biāo)檢測流程圖如圖4所示。

圖4 基于深度殘差網(wǎng)絡(luò)的目標(biāo)檢測流程

5 訓(xùn)練樣本庫的建立

深度學(xué)習(xí)的所有算法都建立在大量數(shù)據(jù)的基礎(chǔ)上,算法都是在大量有效數(shù)據(jù)上進行特征和規(guī)律學(xué)習(xí)。遙感影像數(shù)量很多,但是包含有特定類別、且分辨率一致的影像數(shù)據(jù)并不夠多。本文建立了高分辨率遙感影像的基礎(chǔ)設(shè)施典型目標(biāo)樣本庫,通過這個樣本庫進行典型目標(biāo)的學(xué)習(xí)和檢測。

搜集的典型目標(biāo)包括:機場、操場。搜集包含目標(biāo)的樣本,主要按照由大到小的范圍進行搜集,比如機場樣本,即按照“國家—基地—機場”的思路進行搜集。

搜集的高分辨率遙感影像數(shù)據(jù)主要來自于“高分一號”遙感衛(wèi)星和Google Earth,其中采用“高分一號”遙感衛(wèi)星中全色2 m和多光譜8 m作為樣本庫選取素材,采用Google Earth中L15層作為樣本庫選取素材。Google Earth圖像的引入,目的在于提高網(wǎng)絡(luò)模型的魯棒性,以及一定程度緩解過擬合問題。

搜集到的粗樣本數(shù)據(jù)再進行細加工。殘差網(wǎng)絡(luò)訓(xùn)練的樣本數(shù)據(jù)一般要求在1 000×1 000像素左右,故制作細樣本時,也將樣本大小選定在1 000×1 000左右。每一幅細樣本中包含1~3個目標(biāo)。典型樣本實例如圖5所示。

圖5 樣本示例

圖5(a)為“高分一號”多光譜機場樣本示例,圖5(b)為“高分一號”全色機場樣本示例,圖5(c)為Google Earth機場樣本示例,圖5(d)左邊為Google Earth操場樣本示例,右邊為“高分一號”全色操場樣本示例。

6 實驗結(jié)果分析

6.1 實驗數(shù)據(jù)集

利用從“高分一號”和Google Earth上獲取的光學(xué)遙感圖像進行實驗,包括機場、操場。其中機場樣本500幅,操場樣本300幅。隨機從帶有標(biāo)簽的數(shù)據(jù)集中選出機場樣本300幅,操場樣本200幅,作為訓(xùn)練樣本;其余作為測試樣本,訓(xùn)練樣本與測試樣本不重復(fù)。

6.2 實驗環(huán)境配置

本算法在Matlab 2014b上進行編寫,采用Caffe深度學(xué)習(xí)開源庫作為模型構(gòu)建基礎(chǔ)[20]。計算機為聯(lián)想Think Station P100,至強E2630 v3(雙路),顯卡為英偉達Quadro M6000 24G。本算法訓(xùn)練和測試均是在GPU加速下完成。

由于輸入的檢測影像大小不一,本文在輸入的第一步對其進行了尺度歸一化,以1 000×1 000作為標(biāo)準(zhǔn)輸入大??;對卷積特征圖進行滑窗處理時,以10像素作為滑窗步幅;訓(xùn)練時學(xué)習(xí)率為0.001,學(xué)習(xí)動量為0.9,權(quán)重衰退率為0.000 5,迭代次數(shù)為3 000。

6.3 實驗分析

本文采用了機場和操場這2種典型目標(biāo)作為測試對象,其中重點分析機場的檢測情況,并對分塊后的遙感影像進行了準(zhǔn)確率測試。分塊后平均檢測時間為0.2 s。具體如表1所示。

表1 分塊遙感影像目標(biāo)檢測統(tǒng)計數(shù)據(jù)

樣本名稱測試樣本數(shù)準(zhǔn)確樣本數(shù)準(zhǔn)確率/%機場20019296操場1009090

傳統(tǒng)算法遙感影像目標(biāo)檢測的準(zhǔn)確率一般在80%左右。由表1可知,本文方法對于高分辨率遙感影像目標(biāo)檢測準(zhǔn)確率更高。

機場檢測的結(jié)果示例如圖6所示,操場檢測的結(jié)果示例如圖7所示??梢钥闯?,本文方法對典型目標(biāo)的檢測效果十分良好,其復(fù)雜的環(huán)境背景并沒有對結(jié)果造成影響。

圖6 機場檢測結(jié)果示例

圖7 操場檢測結(jié)果示例

6.4 算法魯棒性驗證

一般情況下,算法在無干擾或者去除干擾的情況下,表現(xiàn)良好,但是實際應(yīng)用中,會出現(xiàn)很多由于天氣、相機載荷和拍攝角度等原因造成的影像成像模糊、有遮擋和光照異常等情況[21]。本文將這些情況考慮進去,從而驗證所設(shè)計算法的魯棒性和穩(wěn)定性。

“高分一號”衛(wèi)星拍攝的影像如圖8所示,分別出現(xiàn)了光照異常、云層遮擋和模糊情況。

圖8 有干擾遙感影像示例

應(yīng)用本文算法對其進行目標(biāo)檢測測試,得到結(jié)果如圖9所示。從檢測結(jié)果可以看出,本文算法在有干擾情況下的表現(xiàn)良好,具有很好的魯棒性。

圖9 有干擾影像檢測結(jié)果示例

7 結(jié)束語

本文提出了一種基于深度學(xué)習(xí)模型(深度殘差模型ResNet34)的高分辨率遙感影像基礎(chǔ)設(shè)施目標(biāo)檢測方法。針對高分辨率遙感影像內(nèi)容豐富、尺度大等問題,將計算機視覺領(lǐng)域目標(biāo)檢測效果最好的模型通過寬幅遙感影像分塊、RPN優(yōu)化等多處改進應(yīng)用于遙感影像處理領(lǐng)域,并在單幅高分辨率遙感影像目標(biāo)檢測方面取得了很好的效果。

在整個實驗中,介紹了從樣本制作、模型結(jié)構(gòu)、環(huán)境配置以及訓(xùn)練參數(shù)等多方面的“高分一號”遙感圖像處理的工程化應(yīng)用實施細節(jié),同時驗證了本文算法對存在有云、模糊等干擾的遙感影像具有魯棒性,為接下來繼續(xù)開展國產(chǎn)高分遙感影像處理打下了良好基礎(chǔ)。實驗表明,在“高分一號”遙感影像典型基礎(chǔ)設(shè)施目標(biāo)檢測中,本文方法具有很好的效果,克服了目標(biāo)復(fù)雜的環(huán)境背景。

[1] 王鑫.基于選擇性視覺注意機制的遙感圖像機場檢測[D].上海:復(fù)旦大學(xué),2012.

[2] 陳金鳳,程乾.高分1號融合光譜特征提取杭州灣河口沿岸濕地典型植被信息方法研究[J].杭州師范大學(xué)學(xué)報(自然科學(xué)版),2015,14(1):39-43.

[3] 牛新,竇勇,張鵬,等.基于深度學(xué)習(xí)的光學(xué)遙感機場與飛行器目標(biāo)識別技術(shù)[J].大數(shù)據(jù),2016,5(1):54-67.

[4] LECUN Y,BOSER B,DENKER J S,et al.Backpropagation Applied to Handwritten Zip Code Recognition[J].Neural Computation,2008,1(4):541-551.

[5] GIRSHICK R,DONAHUE J,DARRELL T,et al.Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation[C]∥Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2014:580-587.

[6] HE K,ZHANG X,REN S,et al.Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2015,37(9):1904-1916.

[7] GIRSHICK R.Fast R-CNN[C]∥IEEE International Conference on Computer Vision,IEEE,2015:1440-1448.

[8] REN S,HE K,GIRSHICK R,et al.Faster R-CNN:Towards Real-time Object Detection with Region Proposal Networks[C]∥Neural Information Processing Systems,2015:1-3.

[9] UIJLINGS J R R,SANDE K E A V D,GEVERS T,et al.Selective Search for Object Recognition[J].International Journal of Computer Vision,2013,104(2):154-171.

[10] ZITNICK C L,DOLLR P.Edge Boxes:Locating Object Proposals from Edges[M].Proceedings of the European Conference on Computer Vision,2014:391-405.

[11] CHENG M M,ZHANG Z,LIN W Y,et al.BING:Binarized Normed Gradients for Objectness Estimation at 300 fps[C]∥IEEE International Conference on Computer Vision.IEEE,2014:3286-3293.

[12] REDMON J,DIVVALA S,GIRSHICK R,et al.You Only Look Once:Unified,Real-Time Object Detection[C]∥IEEE International Conference on Computer Vision,IEEE,2016:779-788.

[13] DENG J,DONG W,SOCHER R,et al.ImageNet:A Large-scale Hierarchical Image Database[C]∥IEEE International Conference on Computer Vision and Pattern Recognition,IEEE,2009:248-255.

[14] 田子恒.基于遙感圖像的橋梁目標(biāo)檢測方法研究[D].長春:東北大學(xué),2012.

[15] 王岳環(huán),宋云峰,陳君靈.高分辨率遙感圖像中油庫的檢測識別[J].華中科技大學(xué)學(xué)報(自然科學(xué)版),2011,39(2):110-112.

[16] 帥通,師本慧,張霞,等.高分遙感艦船目標(biāo)SIFT特征的提取與匹配[J].無線電工程,2015,45(11):48-51.

[17] HE K,ZHANG X,REN S,et al.Identity Mappings in Deep Residual Networks[C]∥Proceedings of the European Conference on Computer Vision,2016:630-645.

[18] DUMOULIN V,VISIN F.AGuide to Convolution Arithmetic for Deep Learning[J].arXiv:1603.07285[cs.CV],2016.

[19] SPRINGENBERG J T,DOSOVITSKIY A,BROX T,et al.Striving for Simplicity:The All Convolutional Net[C]∥International Conference on Learning Representations,2015.

[20] JIA Y,SHELHAMER E,DONAHUE J,et al.Caffe:Convolutional Architecturefor Fast Feature Embedding[J].arXiv:1408.5093[cs.CV],2014.

[21] 季艷,魯克文,張英慧.海量遙感數(shù)據(jù)分布式集群化存儲技術(shù)研究[J].計算機科學(xué)與探索,2017(9):1398-1404.

猜你喜歡
殘差深度樣本
基于雙向GRU與殘差擬合的車輛跟馳建模
用樣本估計總體復(fù)習(xí)點撥
深度理解一元一次方程
基于殘差學(xué)習(xí)的自適應(yīng)無人機目標(biāo)跟蹤算法
基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
深度觀察
深度觀察
深度觀察
推動醫(yī)改的“直銷樣本”
隨機微分方程的樣本Lyapunov二次型估計