劉 鑫, 韓宇平, 黃會平
(1.華北水利水電大學(xué) 水利學(xué)院, 河南 鄭州 450046; 2.華北水利水電大學(xué) 測繪與地理信息學(xué)院, 河南 鄭州 450046)
目前氣象數(shù)據(jù)主要來自氣象站的直接觀測,具有局部性與離散性等特點,利用空間插值的方法可以根據(jù)已知氣象站的數(shù)據(jù)估計那些沒有氣象站但知道經(jīng)度、緯度及高程的位置的特征。空間插值的方法很多,不同的插值方法結(jié)果差別可能較大,在實際應(yīng)用中并不存在一種普適性的插值方法。常用的空間插值方法主要有普通Kriging法(Ordinary Kriging,OK)[1-2]和反向距離加權(quán)法(Inverse Distance Weighted,IDW)[3-4]等。OK法在Kriging插值方法中應(yīng)用最廣泛,通過對已知樣本加權(quán)平均估計平面上的未知點,而加權(quán)平均勢必要對數(shù)據(jù)做平滑處理,會削弱變量的自然屬性,從而不能較好地表現(xiàn)非線性特征數(shù)據(jù)的空間分布。IDW法以插值點與樣本點間的距離為權(quán)重進行加權(quán)平均,該方法要求離散點均勻分布。
人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,ANN)處理非線性數(shù)據(jù)的能力較強[5],且不依賴數(shù)據(jù)分布和假設(shè),因此ANN模型被廣泛應(yīng)用于空間插值[6]。徐英等[7]利用Bayes最大熵融合Bayes人工神經(jīng)網(wǎng)絡(luò),在農(nóng)田土壤水分和養(yǎng)分的空間插值中取得了較好結(jié)果。但是ANN學(xué)習(xí)能力不足,在純數(shù)據(jù)驅(qū)動模式下建立數(shù)據(jù)之間的映射關(guān)系,ANN容易過度擬合[8-9]。此外ANN只是在輸入與輸出之間建立映射關(guān)系,沒有對該映射關(guān)系進行優(yōu)劣評價。雖然ANN也得到一定的改進和完善,但是性能的提升卻比較有限。近些年深度學(xué)習(xí)模型的出現(xiàn)為數(shù)據(jù)插值處理提供了新的思路,如徑向基網(wǎng)絡(luò)[10-11]、長短時記憶循環(huán)神經(jīng)網(wǎng)絡(luò)[12-13]及生成對抗網(wǎng)絡(luò)[14-15]等展示了出色的性能,在預(yù)報預(yù)測及空間插值等領(lǐng)域取得了較好的結(jié)果。
本研究搭建深度學(xué)習(xí)模型生成對抗網(wǎng)絡(luò)(Generative Adversarial Networks,GANs),最小二乘生成對抗網(wǎng)絡(luò)(Least Squares Generative Adversarial Networks,LSGANs)及Gauss徑向基神經(jīng)網(wǎng)絡(luò)(Gaussian Radial Basis Function Neural Network,GRBFNN),期望通過博弈及局部逼近提高降水量和平均氣溫的插值精度。為了驗證GANs、LSGANs及GRBFNN模型在空間插值中的優(yōu)劣,我們選擇OK和IDW法作為基準(zhǔn)方法,將GANs、LSGANs及GRBFNN的插值結(jié)果與基準(zhǔn)方法的插值結(jié)果進行對比分析,并進行交叉驗證。結(jié)果表明:IDW法比OK法更適合對空間數(shù)據(jù)進行插值;LSGANs和GRBFNN的插值精度優(yōu)于IDW法,有利于拓展空間插值的應(yīng)用范圍,具有很好的應(yīng)用前景。
本研究以國家氣象科學(xué)數(shù)據(jù)網(wǎng)1960—2013年619個氣象站點數(shù)據(jù)的平均值為例進行實驗。
數(shù)據(jù)包括經(jīng)度、緯度、高程、相對濕度、降水量、平均風(fēng)速、氣壓、平均氣溫及日照時數(shù)。數(shù)據(jù)樣本覆蓋中國的海河流域、黃河流域、淮河流域及長江流域等多個流域;涵蓋31個省級行政區(qū),包括西藏和青海等高海拔地區(qū)、新疆和甘肅等干旱半干旱地區(qū),也包括南方的濕潤半濕潤地區(qū)。研究區(qū)涵蓋不同地形、不同海拔及不同氣候等各種復(fù)雜條件。
在實際應(yīng)用中,我們得到的樣本數(shù)據(jù)是多個維度的,且這些數(shù)據(jù)可能存在有不符合要求,以及不能直接進行分析的數(shù)據(jù),需要經(jīng)過數(shù)據(jù)清洗才可以滿足模型構(gòu)建的要求。因此,首先根據(jù)箱圖篩選出異常值(離群點),將異常值刪除后,對全部缺失值進行插補,插補方法使用Lagrange法。其次,樣本數(shù)據(jù)的量綱和數(shù)值存在很大差別。為了消除每個維度之間的量綱與數(shù)值的影響,模型訓(xùn)練前要進行數(shù)據(jù)的標(biāo)準(zhǔn)化處理,使得不同的維度具有相同的尺度,從而解決維度之間的可比性。測試時再全部映射回原始值。
自動編碼解碼器最開始是一種數(shù)據(jù)的壓縮方法,使用神經(jīng)網(wǎng)絡(luò)模型作為編碼器和解碼器,得到了較廣泛的應(yīng)用[16-17]。編碼器慢慢演變成了生成對抗網(wǎng)絡(luò)的生成網(wǎng)絡(luò)。生成對抗網(wǎng)絡(luò)與自動編碼解碼器最大的區(qū)別就是多一個判別網(wǎng)絡(luò),自動編碼解碼器是通過對比輸入輸出矩陣之間的差異計算損失函數(shù),而生成對抗網(wǎng)絡(luò)則通過判別網(wǎng)絡(luò)與生成網(wǎng)絡(luò)的博弈來更新模型參數(shù),這也是生成對抗網(wǎng)絡(luò)效果要更好的根本原因。判別網(wǎng)絡(luò)就是一個判別真假的判別器,相當(dāng)于完成的是一個二分類的任務(wù)。因此,判別網(wǎng)絡(luò)的損失函數(shù)是二分類的交叉熵(Binary Cross Entropy,BCE):
(1)
式中:樣本標(biāo)簽y的范圍是0~1,yi是目標(biāo)樣本第i個標(biāo)簽;xi是輸入矩陣的第i個值;輸入輸出矩陣都是(N,n),N是批的大小,n表示特征的維度;函數(shù)mean表示求平均值。生成對抗網(wǎng)絡(luò)的結(jié)構(gòu)見圖1。
圖1 GANs的縮略圖與詳細配置
生成對抗網(wǎng)絡(luò)由兩部分組成:生成網(wǎng)絡(luò)G與判別網(wǎng)絡(luò)D。輸入觀測數(shù)據(jù)時希望D的輸出結(jié)果是Real(值為1),輸入噪聲時希望D的輸出結(jié)果是Fake(值為0)。這跟原始數(shù)據(jù)的標(biāo)簽沒有關(guān)系,不管原始數(shù)據(jù)包含幾個類別,只要是觀測數(shù)據(jù),輸出標(biāo)簽是1,非觀測數(shù)據(jù)的標(biāo)簽是0。生成對抗網(wǎng)絡(luò)的對抗過程就是生成網(wǎng)絡(luò)與判別網(wǎng)絡(luò)的“博弈”過程,掌握觀測數(shù)據(jù)的D不斷地對觀測數(shù)據(jù)與生成數(shù)據(jù)進行判別來更新自身,而G也通過不斷尋優(yōu),希望產(chǎn)生的生成數(shù)據(jù)通過D的輸出為1,能夠“欺騙”D,即G生成的數(shù)據(jù)能夠被判別為真。
BatchNorm1d是批標(biāo)準(zhǔn)化操作,作用于隱藏層,目的是上一層的輸出進行標(biāo)準(zhǔn)化以后再傳入下一層。這是因為數(shù)據(jù)經(jīng)過這一層網(wǎng)絡(luò)計算后,數(shù)據(jù)的分布會發(fā)生變化,如果不進行標(biāo)準(zhǔn)化,會增加下一層網(wǎng)絡(luò)學(xué)習(xí)的困難,還可能導(dǎo)致梯度消失的問題。Dropout是引入集成學(xué)習(xí)的思想,將網(wǎng)絡(luò)中的隱藏層設(shè)置為非全連接的,即隨機切斷某兩個神經(jīng)元之間的連接,旨在訓(xùn)練模型的時候,每層以一定概率P丟棄每個神經(jīng)元,也就是每次訓(xùn)練的時候有些神經(jīng)元是沒有建立連接的。這樣每一次訓(xùn)練之后,訓(xùn)練好的模型都可以看成是一個新的模型,然后訓(xùn)練結(jié)束以后,最終模型就可以看成是這些新模型的集成。這樣可以增加模型的隨機性,本研究取P=0.3。模型中的算法、激活函數(shù)及優(yōu)化器等需要人工設(shè)置值的參數(shù),都是根據(jù)以往大量的計算、訓(xùn)練及驗證經(jīng)驗得出的。
G的隱藏層中先使用Tanh激活函數(shù)(式(2)),將數(shù)據(jù)映射到(-1,1),輸出變成了0均值,后使用ReLU激活函數(shù)(見式(3)),簡單地將大于0的部分保留,將小于0的部分變成0,因為它是線性的且參數(shù)更新過程中不存在梯度消失的問題。
(2)
(3)
D中使用LeakyReLU激活函數(shù)(見式(4)),這個函數(shù)解決了神經(jīng)飽和問題,它不再是簡單的舍棄小于0的部分,而是以一定的斜率留下小于0的部分,可以保證神經(jīng)元不死。最后輸出結(jié)果時使用Sigmoid激活函數(shù)(見式(5)),將結(jié)果映射到(0,1)。
LeakyReLU(x)=max(0,x)+slope×min(0,x)
(4)
(5)
式中:slope在本研究設(shè)置為0.2。
優(yōu)化函數(shù)使用自適應(yīng)矩估計優(yōu)化器Adam(Adaptive Moment Estimation)。本研究取Adam的β1,β2為0.9和0.999。為了避免模型收斂到一定程度時會出現(xiàn)震蕩現(xiàn)象,使得模型不能較好地持續(xù)收斂,本研究采用動態(tài)學(xué)習(xí)率,初始學(xué)習(xí)率設(shè)置為0.000 2,且在訓(xùn)練的過程中設(shè)定監(jiān)視器,實時檢測誤差的變化。當(dāng)模型誤差持續(xù)減小時不對學(xué)習(xí)率進行更新。當(dāng)誤差反彈時不立即更新學(xué)習(xí)率,而是等待200次訓(xùn)練后將學(xué)習(xí)率乘0.9,再等待200次訓(xùn)練之后重新啟動監(jiān)視器,一直到兩次更新后的學(xué)習(xí)率的差小于10-8時關(guān)閉監(jiān)視器。
對于與觀測數(shù)據(jù)非常相似的數(shù)據(jù),我們希望D的輸出能夠趨近于1,對于不相似的數(shù)據(jù),我們希望D的輸出趨近于0。對于ln函數(shù),在(0,1]上獲得的最大值就是0。通過將Noise不斷輸入D,目的就是將與觀測數(shù)據(jù)不相似的數(shù)據(jù)全部判別為0或者趨近于0,而希望D(G(x))被判別為1或者趨近于1,使得代價函數(shù)V趨近于最小值,使用期望求最值。
V(G,D)=Ex~Preal(x)[lnD(x)]+Ex~PG(x)[ln(1-D(G(x)))]
(6)
(7)
(8)
將數(shù)學(xué)期望E(x)表示成微積分的形式,可以將V變?yōu)槭?7)。對于這個積分,要取它的最大值,就是希望對于給定的x,積分里面的項是最大的,即計算出一個最優(yōu)的D使得積分里面的項最大化。通過對D求導(dǎo)可以得到D*,將D*代回V中。
(9)
(10)
(11)
式(11)中,如果兩種分布沒有重疊部分,或者重疊部分可以忽略,對于不重疊的部分x的取值,Preal(x)=0或者PG(x)=0,則代價函數(shù)恒等于常數(shù),即使兩種分布很接近,但是只要它們沒有重疊,代價函數(shù)就是常數(shù),這會導(dǎo)致梯度為0無法更新。而通過大量實驗發(fā)現(xiàn),梯度為0的概率較大,即真實分布與生成分布沒有重疊部分的概率較大。除此之外,如果D訓(xùn)練太好,G梯度消失非常嚴重。如果D訓(xùn)練地不好,G很容易欺騙D,則G可能產(chǎn)生錯誤的優(yōu)化方向。如果希望GANs較好收斂,需要D訓(xùn)練地不好也不壞,而這個程度很難把握。因此,GANs的訓(xùn)練非常困難。
最小二乘生成對抗網(wǎng)絡(luò)(LSGANs)[18-19],是把交叉熵損失函數(shù)換成最小二乘損失函數(shù),期望構(gòu)建一個更加穩(wěn)定收斂更快且生成質(zhì)量更高的模型。GANs的判別網(wǎng)絡(luò)在輸出結(jié)果前使用了Sigmoid激活函數(shù)。很顯然Sigmoid有一個很顯著的特點就是將輸出結(jié)果劃分到0或者1,這在分類任務(wù)中是很有效的,因為分類任務(wù)的目的是將目標(biāo)的種類進行劃分,而目標(biāo)的種類不是0就是1(二分類)。但是生成對抗網(wǎng)絡(luò)的目的是生成對抗樣本,讓D和G進行博弈,二分類沒辦法衡量這個G到底好不好。而LSGANs把二分類問題變成了求損失的問題,這就更好地為生成模型找準(zhǔn)了尋優(yōu)方向,解決了GANs訓(xùn)練困難及生成樣本質(zhì)量不高的問題,且LSGANs訓(xùn)練過程十分穩(wěn)定。LSGANs的最小代價如下:
(12)
(13)
式中:a=c=1,b=0。模型仍采用Real(1)和Fake(0)標(biāo)簽,但不做分類而是求損失。
Gauss徑向基神經(jīng)網(wǎng)絡(luò)(GRBFNN)[20-21]是比較理想的非線性神經(jīng)網(wǎng)絡(luò)(見圖2)。由于GRBFNN是局部逼近網(wǎng)絡(luò),對于輸入空間的某個局部區(qū)域只有少數(shù)幾個連接權(quán)值影響輸出,不僅繼承了ANN的優(yōu)點,還在一定程度上克服了ANN需要調(diào)整每一個權(quán)值從而導(dǎo)致學(xué)習(xí)速度慢的缺點。GRBFNN的分類能力和學(xué)習(xí)速度都優(yōu)于ANN。此外GRBFNN結(jié)構(gòu)簡單、訓(xùn)練簡潔、收斂速度快,能在一定程度上克服過擬合和局部極小值問題。
圖2 GRBFNN的縮略圖
徑向基(RBF)是延徑向?qū)ΨQ取值僅依賴于到中心點距離的實值函數(shù),通常定義為空間任意點x到中心c之間的歐式距離,可以記作dist。然后對dist做一個函數(shù)變換,本研究采用Gauss函數(shù),將這個距離函數(shù)套入Gauss函數(shù)中,得到Gauss徑向基函數(shù)h(x),詳見下列公式:
dist=‖x-c‖
(14)
φ(dist)=φ(‖x-c‖)
(15)
(16)
(17)
output=w0+f(x)
(18)
GRBFNN用RBF作為“基”構(gòu)成隱藏層空間,隱藏層對輸入矢量進行變換,將輸入數(shù)據(jù)變換到高維空間內(nèi),使得在低維空間內(nèi)線性不可分問題在高維空間內(nèi)線性可分,這樣就可以將輸入矢量不通過權(quán)連接,直接映射到隱藏層空間。當(dāng)RBF的中心點確定以后,這種映射關(guān)系也就確定了。而隱藏層到輸出層的映射是線性的,即網(wǎng)絡(luò)輸出是線性加權(quán)和,此處的權(quán)即為網(wǎng)絡(luò)的可調(diào)參數(shù)。
見圖2,(x1,xi,…,xn)T是輸入端,(X1,Xi, …,Xn)T是輸入層,(h1(x),hi(x), …,hn(x))T是隱藏層,(W1,Wi, …,Wn)T是隱藏層到輸出層的連接權(quán)重,f(x)是輸出層,最后Y是輸出端。輸入層到隱藏層的數(shù)據(jù)變換是非線性的。通過徑向基變換之后,將這些結(jié)果進行線性加權(quán)求和就可以得到GRFBNN的輸出,其中激活函數(shù)選擇為Tanh和ReLU,優(yōu)化器是Adam,參數(shù)設(shè)置同上。
OK和IDW法有非常多的公開資料可查,本研究不再敘述,直接利用ARCGIS10.2實現(xiàn)OK和IDW的插值。GANs、LSGANs和GRBFNN深度學(xué)習(xí)模型使用PyTorch實現(xiàn)。PyTorch是Python的深度學(xué)習(xí)框架,該框架具有非常強的靈活性及易用性。
本研究評價標(biāo)準(zhǔn)采用均方根誤差RMSE(Root Mean Square Error)和Nash效率系數(shù)NSE(Nash-Sutcliffe Efficiency Coefficient)。其計算公式為:
(19)
(20)
RMSE體現(xiàn)的是估計值與觀測值的絕對偏離程度,反應(yīng)了估計值與觀測值的誤差。RMSE越小,估計值和觀測值之間的誤差就越小。NSE系數(shù)常用于評估模型的預(yù)測能力,代表了插值的吻合度。NSE等于100%表示估計值與觀測值完全吻合。估計值越接近真實值,NSE就接近100%。
分別應(yīng)用上述方法建立GANs、LSGANs和GRBFNN深度學(xué)習(xí)模型,將3個模型的插值結(jié)果與基準(zhǔn)方法進行對比。表1給出了5種方法對降水量插值的結(jié)果。
表1 降水量的插值結(jié)果對比
因為619個氣象站點的高程值存在一定差別,為了探討高程對于降水量和平均氣溫插值的影響,應(yīng)用3個深度學(xué)習(xí)模型時分別采用兩種方式建模,二維輸入代表使用經(jīng)度和緯度建模,三維輸入代表使用經(jīng)度、緯度和高程進行建模。
由表1可知,IDW法的RMSE和NSE都優(yōu)于OK法。與三維輸入相比,使用二維輸入,GANs的RMSE減小30.14%,NSE提高8.34%;LSGANs的RMSE減小28.11%,NSE提高5.61%。GANs和LSGANs的二維輸入的估值精度明顯高于三維輸入,可見在降水量的插值中,GANs和LSGANs對于高程比較敏感。與IDW法相比,使用二維輸入,LSGANs的RMSE減小9.16%,NSE提高1.27%;GANs的RMSE和NSE雖然優(yōu)于OK法,但卻不如IDW法。對于GRBFNN,二維輸入與三維輸入的估值精度相差不大,可見在降水量插值中GRBFNN對高程不敏感。使用三維輸入的GRBFNN比IDW的RMSE減小7.38%,NSE提高1.03%。5種方法精度最高的是LSGANs。
表2給出了5種方法對平均氣溫進行插值的結(jié)果。結(jié)果表明,IDW法的RMSE和NSE都優(yōu)于OK法。與二維輸入相比,使用三維輸入,GANs的RMSE減小28.10%,NSE提高5.06%;LSGANs的RMSE減小49.78%,NSE提高8.83%;GRBFNN的RMSE減小47.86%,NSE提高11.5%。GANs,LSGANs及GRBFNN模型使用三維輸入的估值精度高于二維輸入,可知在平均氣溫的插值中,3個深度學(xué)習(xí)模型對高程都比較敏感。與IDW相比,使用三維輸入,GANs的RMSE減小18.38%,NSE提高2.71%;LSGANs的RMSE減小39.46%,NSE提高5.16%;GRBFNN的RMSE減小27.57%,NSE提高3.89%。
表2 平均氣溫的插值結(jié)果對比
下面對模型的最好結(jié)果進行對比。由表1~2可知,在降水量和平均氣溫的插值中,IDW法的估值精度優(yōu)于OK法,因此IDW法更適合于空間數(shù)據(jù)的插值。LSGANs的RMSE和NSE都優(yōu)于GANs,表明LSGANs在根本上解決GANs模型訓(xùn)練困難及生成樣本質(zhì)量不高的問題。在降水量的插值中,LSGANs的RMSE比GANs的RMSE減小13.16%,而NSE提高1.96%;比GRBFNN的RMSE減小1.92%,而NSE提高0.24%。在平均氣溫的插值中,LSGANs的RMSE比GANs的RMSE減小25.83%,而NSE提高2.45%;比GRBFNN的RMSE減小16.42%,而NSE提高1.27%。在降水量和平均氣溫的插值中,3個深度模型的泛化能力排序:LSGANs>GRBFNN>GANs,泛化能力最強的是LSGANs。GRBFNN的效果不如LSGANs,是因為GRBFNN是一個網(wǎng)絡(luò)訓(xùn)練與測試,只能通過算法減小誤差,沒有兩個網(wǎng)絡(luò)的博弈,很難捕獲數(shù)據(jù)深層的數(shù)量與特征關(guān)系。LSGANs通過兩個網(wǎng)絡(luò)的博弈,使得模型能夠深度挖掘數(shù)據(jù)之間的潛在聯(lián)系,使生成網(wǎng)絡(luò)學(xué)習(xí)目標(biāo)更明確,優(yōu)化方向更清晰,因此LSGANs的插值精度最高。
本研究從對抗訓(xùn)練過程中,截取600輪的訓(xùn)練數(shù)據(jù)進行展示,詳情見圖3。
圖3 LSGANs的生成對抗過程
圖3的(a)和(b)分別是模型在降水量和平均氣溫的插值訓(xùn)練時,生成網(wǎng)絡(luò)G與判別網(wǎng)絡(luò)D的對抗過程,(c)和(d)分別是模型在降水量和平均氣溫的插值訓(xùn)練時,估計值與觀測值的RMSE變化。從(a)和(b)中可以輕松地看到模型的對抗過程。(a)中黑色曲線G在下降到一定程度時會突然上升,這反映了生成網(wǎng)絡(luò)G的對抗性質(zhì)。當(dāng)G達到一個局部最優(yōu)值時,G無法進一步欺騙判別網(wǎng)絡(luò)D,這時G將跳出局部參數(shù)空間并調(diào)整更新方向,嘗試找到更理想的解決方案。而在嘗試新方向的優(yōu)化時,通常會返回較差的生成數(shù)據(jù)從而導(dǎo)致曲線上升。較差的生成數(shù)據(jù)在通過D后的輸出與Real的誤差會變大,導(dǎo)致D的最小二乘損失MSELoss(Mean Square Error Loss)會升高,即D的曲線也會反彈。通過G不斷更新自身,產(chǎn)生的生成數(shù)據(jù)能夠騙過D,即生成數(shù)據(jù)更逼真,此時G的MSELoss將會下降(曲線下降),產(chǎn)生的生成數(shù)據(jù)質(zhì)量較高,再通過D后的輸出與Real的誤差變小,D的曲線也會下降。隨著模型的持續(xù)優(yōu)化,估計值與觀測值的RMSE也逐步下降。
由圖3(c)也可以獲得驗證,每次G重新選擇優(yōu)化方向時誤差變大,估計值與觀測值的RMSE都會反彈一個較大值,之后隨著G的更新再持續(xù)下降。從RMSE曲線還可以發(fā)現(xiàn),在這600輪訓(xùn)練的最初一段,RMSE曲線處于穩(wěn)定下降的狀態(tài)。這是因為圖3(a)中,G持續(xù)更新自身調(diào)整模型參數(shù),G的MSELoss在波動下降,產(chǎn)生的生成數(shù)據(jù)更逼真。而生成數(shù)據(jù)質(zhì)量較高,騙過D的可能性很大,導(dǎo)致D的MSELoss也在波動下降。因此估計值與觀測值的RMSE穩(wěn)定下降。在600輪訓(xùn)練的中間一段,D和G的曲線波動比較劇烈。G調(diào)整優(yōu)化方向之后,多次出現(xiàn)趨于0.25的極小MSELoss,對應(yīng)D出現(xiàn)趨于0.15的極小MSELoss,估計值與觀測值的RMSE也多次出現(xiàn)趨于100的極小RMSE。而在343~600輪訓(xùn)練期間,G的MSELoss仍然在劇烈波動,雖然G的曲線也出現(xiàn)了趨于0.25的極小MSELoss,但是D的MSELoss卻穩(wěn)定在0.3~0.35之間,這是因為經(jīng)過一定程度的訓(xùn)練,D的判別能力提升,G很難欺騙D,所以對應(yīng)估計值與觀測值的RMSE也沒有再出現(xiàn)更小的值。
圖3(b)的變化與圖3(a)的變化情況類似。唯一的區(qū)別就是在第35~205輪訓(xùn)練期間,D和G的MSELoss有一小段波動上升,對應(yīng)圖3(d)中估計值與觀測值的RMSE也有一定程度的波動上升。這是因為D的MSELoss波動上升導(dǎo)致G認為目前的優(yōu)化方向是錯誤的,因此加快調(diào)整自己的優(yōu)化方向?qū)е翯的MSELoss也在波動上升,一直到G找到一個可以讓D的MSELoss不再波動上升的方向,而不斷的調(diào)整優(yōu)化方向?qū)е鹿烙嬛蹬c觀測值的RMSE也出現(xiàn)增大的現(xiàn)象。
將訓(xùn)練集與測試集交換作為交叉驗證的測試集與訓(xùn)練集。分別應(yīng)用IDW、LSGANs和GRBFNN對降水量和平均氣溫進行插值,結(jié)果見表3和表4。因為IDW法優(yōu)于OK法,GANs的效果較差,因此不再進行交叉驗證。
表3 降水量的插值結(jié)果對比
表4 平均氣溫的插值結(jié)果對比
由表3可知,與三維輸入相比,使用二維輸入,LSGANs的RMSE減小5.16%,NSE提高1.35%;GRBFNN的RMSE減小3.48%,NSE提高0.8%。LSGANs和GRBFNN的二維輸入雖然優(yōu)于三維輸入,但是差別不大。這可能是訓(xùn)練樣本總量減少導(dǎo)致。與IDW法相比,使用二維輸入,LSGANs的RMSE減小5.26%,NSE提高1.39%,GRBFNN的RMSE減小10.73%,NSE提高2.76%。GRBFNN比LSGANs的RMSE減小5.77%,而NSE提高1.37%,GRBFNN的精度要優(yōu)于LSGANs。
由表4可知,與二維輸入相比,使用三維輸入,LSGANs的RMSE減小49.05%,NSE提高23.12%;GRBFNN的RMSE減小58.28%,NSE提高17.51%。LSGANs的三維輸入的估值精度明顯高于二維輸入,表明在訓(xùn)練樣本總量較少的情況下,模型對于平均氣溫的插值精度依然對高程很敏感。與IDW法相比,使用三維輸入,LSGANs的RMSE減小34.39%,NSE提高10.74%;GRBFNN的RMSE減小55.79%,NSE提高15.13%。GRBFNN比LSGANs的RMSE減小32.62%,而NSE提高4.39%,GRBFNN的精度要優(yōu)于LSGANs。
綜上,對于降水量的插值,建模時更適合使用二維輸入;對于平均氣溫的插值,建模時更適合使用三維輸入。當(dāng)訓(xùn)練樣本充足時,LSGANs優(yōu)于GRBFNN,但是LSGANs的插值精度受到訓(xùn)練樣本總量的影響,當(dāng)訓(xùn)練樣本總量較少時,模型的插值精度會降低,插值精度不如GRBFNN。
深度學(xué)習(xí)側(cè)重從數(shù)據(jù)驅(qū)動的角度來理解過程,在給定復(fù)雜空間一部分特征情況下,預(yù)測未知特征的能力很強,因此可以提供非線性近似描述數(shù)據(jù)潛在關(guān)系的方法?;贕ANs的深度學(xué)習(xí)模型由生成網(wǎng)絡(luò)G和判別網(wǎng)絡(luò)D組成。G嘗試從空間數(shù)據(jù)中挖掘出數(shù)據(jù)之間潛在的數(shù)量與特征關(guān)系,并使用學(xué)習(xí)到的空間知識盡可能準(zhǔn)確地生成空間數(shù)據(jù),目的是騙過D,而D也不斷的優(yōu)化自身,希望可以判別出觀測數(shù)據(jù)和生成數(shù)據(jù)。本研究建立了GANs、LSGANs及GRBFNN三個深度學(xué)習(xí)模型進行空間插值,與基準(zhǔn)方法的插值結(jié)果進行對比分析,同時進行交叉驗證,得出如下結(jié)論。
IDW法比OK法更適合對空間數(shù)據(jù)進行插值。LSGANs進行了改進之后,從根本上解決GANs訓(xùn)練困難及生成數(shù)據(jù)質(zhì)量不高的問題。當(dāng)訓(xùn)練樣本較多時,LSGANs在空間插值中表現(xiàn)最好,降水量的插值結(jié)果比IDW法的RMSE減小9.16%,NSE提高1.27%;平均氣溫的插值結(jié)果比IDW法的RMSE減小39.46%,NSE提高5.16%。當(dāng)訓(xùn)練樣本數(shù)量較少時,GRBFNN的插值精度更高,降水量的插值結(jié)果比IDW法的RMSE減小10.73%,NSE提高2.76%;平均氣溫的插值結(jié)果比IDW法的RMSE減小55.79%,NSE提高15.13%。高程對于平均氣溫的插值精度影響較大,對于降水量的插值精度影響較小。
本研究利用LSGANs和GRBFNN的深度學(xué)習(xí)模型進行空間插值的想法,期望能給未來有關(guān)空間插值的工作帶來啟發(fā)。隨著大數(shù)據(jù)技術(shù)和人工智能的快速發(fā)展,深度學(xué)習(xí)模型未來可能在與空間預(yù)測有關(guān)的各個領(lǐng)域被采用,具有很好的應(yīng)用前景。