靳華中,劉 陽(yáng),葉志偉
(湖北工業(yè)大學(xué)計(jì)算機(jī)學(xué)院,武漢 430068)
降噪是圖像處理中的一個(gè)重要應(yīng)用,是圖像處理中的一個(gè)經(jīng)典逆問(wèn)題.圖像降噪的目的是盡可能地將噪聲信號(hào)從受污染的圖像中分離出來(lái),并去除噪聲信號(hào),保留真實(shí)圖像信息,帶來(lái)更好的視覺效果.給定一個(gè)加性高斯白噪聲模型,它可以表示為y=x+v(x表示原圖像,v表示噪聲).圖像降噪是從帶有噪聲的圖像y中恢復(fù)干凈的圖像x.盡管在過(guò)去幾十年中已經(jīng)提出了許多圖像降噪算法,但由于當(dāng)前深度卷積神經(jīng)網(wǎng)絡(luò)(deep convolutional neural network,DCNN)方法比傳統(tǒng)的降噪方法降噪效果更優(yōu)[1-4],因此基于深度學(xué)習(xí)的算法成為當(dāng)前研究圖像降噪的熱點(diǎn)之一.
DCNN方法將圖像降噪作為一個(gè)監(jiān)督回歸問(wèn)題來(lái)處理,有效的利用了外部先驗(yàn)信息.通過(guò)大量成對(duì)干凈-噪聲圖像,學(xué)習(xí)得到一個(gè)高復(fù)雜度的多層網(wǎng)絡(luò)結(jié)構(gòu)約束函數(shù),將學(xué)習(xí)外部先驗(yàn)條件的方式推向極限.DCNN圖像降噪方法的優(yōu)勢(shì)主要體現(xiàn)在兩個(gè)方面:一方面,DCNN具有很深的層次結(jié)構(gòu),可以有效地提高圖像特征挖掘的能力和靈活性;另一方面,深度學(xué)習(xí)在訓(xùn)練過(guò)程中,采用正則化方法、RELU激活函數(shù)、批標(biāo)準(zhǔn)化處理等方法,加快了訓(xùn)練效率,提高降噪性能.
文獻(xiàn)[5-6]利用DCNN方法進(jìn)行圖像降噪時(shí),都獲得了較為顯著的降噪效果,但這些方法都存在一個(gè)明顯的缺點(diǎn):它們只針對(duì)某個(gè)特定水平的噪聲建立降噪模型,在圖像盲降噪中受到較大的限制.在解決圖像盲降噪方面,F(xiàn)C-AIDE方法能夠估計(jì)噪聲的未知水平,但是網(wǎng)絡(luò)參數(shù)的訓(xùn)練是在監(jiān)督訓(xùn)練和自適應(yīng)條件下微調(diào)得到的,其計(jì)算成本相對(duì)較大[7].降噪卷積神經(jīng)網(wǎng)絡(luò)(denoising convolutional neural network,DnCNN)利用殘差學(xué)習(xí)方法進(jìn)行圖像降噪,該方法采用殘差學(xué)習(xí)來(lái)估計(jì)殘差圖像,即噪聲圖像與潛在干凈圖像之間的差異[4],解決了噪聲水平未知的高斯降噪問(wèn)題.受DnCNN的啟發(fā),本文提出了一種反卷積降噪神經(jīng)網(wǎng)絡(luò)(denoising deconvolution neural network,DnDNN).在本文構(gòu)建的網(wǎng)絡(luò)結(jié)構(gòu)中,每一個(gè)隱藏層包括卷積運(yùn)算和反卷積運(yùn)算,卷積運(yùn)算是提取圖像的特征信息,包括邊緣、線條等特征,反卷積運(yùn)算是復(fù)原圖像,復(fù)原到卷積之前圖像的尺寸,最后一層做全連接,作為輸出層.本文方法利用反卷積網(wǎng)絡(luò)重構(gòu)圖像的方法進(jìn)行降噪,在模型訓(xùn)練過(guò)程中引入殘差學(xué)習(xí).殘差學(xué)習(xí)后得到的是純?cè)肼晥D像,純?cè)肼晥D像包含的信息比干凈圖像的少,訓(xùn)練起來(lái)更簡(jiǎn)單,效果更好;利用反卷積網(wǎng)絡(luò)重構(gòu)圖像進(jìn)行圖像降噪的方法需要的網(wǎng)絡(luò)層數(shù)更少,而且還能加快網(wǎng)絡(luò)的收斂速度,提高降噪性能.
實(shí)驗(yàn)表明,在已知噪聲強(qiáng)度級(jí)別的高斯降噪中,本文方法比現(xiàn)有的基于深度學(xué)習(xí)方法BM3D[8]、WNNM[9]的降噪效果好,比DnCNN方法的收斂時(shí)間短.對(duì)于噪聲強(qiáng)度級(jí)別未知的高斯降噪,本文方法也取得較好的降噪效果,其盲降噪方法比針對(duì)特定噪聲級(jí)訓(xùn)練特定模型的BM3D[8]和TNRD[10]的降噪方法性能更優(yōu).本文的主要工作總結(jié)如下:1) 提出了一種改進(jìn)的深度網(wǎng)絡(luò)殘差學(xué)習(xí)的圖像降噪方法;2) 本文提出的方法不僅能夠提高殘差學(xué)習(xí)的效率,加快訓(xùn)練速度,而且能夠進(jìn)一步提高降噪性能;3) 本文提出了一種新的損失函數(shù)計(jì)算方法,縮短了模型訓(xùn)練的收斂周期.
論文的其余部分組織如下:第2節(jié)簡(jiǎn)要介紹了相關(guān)工作.第3節(jié)首先介紹了提出的DnDNN模型,然后介紹了改進(jìn)的損失函數(shù).第4節(jié)是實(shí)驗(yàn)參數(shù)配置和結(jié)果分析部分.最后,第5節(jié)是本文的結(jié)論.
由于深度神經(jīng)網(wǎng)絡(luò)具有靈活的網(wǎng)絡(luò)結(jié)構(gòu)和強(qiáng)大的學(xué)習(xí)能力,因此深度學(xué)習(xí)技術(shù)目前已經(jīng)成為解決圖像降噪問(wèn)題非常有效的方法.在這些方法中,Kokkinos[11]將級(jí)聯(lián)網(wǎng)絡(luò)運(yùn)用到DCNN中,在圖像降噪方面取得了較好的效果;在[12-13]中,在DCNN的基礎(chǔ)上,引入了新的網(wǎng)絡(luò)結(jié)構(gòu),分別利用信號(hào)增強(qiáng)原理和多特征融合方法多次復(fù)用各個(gè)隱藏層的特征信息,將其運(yùn)用到圖像降噪中,也取得較好的效果;還有學(xué)者運(yùn)用特定的方法為特定領(lǐng)域噪聲降噪,如[14-17]文獻(xiàn)中采用的方法在乘性噪聲、醫(yī)學(xué)圖像噪聲的降噪方面取得顯著成效等等.盡管上述的深度學(xué)習(xí)方法在圖像降噪任務(wù)方面取得了很好的效果,但是當(dāng)網(wǎng)絡(luò)結(jié)構(gòu)很深時(shí),這些方法中的大多數(shù)會(huì)出現(xiàn)梯度消失或者梯度爆炸的問(wèn)題,使網(wǎng)絡(luò)性能退化.此外,上述方法是通過(guò)犧牲時(shí)間成本來(lái)提高降噪性能.
殘差網(wǎng)絡(luò)假設(shè)引用殘差映射比原始未引用映射更容易學(xué)習(xí),在圖像處理過(guò)程中,它去掉相同的圖像內(nèi)容,從而更關(guān)注噪聲部分.由于采用了殘差學(xué)習(xí)策略,極深的CNN可以很容易地進(jìn)行訓(xùn)練,提高了圖像分類和目標(biāo)檢測(cè)的準(zhǔn)確性[18].與殘差網(wǎng)絡(luò)不同,DnCNN使用單個(gè)殘差單元來(lái)預(yù)測(cè)殘差圖像,并解決了多個(gè)圖像降噪任務(wù)[4].為了提升訓(xùn)練效果,DnCNN將批量歸一化和殘差學(xué)習(xí)結(jié)合使用.
本文提出的DnDNN模型也采用了殘差學(xué)習(xí)方法.與DnCNN不同,DnDNN方法使用反卷積在不同網(wǎng)絡(luò)層次中對(duì)圖像進(jìn)行了重構(gòu),使得恢復(fù)的圖像含有更少的噪聲.與DnCNN相比,該模型具有收斂時(shí)間短、訓(xùn)練穩(wěn)定、降噪性能好等優(yōu)點(diǎn).
卷積網(wǎng)絡(luò)是一種自底向上的方法,對(duì)輸入圖像進(jìn)行多層卷積、非線性操作以及子采樣.反卷積網(wǎng)絡(luò)中的每一層都是自頂向下的,它試圖通過(guò)對(duì)帶有學(xué)習(xí)過(guò)濾器的特征映射的卷積求和來(lái)生成輸入圖像.反卷積網(wǎng)絡(luò)利用卷積稀疏編碼的多個(gè)交替層對(duì)圖像進(jìn)行分層分解.對(duì)第l層特征圖像進(jìn)行反卷積,得到第l層重構(gòu)圖像.如圖1所示.
圖1 反卷積過(guò)程Fig.1 Deconvolutional process
(1)
(2)
卷積神經(jīng)網(wǎng)絡(luò)可以看作是一個(gè)編碼的網(wǎng)絡(luò)結(jié)構(gòu)[20],提供從輸入到潛在特征空間的自下而上映射;反卷積網(wǎng)絡(luò)可以視為一個(gè)解碼器,將潛在特征映射回原始圖像空間.反卷積網(wǎng)絡(luò)最初被認(rèn)為是稀疏的、過(guò)于完整的特征層次結(jié)構(gòu),這與深度學(xué)習(xí)方法密切相關(guān).反卷積網(wǎng)絡(luò)可以學(xué)習(xí)從低層邊緣到高層對(duì)象部分的圖像表示,它以一種無(wú)監(jiān)督的方式在不同的尺度空間上恢復(fù)圖像特征.換句話說(shuō),深度學(xué)習(xí)對(duì)圖像進(jìn)行訓(xùn)練時(shí),模型的不同層次學(xué)習(xí)到不同級(jí)別的圖像特征信息.反卷積網(wǎng)絡(luò)通過(guò)訓(xùn)練卷積核產(chǎn)生不同層次的基于卷積稀疏編碼的潛在圖像特征.DnDNN的反卷積結(jié)構(gòu)采用了的層次模型,每一個(gè)反卷積層都試圖在一組超完整特征圖上進(jìn)行稀疏約束,從而降低輸入圖像的重構(gòu)誤差.對(duì)于圖像去噪,殘差圖像被視為DnDNN模型中噪聲觀測(cè)圖像與重建圖像的差值.
一般來(lái)說(shuō),針對(duì)特定任務(wù)訓(xùn)練深度卷積神經(jīng)網(wǎng)絡(luò)模型分為兩個(gè)步驟:1)設(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu);2)從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)模型.在網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)中,為了使其更適于圖像降噪,本文在DnCNN的基礎(chǔ)上,引入反卷積,并對(duì)原有的損失函數(shù)進(jìn)行改進(jìn).
圖2 DnDNN網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 DnDNN network structure
本文設(shè)計(jì)的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示,設(shè)計(jì)的網(wǎng)絡(luò)深度為10.每一層包含一組卷積運(yùn)算和一組反卷積運(yùn)算,卷積運(yùn)算是用于提取圖像的特征信息,包括邊緣、線條等特征,反卷積運(yùn)算是復(fù)原圖像,反卷積在重構(gòu)過(guò)程中,去掉了部分不能被重構(gòu)的噪聲信息;最后一層為全連接層,由一組卷積運(yùn)算組成,用于輸出圖像.在上述結(jié)構(gòu)中,每做一次卷積運(yùn)算(或反卷積運(yùn)算)后,緊接著做批歸一化(Batch Normalization,BN)和RELU,以加快收斂速度,提升訓(xùn)練效果.
算法步驟如下:
1) 加噪的原始圖像經(jīng)過(guò)卷積計(jì)算得到特征圖,然后對(duì)特征圖進(jìn)行反卷積,得到重構(gòu)圖像;
2) 加噪的原始圖像減去重構(gòu)圖像得到殘差圖像;
3) 將原始噪聲圖像與對(duì)應(yīng)的標(biāo)簽圖像相減的結(jié)果,再與第2步的殘差圖像做差值,并進(jìn)行最小化計(jì)算;
4) 設(shè)置迭代次數(shù),當(dāng)達(dá)到迭代次數(shù)時(shí),訓(xùn)練停止,否則重復(fù)1)~3).
本文實(shí)驗(yàn)設(shè)置的圖片塊大小為30×30,步長(zhǎng)為6,每層設(shè)置64個(gè)大小為3×3的卷積核,為了保證圖片輸入輸出尺寸大小一樣,采用零填充方式.除最后的全連接層外,每層處理包括卷積和反卷積,不使用池化層.
訓(xùn)練數(shù)據(jù)是帶有噪聲的圖像y=x+v,通過(guò)學(xué)習(xí)訓(xùn)練數(shù)據(jù)的模式來(lái)尋找映射函數(shù)f(y)=x,目的是預(yù)測(cè)潛在的干凈圖像.本文采用殘差學(xué)習(xí)獲取映射R(y)≈v,然后得到x=y-R(y),故損失函數(shù)的計(jì)算公式如下:
(3)
式中,yi-xi為樣本殘差值(即噪聲圖像值減去干凈圖像值),R(yi;Θ)為通過(guò)學(xué)習(xí)得到的期望殘差值,l(Θ)用L2正則化得到每個(gè)patch塊的損失函數(shù)值.在DnCNN中,最終的損失函數(shù)是每個(gè)patch塊損失函數(shù)累加,然后通過(guò)優(yōu)化得到盡可能小的損失函數(shù).由于均方誤差函數(shù)(MSE)對(duì)梯度變化較為敏感,損失函數(shù)在收斂過(guò)程中魯棒性較差,收斂速度較為緩慢.
為了縮短模型的收斂時(shí)間,又保證模型的降噪效果,本文結(jié)合L1正則化和L2正則化的各自優(yōu)勢(shì),對(duì)上述損失函數(shù)進(jìn)行優(yōu)化,其公式如下:
(4)
式中,t為超參數(shù),它用來(lái)調(diào)節(jié)損失函數(shù)L(t)的梯度.相比于平方損失,上式對(duì)于異常值不敏感,但它同樣保持了可微的特性.它基于絕對(duì)誤差(MAE)但在誤差很小的時(shí)候變成了MSE.可以使用超參數(shù)t來(lái)調(diào)節(jié)的梯度,當(dāng)t趨向于0時(shí)它就退化成了MAE,而當(dāng)t趨向于無(wú)窮時(shí)則退化為了MSE.損失函數(shù)利用了MAE和MSE各自優(yōu)點(diǎn),不僅可以保持其具有連續(xù)的導(dǎo)數(shù),同時(shí)可以利用MSE梯度隨誤差減小的特性來(lái)得到更精確的最小值,也對(duì)異常值具有更好的魯棒性.通過(guò)實(shí)驗(yàn)分析,當(dāng)把t的值設(shè)置為0.25時(shí),既可以保證訓(xùn)練速度,也能較好的加快收斂速度.
對(duì)于已知或未知噪聲水平的高斯降噪,訓(xùn)練集為400張像素為180×180的灰度圖片.本文方法是在σ∈[0,55]噪聲水平的訓(xùn)練集下進(jìn)行訓(xùn)練的.為了驗(yàn)證本文方法對(duì)已知噪聲水平的降噪效果,選取了噪聲強(qiáng)度分別為σ=15、25、50的高斯噪聲圖像.每個(gè)patch塊的尺寸大小為30×30像素.為了擴(kuò)充數(shù)據(jù)樣本,并且減小邊緣效應(yīng)的影響,將400張像素為180×180圖片中的每張圖片按照其尺寸大小的(1,0.9)倍進(jìn)行2次裁剪,然后采用比DnCNN更小的步長(zhǎng),以便保留圖片更多的邊緣信息.為了驗(yàn)證本文方法的降噪效果,采用BSD68和SET12數(shù)據(jù)集進(jìn)行測(cè)試.
表1 BSD68數(shù)據(jù)集上不同方法的平均PSNR(DB)結(jié)果Tab.1 The average PSNR(db) results of different methods on the BSD68 dataset
表2 SET12數(shù)據(jù)集上不同方法的平均PSNR(DB)結(jié)果Tab.2 The average PSNR(DB) results of different methods on the SET12 dataset
表3 不同降噪方法在噪聲級(jí)別為25,圖像尺寸大小分別為256×256、512×512和1024×1024下分別在CPU和GPU下 運(yùn)行時(shí)間(s),對(duì)于CSF、TNRD、DnCNN和本文提出的DnDNN的CPU(左)和GPU(右)的運(yùn)行時(shí)間Tab.3 Run time (in Seconds) on CPU (left) and GPU (right) of different methods on images of Size 256×256, 512×512 and 1024×1024 with Noise Level 25 for CSF,TNRD ,DnCNN and DnCNN
圖4描述的是本文的DnDNN在基于梯度優(yōu)化算法SGD,運(yùn)用殘差學(xué)習(xí)方法以及改進(jìn)的損失函數(shù)在噪聲強(qiáng)度為σ=25時(shí)模型訓(xùn)練的PSNR值隨迭代周期的變化圖.從圖4可以看出,利用DnDNN方法訓(xùn)練時(shí),當(dāng)?shù)芷诘?8次左右時(shí),PSNR值趨近于穩(wěn)定,為30.38 dB,其收斂速度非常快,訓(xùn)練效果也非常好.
圖3 利用不同降噪方法得到的一張來(lái)自BSD68的噪聲水平為50的圖片的降噪結(jié)果Fig.3 The noise reduction result of a picture with a noise level of 50 from BSD68 obtained by different noise reduction methods
圖4 DnDNN模型下σ=25高斯降噪訓(xùn)練收斂效果圖Fig.4 Training convergence effect diagram of σ=25 Gauss noise reduction under DnDNN model
除了降噪效果以外,模型的運(yùn)行效率和收斂時(shí)間也是評(píng)價(jià)模型性能好壞的重要指標(biāo).表3給出了一些經(jīng)典圖像降噪算法在噪聲級(jí)別為25,圖像尺寸大小分別為256×256、512×512和1024×1024下運(yùn)行時(shí)間,從表中數(shù)據(jù)可知,DnDNN方法的運(yùn)行效率BMD和TNRD方法稍低,與DnCNN-B方法相當(dāng),考慮到DnDNN方法具有盲降噪的優(yōu)點(diǎn),本文提出的DnDNN方法仍然具有較高的計(jì)算效率.再考慮模型的收斂時(shí)間,由于DnDNN方法具有盲降噪性能,所以在對(duì)比模型的收斂時(shí)間時(shí),DnDNN方法主要與DnCNN-B方法進(jìn)行對(duì)比.從圖5可以看出,當(dāng)?shù)?0個(gè)周期時(shí),本文提出的DnDNN算法訓(xùn)練結(jié)果趨于穩(wěn)定,此時(shí)的PSNR值為30.38 dB.本文提出的方法每一個(gè)迭代周期所用的時(shí)間為317 s,略高于DnCNN-B每一個(gè)迭代周期所用的時(shí)間(DnCNN-B每一個(gè)迭代周期用時(shí)301 s).但是本文方法的收斂時(shí)間要遠(yuǎn)遠(yuǎn)少于DnCNN-B的收斂時(shí)間,DnCNN-B大約迭代50次才趨近于收斂,收斂時(shí)間大約為14 932 s,DnDNN的收斂時(shí)間僅僅約為6 263 s.對(duì)大量圖像進(jìn)行統(tǒng)計(jì)分析,本文方法收斂時(shí)間比DnCNN-B縮短了120%~138%.
圖5 DnCNN和DnDNN模型下 σ=25高斯降噪訓(xùn)練收斂速度對(duì)比圖Fig.5 Comparison chart of convergence rate of σ=25 Gauss noise reduction training under DnCNN and DnDNN models
為了比較本文方法與DnCNN-B方法之間的圖像降噪效果,本文通過(guò)多組實(shí)驗(yàn)來(lái)分析影響訓(xùn)練收斂速度的因素.與收斂速度相關(guān)的網(wǎng)絡(luò)參數(shù)包括學(xué)習(xí)率、batch塊、步長(zhǎng)、卷積層數(shù)以及損失函數(shù).
圖6 幾種不同去噪方法在σ=25下的 高斯降噪訓(xùn)練收斂速度對(duì)比圖Fig.6 Comparison of convergence rate of Gaussian noise reduction training under σ=25 for several different denoising methods
通過(guò)對(duì)影響訓(xùn)練收斂速度的因素分別設(shè)置不同數(shù)值,本文分別對(duì)圖像去噪進(jìn)行了5組實(shí)驗(yàn),其結(jié)果如圖6所示.
第1組實(shí)驗(yàn)是DnCNN-B的方法,它使用L2正則化作為損失函數(shù),batch大小為40×40,步長(zhǎng)為10,初始學(xué)習(xí)率為0.001,卷積層數(shù)為17.當(dāng)?shù)?0次后,學(xué)習(xí)率減小為原來(lái)的1/10.
第2組實(shí)驗(yàn)與第四組實(shí)驗(yàn)的網(wǎng)絡(luò)結(jié)構(gòu)與DnCNN-B相同,只是對(duì)其參數(shù)設(shè)置進(jìn)行了調(diào)整;第三組實(shí)驗(yàn)是在DnCNN-B方法的基礎(chǔ)上在每個(gè)卷積層后面設(shè)置一個(gè)反卷積層,其余結(jié)構(gòu)與DnCNN-B相同,具體設(shè)置如下所示:
第2組實(shí)驗(yàn)為 Test 1方法,設(shè)置batch大小為40×40,步長(zhǎng)為10,初始學(xué)習(xí)率為0.001,卷積層數(shù)為17.當(dāng)每迭代10次后,學(xué)習(xí)率減小為原來(lái)的1/10.
第3組實(shí)驗(yàn)為 Test 2方法,使用L2正則化作為損失函數(shù),設(shè)置batch大小為30×30,步長(zhǎng)為6,初始學(xué)習(xí)率為0.001,卷積和反卷積結(jié)層數(shù)為10,當(dāng)每迭代10次后,學(xué)習(xí)率減小為原來(lái)的1/10.
第4組實(shí)驗(yàn)為 Test 3方法,使用L2正則化作為損失函數(shù),設(shè)置batch大小為30×30,步長(zhǎng)為6,初始學(xué)習(xí)率為0.001,卷積層數(shù)為17.當(dāng)?shù)?0次后,學(xué)習(xí)率減小為原來(lái)的1/10;
第5組實(shí)驗(yàn)是本文提出的 DnDNN方法.在網(wǎng)絡(luò)結(jié)構(gòu)中加入改進(jìn)的損失函數(shù)和反卷積層的基礎(chǔ)上,設(shè)置batch大小為30×30,步長(zhǎng)為6,初始學(xué)習(xí)率為0.001,層數(shù)為10.當(dāng)每迭代10次后,學(xué)習(xí)率減小為原來(lái)的1/10.
從圖6可知,在5組實(shí)驗(yàn)中,DnDNN降噪方法獲得了最好的去噪效果,當(dāng)?shù)?0個(gè)周期時(shí)已經(jīng)趨于穩(wěn)定.本文方法與DnCNN-B方法比較,其訓(xùn)練收斂速度提高的主要貢獻(xiàn)為在原有的網(wǎng)絡(luò)結(jié)構(gòu)中加入反卷積層,且應(yīng)用改進(jìn)后的損失函數(shù)計(jì)算圖像的殘差值.
本文在原有的深度殘差學(xué)習(xí)的網(wǎng)絡(luò)結(jié)構(gòu)中,通過(guò)引入反卷積層和改進(jìn)損失函數(shù),提出了一種基于反卷積降噪神經(jīng)網(wǎng)絡(luò)的圖像降噪算法.反卷積的引入提高了噪聲圖像殘差學(xué)習(xí)的質(zhì)量和效率,對(duì)損失函數(shù)的優(yōu)化,則進(jìn)一步加快訓(xùn)練收斂速度,提高降噪效果.與針對(duì)特定圖像噪聲水平訓(xùn)練得到的判別模型不同,本文提出的DnDNN算法具有較強(qiáng)的處理未知噪聲水平的能力.與DnCNN-B算法相比,在保證降噪效果和運(yùn)行效率的情形下,本文算法的收斂時(shí)間大幅降低.