国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度卷積神經(jīng)網(wǎng)絡(luò)的視覺(jué)SLAM去模糊系統(tǒng)

2018-01-17 11:00繆弘張文強(qiáng)
中興通訊技術(shù) 2018年5期
關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)

繆弘 張文強(qiáng)

摘要:提出了一種高效的、基于深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)的圖像去模糊算法。網(wǎng)絡(luò)結(jié)構(gòu)基于條件生成對(duì)抗網(wǎng)絡(luò),并使用堆疊的自編碼器結(jié)構(gòu)與跳躍相連接。相關(guān)的試驗(yàn)結(jié)果表明:該算法有良好的圖像去模糊效果,并且能夠大幅度地降低時(shí)間與內(nèi)存開(kāi)銷。

關(guān)鍵詞:圖像去模糊;卷積神經(jīng)網(wǎng)絡(luò);對(duì)抗生成網(wǎng)絡(luò)

1 模糊對(duì)視覺(jué)SLAM的影響及圖像去模糊簡(jiǎn)介

同時(shí)定位與地圖構(gòu)建(SLAMS)的目的是讓機(jī)器人利用各類傳感器信息來(lái)得知自身的位置以及周圍的環(huán)境。因此,SLAM是實(shí)現(xiàn)機(jī)器人自主移動(dòng)的一項(xiàng)關(guān)鍵技術(shù)。視覺(jué)SLAM是指利用視覺(jué)傳感器的信息的SLAM系統(tǒng),其輸入就是視覺(jué)傳感器得到的圖像。

在機(jī)器人運(yùn)行過(guò)程中,因?yàn)橄鄼C(jī)抖動(dòng)、景物移動(dòng)等原因,都會(huì)造成圖像模糊。無(wú)論是特征點(diǎn)法還是直接法,模糊的圖像輸入都會(huì)直接影響視覺(jué)SLAM系統(tǒng),降低系統(tǒng)整體的運(yùn)行效率。視覺(jué)SLAM系統(tǒng)需要將拍攝的前后兩幀圖像進(jìn)行匹配,根據(jù)匹配結(jié)果對(duì)自身進(jìn)行定位,這一過(guò)程稱為跟蹤。在跟蹤過(guò)程中,模糊的輸入圖像會(huì)造成匹配失準(zhǔn)或無(wú)法匹配,這被稱為跟蹤失敗。當(dāng)出現(xiàn)跟蹤失敗時(shí),需要讓整個(gè)機(jī)器人停止運(yùn)動(dòng)或者回退,重新拍攝清晰的圖像,同時(shí)需要進(jìn)行全局的地圖搜索,定位當(dāng)前機(jī)器人的位置,直至跟蹤成功,機(jī)器人再重新開(kāi)始運(yùn)動(dòng)。全局的地圖搜索是一個(gè)相對(duì)耗時(shí)的操作,如果頻繁地觸發(fā)這一操作,會(huì)影響整個(gè)SLAM系統(tǒng)的運(yùn)行效率。同時(shí),每次機(jī)器人停止運(yùn)動(dòng)或者回退,都使得運(yùn)行過(guò)程變得不連續(xù),影響了流暢性。因此,模糊的輸入圖像是需要避免的。為了避免模糊的輸入圖像,我們可以使用去模糊算法對(duì)圖像進(jìn)行處理,恢復(fù)出清晰的圖像。

相機(jī)抖動(dòng)、相機(jī)與景物之間的相對(duì)運(yùn)動(dòng)造成模糊一般被稱為運(yùn)動(dòng)模糊。圖像中的運(yùn)動(dòng)模糊效果通常在空間上是不均勻的,這是由于不同對(duì)象的運(yùn)動(dòng)經(jīng)常是彼此不同的。取模糊算法的目的就是恢復(fù)出一張沒(méi)有模糊的清晰的圖像。以前的大部分方法都是通過(guò)這個(gè)模型來(lái)建模圖像上的模糊:

其中B,K,S和n分別是模糊的圖像、模糊核、潛在的清晰圖像和噪聲。在去模糊問(wèn)題中,模糊核是未知的。因此,這些方法需要在只有給定的模糊圖像B同時(shí)估計(jì)模糊核K和潛在清晰圖像S,這其實(shí)可以看為一個(gè)病態(tài)的問(wèn)題。

實(shí)際上,真實(shí)世界模糊圖像的模糊核往往在空間上不均勻。估計(jì)空間非均勻的模糊核是一個(gè)難題,因?yàn)槊總€(gè)像素的模糊核都可能不同。因此,以前的一些方法[1-4]都對(duì)模糊來(lái)源做了一些簡(jiǎn)單的假設(shè),以簡(jiǎn)化模糊核估計(jì)。然而,由于實(shí)際的模糊核通常比所假設(shè)的模糊核更加復(fù)雜,所以通過(guò)這些方法估計(jì)的模糊核是不準(zhǔn)確的。不準(zhǔn)確的模糊核的估計(jì)直接會(huì)降低潛在的清晰圖像的質(zhì)量。因此,這些方法只適用于幾種特定的模糊類型。

近年來(lái),越來(lái)越多的方法使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)來(lái)解決去模糊問(wèn)題的方法[5-10]。由于缺乏真實(shí)場(chǎng)景下的模糊清晰圖像對(duì),文獻(xiàn)[5-8]中的方法通過(guò)合成模糊核進(jìn)行卷積來(lái)產(chǎn)生模糊圖像進(jìn)行訓(xùn)練。另外,這些方法不是以端到端的方式,并且仍然需要估計(jì)模糊核或逆模糊核。因此,這些方法仍然存在模糊核的估計(jì)不準(zhǔn)確的問(wèn)題,而且它們?cè)谡鎸?shí)模糊圖像上的表現(xiàn)比人工生成的模糊圖像要差。文獻(xiàn)[9]提出了一個(gè)由高速攝像機(jī)拍攝的真實(shí)場(chǎng)景下的模糊清晰圖像數(shù)據(jù)集,文獻(xiàn)[9-10]中的模型在這個(gè)數(shù)據(jù)集上進(jìn)行了訓(xùn)練。此外,兩種方法都是以端對(duì)端的方式,直接生成清晰圖像,沒(méi)有進(jìn)行模糊核的估計(jì)。因此,這兩種方法在性能上都超越了以前的方法。然而,文獻(xiàn)[9]中的方法運(yùn)行緩慢,文獻(xiàn)[10]中的方法相對(duì)較快,但仍需要大量?jī)?nèi)存資源,這使得人們很難在實(shí)踐中應(yīng)用這些方法。

基于上述的研究現(xiàn)狀,我們提出了一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的圖像去模糊算法。算法整體基于條件對(duì)抗生成網(wǎng)絡(luò),在網(wǎng)絡(luò)結(jié)構(gòu)上使用堆疊的自編碼器結(jié)構(gòu)與跳躍連接。通過(guò)在基準(zhǔn)數(shù)據(jù)集上的實(shí)驗(yàn),算法表現(xiàn)出了良好的圖像去模糊效果,并且能夠大幅度地降低時(shí)間與內(nèi)存開(kāi)銷。算法的高效性使其更容易與視覺(jué)SLAM系統(tǒng)相結(jié)合。

2 基于深度卷積神經(jīng)網(wǎng)絡(luò)的去模糊算法

2.1 網(wǎng)絡(luò)結(jié)構(gòu)

我們的網(wǎng)絡(luò)是基于對(duì)抗生成網(wǎng)絡(luò)設(shè)計(jì)的,包含有1個(gè)生成器和1個(gè)鑒別器。生成器的任務(wù)是從輸入的模糊圖像中提取特征,利用特征生成出一張足以“騙過(guò)”鑒別器的圖像。鑒別器的任務(wù)是正確地判別出一張圖像是真實(shí)的清晰圖像,還是一張生成器生成出來(lái)的圖像。通過(guò)讓生成器和鑒別器互相對(duì)抗式地學(xué)習(xí),生成器和鑒別器的能力都能得到提升,最終生成器能從一張輸入的模糊圖像中生成出一張真實(shí)的清晰圖像。

生成器的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。生成器的結(jié)構(gòu)包括3個(gè)部分:頭部、中部與尾部。

頭部只包含有一個(gè)5×5的卷積層。這個(gè)卷積層將3通道的輸入圖像映射為一個(gè)64通道的特征映射,作為生成器中部的基礎(chǔ)。我們并沒(méi)有在頭部的卷積層后接一個(gè)激活層,這是因?yàn)槲覀冊(cè)谏善髦胁康臉?gòu)建模塊中使用了文獻(xiàn)[11]中提到的前置激活層的方法,所以頭部卷積層的激活層包含在了中部的構(gòu)建模塊中。

中部包含有連續(xù)N個(gè)構(gòu)建模塊,并且每一個(gè)構(gòu)建模塊都有一個(gè)殘差連接。因?yàn)闃?gòu)建模塊是基于自編碼器結(jié)構(gòu)的,所以我們把構(gòu)建模塊稱為“自編碼器模塊”。因?yàn)檩斎氲哪:龍D像與要輸出的清晰圖像在數(shù)值上很接近,所以網(wǎng)絡(luò)所需要學(xué)習(xí)的函數(shù)比起零映射更接近與恒等映射,而帶有殘差連接的結(jié)構(gòu)更容易學(xué)習(xí)到一個(gè)恒等映射[12]。我們選擇將N個(gè)自編碼器模塊順序地堆疊,因?yàn)檫@使得網(wǎng)絡(luò)能夠重復(fù)地從整張圖像中提取特征。每一個(gè)自編碼器模塊只需要在輸入的特征映射上做一點(diǎn)改進(jìn),最終就能得到一個(gè)足夠好的特征映射。在實(shí)驗(yàn)中,我們選擇N=2。

尾部包含有一個(gè)激活層和一個(gè)5×5的卷積層。尾部的任務(wù)是將中部產(chǎn)生的特征映射變換到最終的輸出圖像。在整個(gè)生成器中,我們都沒(méi)有使用任何歸一化層,因?yàn)槲覀儼l(fā)現(xiàn)添加歸一化層反而會(huì)使得結(jié)果變差,同時(shí)會(huì)帶來(lái)更大的時(shí)間與內(nèi)存開(kāi)銷。

2.2 自編碼器模塊結(jié)構(gòu)

自編碼器模塊的結(jié)構(gòu)如圖2所示。我們使用一種殘差模塊、最大池化層和最近鄰插值層來(lái)構(gòu)建自編碼器模塊。我們稱這種殘差模塊為“基礎(chǔ)模塊”?;A(chǔ)模塊能生成維度與其輸入一樣的特征映射。我們將一個(gè)基礎(chǔ)模塊和一個(gè)最大池化層定義為一組“上采樣組”,將一個(gè)基礎(chǔ)模塊和一個(gè)最近鄰插值層定義為一組“下采樣組”。在自編碼器模塊中,輸入的特征映射先經(jīng)過(guò)L組下采樣組不斷下采樣,直至到達(dá)瓶頸層(包含一個(gè)基礎(chǔ)模塊),然后再經(jīng)過(guò)L組上采樣組不斷上采樣。同時(shí),我們?cè)诘趇個(gè)最大池化層和第L-i個(gè)最近鄰插值層中添加了跳躍連接,共L個(gè)跳躍連接。在實(shí)驗(yàn)中,我們選擇L=4。

自編碼模塊的結(jié)構(gòu)與Hourglass Network[13]和U-Net[14]的結(jié)構(gòu)類似。類似自編碼器的結(jié)構(gòu)能夠提取不同尺度的特征,而跳躍連接能夠?qū)⑺鼈兘M合起來(lái)。因?yàn)橥粡垐D像,模糊的程度會(huì)隨著尺度的降低而降低,所以不同尺度的特征可以用來(lái)處理不同程度的模糊。因?yàn)檩斎雸D像上各處的模糊程度都可能相同,所以提取不同尺度的特征是很重要的[15]。我們使用跳躍連接是因?yàn)樘S連接能直接將網(wǎng)絡(luò)的低層信息傳遞到網(wǎng)絡(luò)的高層,這能讓網(wǎng)絡(luò)的輸出共享低層信息。另外,跳躍連接還能直接將梯度信息從高層傳遞到低層,這會(huì)讓網(wǎng)絡(luò)的訓(xùn)練更加容易。

2.3 基礎(chǔ)模塊結(jié)構(gòu)

基礎(chǔ)模塊的結(jié)構(gòu)如圖3所示?;A(chǔ)模塊的輸入與輸出維度相同,我們將輸入與輸出的通道數(shù)定義為Chr。在一個(gè)基礎(chǔ)模塊中,共有C條路徑。每一條路徑包含兩個(gè)卷積核大小為3×3的卷積層,并且在每個(gè)卷積層之前都有一個(gè)激活層。第1個(gè)卷積層的輸出與第2的卷積層的輸入通道數(shù)相同,都為D。每條路徑除了卷積層的膨脹系數(shù)都相同。C條路徑中,每個(gè)卷積層的膨脹系數(shù)從1增加到C。基礎(chǔ)模塊也包含一個(gè)殘差連接。我們將所有路徑的輸出與模塊的輸入相加,得到最后的輸出。在實(shí)驗(yàn)中,我們選擇Chr =64,C =4,D =16。

基礎(chǔ)模塊的結(jié)構(gòu)設(shè)計(jì)受到了ResNeXt[16]中殘差模塊的啟發(fā)。這2種模塊都使用了殘差連接,并且將多路操作聚合起來(lái)。但與ResNeXt中的殘差模塊不同的是:基礎(chǔ)模塊中每一路操作都不同,而ResNeXt中每一路操作都相同。每一路中使用不同的膨脹系數(shù),可以在不增加參數(shù)量的情況下增大了感受域,同時(shí)還能提取到不同尺度的特征。

2.4 鑒別器結(jié)構(gòu)

鑒別器是基于條件對(duì)抗生成網(wǎng)絡(luò)設(shè)計(jì)的,需要兩組圖像對(duì)作為輸入。一組圖像對(duì)包含一張模糊圖像與對(duì)應(yīng)的清晰圖像,另一對(duì)圖像對(duì)包含模糊圖像和對(duì)應(yīng)的經(jīng)生成器處理的圖像。與傳統(tǒng)的對(duì)抗生成網(wǎng)絡(luò)相比,條件對(duì)抗生成網(wǎng)絡(luò)的鑒別器需要一張額外的模糊圖像作為輸入。這樣做的好處是在讓生成器生成的圖像“欺騙”鑒別器的同時(shí),還能保持與輸入的模糊圖像的一致性。

鑒別器結(jié)構(gòu)的設(shè)計(jì)參照PatchGAN[17],只包含5個(gè)卷積層。鑒別器輸出的是一個(gè)特征映射,特征映射中的每一個(gè)值都對(duì)應(yīng)于輸入圖像中的一塊。因此,比起整張圖像,鑒別器更著重于局部的圖像塊,這會(huì)鼓勵(lì)生成器去生成更清晰的局部邊緣與結(jié)構(gòu)。而且,淺層的鑒別器結(jié)構(gòu)也能節(jié)約訓(xùn)練的時(shí)間。

2.5 損失函數(shù)

生成器的損失函數(shù)包含了[?1]損失函數(shù)和對(duì)抗損失函數(shù)。[?1]損失函數(shù)常常被用于圖像恢復(fù)任務(wù),它可以讓生成圖像與目標(biāo)圖像的像素值更接近。然而,只使用[?1]損失函數(shù)會(huì)導(dǎo)致結(jié)果過(guò)于平滑。為了防止過(guò)于平滑,我們將對(duì)抗損失函數(shù)與[?1]相結(jié)合。我們沒(méi)有使用文獻(xiàn)[18]中使用的對(duì)抗損失函數(shù)形式,而是使用了最小二乘生成對(duì)抗網(wǎng)絡(luò)(LS-GAN)19]中的形式。鑒別器的對(duì)抗損失函數(shù)定義如式(2):

生成器的對(duì)抗損失函數(shù)定義如式(3):

其中,B和S分別表示模糊圖像集合和清晰圖像集合,a和b分別表示生成圖像和真實(shí)圖像的標(biāo)簽,c表示生成圖片想要達(dá)到的標(biāo)簽。根據(jù)文獻(xiàn)[19]中的設(shè)置,我們選擇a=0,b=1,c=1。與文獻(xiàn)[18]中的對(duì)抗損失函數(shù)相比,LS-GAN中的形式在訓(xùn)練中更加穩(wěn)定,更容易訓(xùn)練。最后,整體的損失函數(shù)如公式(4)所示:

在實(shí)驗(yàn)中,我們將權(quán)重系數(shù)設(shè)為[λ=0.01]。

3 相關(guān)實(shí)驗(yàn)

所有的實(shí)驗(yàn)都是在同一臺(tái)使用Titan XP顯卡的工作站上進(jìn)行的。我們的模型使用pytorch庫(kù)來(lái)實(shí)現(xiàn)。

3.1 GOPRO數(shù)據(jù)集上的實(shí)驗(yàn)

GOPRO數(shù)據(jù)集包含了3 214對(duì)高速攝像機(jī)拍攝的模糊清晰圖像對(duì),其中訓(xùn)練集包含2 103對(duì),測(cè)試集包含1 111對(duì)。我們與其他先進(jìn)的去模糊算法進(jìn)行了對(duì)比實(shí)驗(yàn),并進(jìn)行了定性與定量的分析。圖4展示了一些去模型效果圖,從中我們能看出多尺度卷積神經(jīng)網(wǎng)絡(luò)(MS-CNN)方法[9]與孫的方法[7]都出現(xiàn)了振鈴效應(yīng),而我們的方法則避免了這一情況。表1展示了定量分析的結(jié)果,我們的方法在峰值信噪比(PSNR)和結(jié)構(gòu)相似性(SSIM)的指標(biāo)上都遠(yuǎn)遠(yuǎn)超越了其他的一些方法。

3.2 K?hler數(shù)據(jù)集上的實(shí)驗(yàn)

K?hler數(shù)據(jù)集[20]包含4張清晰圖像,每張清晰圖片有12張對(duì)應(yīng)的模糊圖像。作者記錄了12條不同的相機(jī)軌跡來(lái)生成12張不同的模糊圖像。我們?cè)贙?hler數(shù)據(jù)集上進(jìn)行了對(duì)比實(shí)驗(yàn),并做了定量分析,如表2所示。

3.3 時(shí)間與內(nèi)存開(kāi)銷

我們?cè)跁r(shí)間與內(nèi)存開(kāi)銷上與其他方法做了對(duì)比。為了公平起見(jiàn),我們用pytorch庫(kù)重新實(shí)現(xiàn)了MS-CNN[9]與深度對(duì)抗濾波(DGF)[10]。對(duì)于每一個(gè)方法,我們分別測(cè)試了1 000張1 280×720的圖片,計(jì)算平均的時(shí)間與內(nèi)存開(kāi)銷。對(duì)于時(shí)間測(cè)試,我們只計(jì)算正向傳播的時(shí)間,不考慮反向傳播的時(shí)間。對(duì)于內(nèi)存測(cè)試,我們只計(jì)算生成器的內(nèi)存開(kāi)銷,不考慮鑒別器的內(nèi)存開(kāi)銷。表3展示了時(shí)間與內(nèi)存開(kāi)銷的對(duì)比實(shí)驗(yàn)。我們的方法比DGF快3.4倍,比MS-CNN快8.4倍,同時(shí)消耗的內(nèi)存是DGF的25.59%,是MS-CNN的27.65%。這顯示出我們的方法更加高效,更容易應(yīng)用于實(shí)際場(chǎng)景中。

4 結(jié)束語(yǔ)

本文中,我們提出了一種基于深度CNN的圖像去模糊方法。與現(xiàn)有方法相比,該方法更加高效。通過(guò)在不同數(shù)據(jù)集上的測(cè)試,該方法與目前最先進(jìn)的方法效果相當(dāng),同時(shí)速度更快,所需內(nèi)存空間更少。運(yùn)行速度快與所需內(nèi)存少的特性,使這種方法更容易應(yīng)用于包含視覺(jué)SLAM系統(tǒng)在內(nèi)的實(shí)際應(yīng)用中。

參考文獻(xiàn)

[1] GUPTA A, JOSHI N, ZITNICK C L, et al. Single Image Deblurring Using Motion Density Functions[C]// European Conference on Computer Vision. German: Springer, 2010: 171-184

[2] KIM T H, AHN B, LEE K M. Dynamic Scene Deblurring[C]//International Conference on Computer Vision. USA:IEEE, 2013:3160-3167. DOI: 10.1109/ICCV.2013.392

[3] KIM T H, LEE K M. Segmentationfree Dynamic Scene Deblurring[C]//Computer Vision and Pattern Recognition. USA:IEEE, 2014:2766-2773. DOI: 10.1109/CVPR.2014.348

[4] WHYTE O, SIVIC J, ZISSERMAN A,et al. Non-Uniform Deblurring for Shaken Images[J]. International Journal of Computer Vision, 2012, 98(2): 168-186

[5] CHAKRABARTI A. A neural Approach to Blind Motion Deblurring[C]//European Conference on Computer Vision. German: Springer, 2016: 221-235

[6] SCHULER C J, HIRSCH M, HARMELING S, et al. Learning to Deblur[J]. Transactions on Pattern Analysis and Machine Intelligence, USA: IEEE, 2016, 38(7): 1439-1451. DOI: 10.1109/TPAMI.2015.2481418

[7] SUN J, CAO W, XU Z, et al. Learning a Convolutional Neural Network for Nonuniform Motion Blur Removal[C]//Computer Vision and Pattern Recognition. USA: IEEE, 2015:769-777. DOI: 10.1109/CVPR.2015.7298677

[8] XU L, REN J S J, LIU C L, et al. Deep Convolutional Neural Network for Image Deconvolution[C]//Advances in Neural Information Processing Systems. USA: MIT Press, 2014: 1790-1798

[9] NAH S, KIM T H, LEE K M. Deep Multi-Scale Convolutional Neural Network for Dynamic Scene Deblurring[C]//Computer Vision and Pattern Recognition. USA: IEEE, 2017. DOI: 10.1109/CVPR.2017.35

[10] RAMAKRISHNAN S, PACHORI S, RAMAN S. Deep Generative Filter for Motion Deblurring[C]// International Conference on Computer Vision. USA: IEEE, 2017. DOI: 10.1109/ICCVW.2017.353

[11] HE K, ZHANG X, REN S, et al. Identity Mappings in Deep Residual Networks[C]//European Conference on Computer Vision. German: Springer, 2016: 630-645

[12] HE K, ZHANG X, REN S, et al. Deep Residual Learning for Image Recognition[C]//Computer Vision and Pattern Recognition. USA: IEEE, 2016: 770-778. DOI: 10.1109/CVPR.2016.90

[13] NEWELL A, YANG K, DENG J. Stacked Hourglass Networks for Human Pose Estimation[C]// European Conference on Computer Vision. German: Springer, 2016: 483-499

[14] RONNEBERGER O, FISCHER P, BROX T. U-net: Convolutional Networks for Biomedical Image Segmentation[C]//International Conference on Medical Image Computing and Computer-Assisted Intervention. German: Springer, 2015: 234-241

[15] MICHAELI T, IRANI M. Blind Deblurring Using Internal Patch Recurrence[C]// European Conference on Computer Vision. German: Springer, 2014: 783-798

[16] XIE S, GIRSHICK R, DOLL Doll' AR P, et al. Aggregated Residual Transformations for Deep Neural Networks[C]//Computer Vision and Pattern Recognition. USA: IEEE, 2017: 5987-5995. DOI: 10.1109/CVPR.2017.634

[17] ISOLA P, ZHU J Y, ZHOU T H, et al. Image-to-Image Translation with Conditional Ad-Versarial Networks[C]//Computer Vision and Pattern Recognition. USA: IEEE, 2017. DOI: 10.1109/CVPR.2017.632

[18] GOODFELLOW I, POUGET-ABADIE J, MIRZA M, et al. Generative Adversarial Nets[C]//Advances in Neural Information Processing Systems. USA: MIT Press, 2014: 2672-2680

[19] MAO X, LI Q, XIE H, LAU R YK, et al. Least Squares Generative Adversarial Networks[C]//International Conference on Computer Vision. USA: IEEE, 2017. DOI: 10.1109/ICCV.2017.304

[20] KOHLER R, HIRSCH M, MOHLER B, et al. Recording and Playback of Camera Shake: Benchmarking Blind Deconvolution with A Real-world Database[C]//European Conference on Computer Vision. German: Springer, 2012: 27-40

猜你喜歡
卷積神經(jīng)網(wǎng)絡(luò)
基于深度神經(jīng)網(wǎng)絡(luò)的微表情識(shí)別
卷積神經(jīng)網(wǎng)絡(luò)中減少訓(xùn)練樣本時(shí)間方法研究
卷積神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型研究
基于卷積神經(jīng)網(wǎng)絡(luò)的車輛檢索方法研究
基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
深度學(xué)習(xí)技術(shù)下的中文微博情感的分析與研究
基于卷積神經(jīng)網(wǎng)絡(luò)的樹(shù)葉識(shí)別的算法的研究
虎林市| 九江市| 桃源县| 河南省| 武安市| 湘阴县| 伊宁县| 海城市| 秦皇岛市| 河南省| 武功县| 青龙| 阳曲县| 鄱阳县| 莒南县| 东海县| 滁州市| 抚宁县| 余庆县| 清水县| 洛浦县| 普宁市| 滁州市| 米林县| 和龙市| 汉阴县| 肇庆市| 金山区| 措美县| 岱山县| 萨嘎县| 盖州市| 奉节县| 河北区| 安吉县| 泸州市| 绵阳市| 始兴县| 莱州市| 蒙阴县| 灵丘县|