国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

二值卷積神經(jīng)網(wǎng)絡綜述

2021-07-07 10:17丁文銳劉春蕾李越張寶昌
航空學報 2021年6期
關(guān)鍵詞:卷積表達能力精度

丁文銳,劉春蕾,李越,張寶昌

1. 北京航空航天大學 無人系統(tǒng)研究院,北京 100083

2. 北京航空航天大學 電子信息工程學院,北京 100083

3. 北京航空航天大學 自動化科學與電氣工程學院,北京 100083

近年來,以深度卷積神經(jīng)網(wǎng)絡[1-3]為代表的人工智能技術(shù)得到了學術(shù)與工業(yè)領(lǐng)域的廣泛關(guān)注,被視為一次具有重大意義的技術(shù)革新。目前深度卷積神經(jīng)網(wǎng)絡在多個領(lǐng)域,諸如計算機視覺、語音識別以及自然語言處理等,得到了大量的應用。當前,移動互聯(lián)、物聯(lián)網(wǎng)等技術(shù)與各個產(chǎn)業(yè)深度融合,以各類無人系統(tǒng)為平臺載體的移動便攜終端設(shè)備在識別應用的需求方面不斷增加。然而,一方面,高性能的深度網(wǎng)絡模型往往較大,這對將其裝備到小內(nèi)存的移動端無疑是一巨大挑戰(zhàn)。另一方面,深度卷積神經(jīng)網(wǎng)絡的一大弊端即計算復雜度高,在運行較大的卷積網(wǎng)絡模型時,為了實現(xiàn)網(wǎng)絡中最常見的點積運算需要進行大量計算。因此,復雜深度神經(jīng)網(wǎng)絡的劣勢,即構(gòu)成的大量權(quán)重參數(shù)會導致相當大的存儲空間、內(nèi)存帶寬以及計算資源上的消耗,使得在資源受限的移動端難以進行部署,從而使其在實際使用中仍存在著很大的局限性。

基于以上問題,需要對網(wǎng)絡進行模型壓縮以獲得輕量化模型,使其可以更方便地部署到小內(nèi)存的移動端設(shè)備上。現(xiàn)有研究對深度網(wǎng)絡模型壓縮已經(jīng)做出較多綜述性研究[4-9]。模型壓縮[10-11]主要分為高效結(jié)構(gòu)設(shè)計、模型剪枝、網(wǎng)絡量化等方法。而本文則主要針對于網(wǎng)絡量化中的極致量化,即二值卷積神經(jīng)網(wǎng)絡(Binary Convolutional Neural Network,BNN,簡稱二值網(wǎng)絡)進行全面綜述。所謂二值網(wǎng)絡,其目標是將激活和權(quán)重同時量化為二值,二值化后的網(wǎng)絡具有以下幾個優(yōu)點:第一,內(nèi)存更少。對于嵌入式移動設(shè)備來說,通常無法部署較大內(nèi)存的網(wǎng)絡模型。而網(wǎng)絡量化減少了網(wǎng)絡所需要的內(nèi)存,使得網(wǎng)絡模型更容易部署。第二,計算速度更高。當今典型的卷積神經(jīng)網(wǎng)絡模型在訓練時通常需要較大的訓練數(shù)據(jù)集和較多的迭代次數(shù),巨大的計算量會導致較長的網(wǎng)絡訓練時間,而網(wǎng)絡量化可以使得網(wǎng)絡的計算成本相對減少,比如,模型當中的二值量化可以將浮點32位的數(shù)據(jù)轉(zhuǎn)化為1位的數(shù)據(jù),從而將浮點運算轉(zhuǎn)化為位運算,使得計算速度大大提高。因此開展卷積神經(jīng)網(wǎng)絡二值化技術(shù)研究,不僅是對相關(guān)理論基礎(chǔ)的進一步豐富和擴展,更是對整個深度學習領(lǐng)域有著重要的實際應用和理論價值,二值卷積神經(jīng)網(wǎng)絡應用優(yōu)勢示意如圖1所示。

圖1 二值卷積神經(jīng)網(wǎng)絡應用優(yōu)勢示意圖

近年來研究者們已經(jīng)提出了一系列卷積神經(jīng)網(wǎng)絡二值化算法和訓練方法來降低二值化過程中的性能損失。比如,XNOR-Net[12]算法通過重建具有單個比例因子的全精度濾波器,有效地實現(xiàn)卷積運算。文獻[13]提出了一種新的結(jié)構(gòu)變體Bi-Real Net,通過增加網(wǎng)絡的便捷連接(Shortcut)來大大增強網(wǎng)絡的表達能力。文獻[14]提出一種損失感知的方法,將二值量化損失考慮到端到端的網(wǎng)絡中。文獻[15]提出了使用殘差網(wǎng)絡進行二值量化,可在精確性和復雜性之間做出權(quán)衡。PCNN[16](Projection Convolutional Neural Networks)通過離散反向傳播對多個投影進行擴展來學習一組不同的量化核。然而現(xiàn)有技術(shù)研究雖然取得了較大的進展,但仍未解決二值網(wǎng)絡與全精度網(wǎng)絡之間巨大的性能差異問題。因此,二值卷積神經(jīng)網(wǎng)絡的更多潛力有待進一步挖掘。

本文主要從提高網(wǎng)絡的表達能力和充分挖掘網(wǎng)絡的訓練潛力方面出發(fā),將現(xiàn)有研究二值卷積神經(jīng)網(wǎng)絡的方法進行全面綜述。具體來講,提高網(wǎng)絡的表達能力可以從量化方法和結(jié)構(gòu)設(shè)計兩方面出發(fā),充分挖掘網(wǎng)絡訓練潛力可以從損失函數(shù)設(shè)計、訓練策略等角度出發(fā)。此外,本文還介紹了二值卷積神經(jīng)網(wǎng)絡在不同任務和硬件平臺的發(fā)展情況,并總結(jié)了未來發(fā)展可能面臨的挑戰(zhàn)。本文章節(jié)組織如下:第1節(jié)介紹了二值卷積神經(jīng)網(wǎng)絡的基礎(chǔ)描述;第2節(jié)從提高網(wǎng)絡表達能力和充分挖掘網(wǎng)絡訓練潛力出發(fā)介紹現(xiàn)有的方法;第3節(jié)介紹不同方法在不同任務和硬件平臺中的性能以及分析;第4節(jié)介紹影響及發(fā)展趨勢,第5節(jié)總結(jié)全文。

1 二值卷積神經(jīng)網(wǎng)絡基礎(chǔ)描述

在全精度卷積神經(jīng)網(wǎng)絡中,卷積基本運算可以表示為

Xl+1=Xl*Wl

(1)

式中:Xl和Wl分別代表第l層的特征圖與權(quán)重;*代表卷積算子。大量的浮點乘加運算造成了卷積神經(jīng)網(wǎng)絡推理過程中效率低下的問題,并且浮點型權(quán)重需要大量的存儲空間。因此,希望采用二值化的方式來減少內(nèi)存,降低計算復雜度。

1.1 前向傳播過程二值化

二值卷積神經(jīng)網(wǎng)絡是指具有二值權(quán)重和二值激活的深度網(wǎng)絡模型,特別是通過sign(·)函數(shù)來進行二值化,即

(2)

(3)

(4)

式中:αl代表l層的尺度因子。

1.2 反向傳播

反向傳播過程可以表示為

(5)

式中:L代表網(wǎng)絡損失。由于反向傳播過程中,量化器sign(·)的導數(shù)為沖擊波形式,零點處梯度無窮,非零點處梯度為0,即會在更新過程中造成梯度消失或梯度爆炸。因此,必須設(shè)計合適的梯度來代替sign(·)函數(shù)的原始梯度來進行反向傳播?,F(xiàn)有研究中,研究者通常采用如圖2所示的方波或者三角波的形式或采用其他近似sign(·)函數(shù)的導數(shù)來代替反向傳播中的量化器梯度。

圖2 量化函數(shù)sign(·)的梯度近似示意圖

2 二值卷積神經(jīng)網(wǎng)絡方法概述

近年來,二值卷積神經(jīng)網(wǎng)絡領(lǐng)域得到頗多關(guān)注,催生了眾多種類的二值卷積神經(jīng)網(wǎng)絡方法,從發(fā)展之初的使用預定義函數(shù)直接對權(quán)重和輸入進行量化的樸素二值化方法,到目前使用基于多種角度和技術(shù)的基于優(yōu)化的二值化方法,研究者們在二值網(wǎng)絡領(lǐng)域已進行了諸多探索。在目前的基于優(yōu)化的二值方法中,有多種優(yōu)化的思想與技術(shù),包括通過設(shè)計二值優(yōu)化算法來近似全精度值、通過設(shè)計網(wǎng)絡結(jié)構(gòu)來增大網(wǎng)絡的表達能力,與通過改進網(wǎng)絡損失函數(shù)來限制權(quán)重等。然而,即使在二值網(wǎng)絡中配置上述方法,二值卷積神經(jīng)網(wǎng)絡相比于其對應的全精度網(wǎng)絡,仍然會產(chǎn)生相當大的精度損失,不利于其在很多具有高精度需求的設(shè)備上應用。因此如何優(yōu)化二值卷積神經(jīng)網(wǎng)絡,使其在具有節(jié)省資源優(yōu)勢的同時保持較高的網(wǎng)絡精度,仍是一個具有挑戰(zhàn)性的問題。本文認為,二值卷積神經(jīng)網(wǎng)絡性能損失的原因主要可歸結(jié)為兩點:其一是有限的表達能力,其二是不充分的訓練。因此,基于這兩點,本文從結(jié)構(gòu)設(shè)計和量化方法兩方面出發(fā)闡述當前提升二值網(wǎng)絡表達能力的方法,從損失函數(shù)設(shè)計、訓練策略等角度出發(fā)歸納挖掘網(wǎng)絡訓練潛力的方法。最后,再針對其他任務平臺所提出的方法進行簡單介紹。

2.1 提高網(wǎng)絡表達能力的二值卷積神經(jīng)網(wǎng)絡

2.1.1 二值優(yōu)化方法

樸素的二值網(wǎng)絡計算直接將激活函數(shù)和權(quán)重量化為1和-1[17],這種映射方式雖然簡單,但對全精度特征和權(quán)重所包含的豐富信息造成了巨大損失,極大降低了量化后網(wǎng)絡的表達能力。作為考慮量化誤差的早期研究,Rastegari等提出了XNOR-Net[12],將權(quán)重和激活都進行二值化。與先前的研究不同,該工作通過引入二值參數(shù)的比例因子對浮點數(shù)值進行更準確地近似。對于權(quán)重部分,比例因子的計算過程為

(6)

式中:α為權(quán)重部分的尺度因子,該尺度因子為逐通道級,通過最小化量化誤差計算而得。尺度因子α的引入可降低二值參數(shù)與對應全精度參數(shù)的誤差,進而對浮點數(shù)值進行更準確地近似。激活函數(shù)的量化與式(6)類似。該方法可以大幅度降低由直接量化所帶來的性能損失,并且首次在大型圖像識別數(shù)據(jù)集ImageNet上進行了實驗驗證,為接下來的二值網(wǎng)絡研究奠定了基礎(chǔ)。

XNOR-Net優(yōu)化算法掀起了二值網(wǎng)絡研究的熱潮。為了進一步減少量化誤差,高階殘差量化(HORQ)[15]采用基于量化殘差的全精度激活的遞歸近似,而不是XNOR-Net中使用的一步近似。該算法通過遞歸執(zhí)行殘差量化操作來獲得遞減尺度的二值激活,并通過對這些二值激活進行線性組合來得到最終的量化激活。高階殘差量化的引入在提升網(wǎng)絡表達能力的同時,不可避免地帶來了計算量升高的問題。此后文獻[18]引入了一種比例因子獲取的新方式——數(shù)據(jù)驅(qū)動。其通過學習帶有參數(shù)的門函數(shù),來從未量化的激活中預測通道級的比例因子。該方法在增加不足1%計算量的情況下大大提高了二值卷積神經(jīng)網(wǎng)絡的性能。

XNOR-Net[12]優(yōu)化算法與HORQ[15]算法均從網(wǎng)絡前向傳播入手,然而反向傳播算法對于二值卷積神經(jīng)網(wǎng)絡的訓練亦是至關(guān)重要。在對二值網(wǎng)絡進行反向傳播部署時,由于sign函數(shù)的梯度不連續(xù)可導,通常采用直通估計器(Straight Through Estimator,STE)的方法來對梯度進行近似。但由于sign的實際梯度與STE之間存在明顯的梯度不匹配,極易導致反向傳播誤差積累的問題,致使網(wǎng)絡訓練偏離正常的極值點,使得二值網(wǎng)絡優(yōu)化不足,從而嚴重降低性能。對于近似sign函數(shù)梯度的方波梯度,除了[-1,+1]范圍之內(nèi)的參數(shù)梯度不匹配外,還存在[-1,+1]范圍之外的參數(shù)將不被更新的問題。直觀來看,精心設(shè)計的二值化近似函數(shù)可以緩解反向傳播中的梯度失配問題。Bi-Real Net[13]提供了一個自定義的近似sign函數(shù)(ApproxSign)來替換 sign 函數(shù)以進行反向傳播中的梯度計算,該梯度以三角波形式近似sign函數(shù)的梯度,相比于傳統(tǒng)的STE其相對于沖擊波的相似度更高,因而更貼近于sign函數(shù)梯度的計算。BNN+[19]直接提出用swishsign函數(shù)對sign函數(shù)進行近似來獲取更優(yōu)近似梯度。這些梯度近似方法能進一步對二值卷積神經(jīng)網(wǎng)絡的反向更新過程進行適度優(yōu)化。

2.1.2 網(wǎng)絡結(jié)構(gòu)設(shè)計

除了直接優(yōu)化量化方法外,也有很多研究從網(wǎng)絡結(jié)構(gòu)設(shè)計方面出發(fā),通過優(yōu)化網(wǎng)絡結(jié)構(gòu)提升網(wǎng)絡的表達能力。Liu等[20]從二值濾波器的重設(shè)計出發(fā),設(shè)計了循環(huán)二值卷積神經(jīng)網(wǎng)絡(Circulant Binary Convolutional Network, CBCN),提出了循環(huán)濾波器和循環(huán)二值卷積,通過多角度旋轉(zhuǎn)二值濾波器來增強二值化卷積特征的表達能力;與此同時,該循環(huán)濾波器也可提升網(wǎng)絡的旋轉(zhuǎn)不變性,提升二值網(wǎng)絡對于旋轉(zhuǎn)物體的識別魯棒性。為優(yōu)化該循環(huán)濾波器,該文還提出了相應的循環(huán)反向傳播用以對網(wǎng)絡進行訓練。此外,為了提升網(wǎng)絡的表達能力,Bi-Real Net[13]將每層卷積的輸入特征圖連接到后續(xù)網(wǎng)絡中,這種方法實質(zhì)上是通過結(jié)構(gòu)轉(zhuǎn)換來調(diào)整數(shù)據(jù)分布,對網(wǎng)絡的提升效果十分明顯。除此之外,Zhuang等[21]提出了組網(wǎng)絡(GroupNet),即將網(wǎng)絡分成若干組,在這些組中,通過聚集一組均勻的二元分支可以有效地重構(gòu)全精度網(wǎng)絡,該策略顯示出對不同任務(包括分類和語義分割)的強大性能優(yōu)勢,在準確性和節(jié)省大量計算資源方面均有一定優(yōu)越性。此外,文獻[18]中比例因子獲取的方式也可以看作對結(jié)構(gòu)的改進,通過增加顯著模塊(Squeeze and Excitation,SE)來提高網(wǎng)絡的表達能力。如圖3所示,列出了Bi-Real Net[13]、文獻[18]和GroupNet[21]的網(wǎng)絡結(jié)構(gòu)。相比于XNOR-Net,以上幾種方法在提升表達能力的同時,通常需要額外的存儲或者計算成本,但與全精度網(wǎng)絡相比仍然具有較大的理論加速比。對于Bi-Real Net而言,由于只增加了shortcut的個數(shù)(加法計算量),該計算量相對于整體的flops而言是微乎其微的;對于GroupNet而言,其同時增加了存儲和計算量,但是由于增加的是二值計算,相比于全精度而言,理論上仍然存在較大的加速比;對于文獻[18]中的網(wǎng)絡而言,其僅僅增加了不足1%的計算量,但卻取得了ResNet18在ImageNet上正確分類率65.4%的結(jié)果。

圖3 網(wǎng)絡結(jié)構(gòu)示意圖

2.2 提高網(wǎng)絡訓練潛力的二值卷積神經(jīng)網(wǎng)絡

BinaryDuo[22]算法提出二值卷積神經(jīng)網(wǎng)絡損失并非由于其表達能力有限,而是極度有限的兩個狀態(tài)使得模型難以被優(yōu)化。因此,在提高模型表達能力的同時,仍然有一系列算法并行挖掘網(wǎng)絡的訓練潛力。本節(jié)從損失函數(shù)設(shè)計和訓練策略的角度對這些訓練方法進行歸納。

2.2.1 損失函數(shù)設(shè)計

從網(wǎng)絡的訓練方面來看,僅關(guān)注某一層很難保證經(jīng)過一系列層后最終輸出的精確性。因此,網(wǎng)絡的訓練需全局考慮二值化以及特定的任務目標。近來,大量研究工作對于網(wǎng)絡訓練中的損失函數(shù)進行探究,以期在二值化帶來的限制下?lián)p失函數(shù)仍能較為準確地引導網(wǎng)絡參數(shù)的學習過程。

通常來講,一般的二值化方案僅關(guān)注對浮點數(shù)值的精確局部逼近,而忽略二值參數(shù)對全局損失的影響。Hou等[14]提出了損失感知二值化方法,使用擬牛頓算法與對角哈希近似直接將與二值權(quán)重相關(guān)的總損失最小化,并求得了近端步驟的有效閉環(huán)解。該文證明了除了從量化角度考慮與任務相關(guān)的損失外,設(shè)計額外的量化感知損失項也是可行的。另一方面,激活的分布對于整個網(wǎng)絡的優(yōu)化也是至關(guān)重要的。Ding等[23]總結(jié)了二值卷積神經(jīng)網(wǎng)絡中由前向二值化和反向傳播引起的問題,包括激活分布的“退化”、“飽和”和“梯度不匹配”。為解決這些問題,Ding等[23]提出了一系列對于二值特征圖的約束,聯(lián)合任務中的損失函數(shù)共同指導網(wǎng)絡訓練,盡可能降低這些問題帶來的不利影響。此外,全精度模型也可以損失函數(shù)的形式為二值網(wǎng)絡提供引導信息,用以指導、優(yōu)化二值網(wǎng)絡的訓練。Liu等[24]認為如果二值網(wǎng)絡能學習到與全精度網(wǎng)絡相似的分布,則其表現(xiàn)可獲得一定程度的提升。因而提出了基于“分布損失”的方法,通過計算二值網(wǎng)絡與全精度網(wǎng)絡輸出之間的KL散度來衡量二者分布間的差距,進而引導二值卷積神經(jīng)網(wǎng)絡去學習與全精度網(wǎng)絡輸出相似的分布。同樣地,文獻[18]從特征圖級的約束出發(fā),以全精度網(wǎng)絡的特征圖為引導信息,通過注意力匹配損失函數(shù)的引入來對二值網(wǎng)絡的特征圖與全精度特征圖進行匹配,提升二值網(wǎng)絡的訓練潛能。另外,在卷積核級的約束上,Gu等[25]提出Bayesian損失,將全精度核和特征的先驗分布合并到二值網(wǎng)絡中,通過對全精度卷積核的引導來提升二值卷積核的表達能力。

總結(jié)來講,利用構(gòu)建損失函數(shù)來提高二值卷積網(wǎng)絡的訓練潛能,一般可以在不增加網(wǎng)絡推理時間的同時提升網(wǎng)絡性能,是當下較為流行的訓練手段之一。

2.2.2 訓練策略

由于二值網(wǎng)絡所具有的高度離散性,其訓練過程常需要引入特殊的訓練方法,以使得訓練過程穩(wěn)定且獲得更高的收斂精度。因此一類廣為研究的方法,即對二值網(wǎng)絡的訓練方法進行重新設(shè)計,以構(gòu)建出高效的二值網(wǎng)絡。

傳統(tǒng)的二值方法同時對激活函數(shù)和權(quán)重進行優(yōu)化,文獻[26]認為這對反向傳播本就使用近似梯度的低比特網(wǎng)絡來說是較為困難的,為此該文提出使用兩階段優(yōu)化策略來逐步找到良好的局部最小值。具體來說,首先構(gòu)建僅具有量化權(quán)重的網(wǎng)絡并對此進行優(yōu)化,然后將該優(yōu)化所得的網(wǎng)絡作為預訓練模型,將其激活也進行量化,對權(quán)重與激活均量化的網(wǎng)絡進行訓練。與此同時,文獻[26]還提出另一種漸進式優(yōu)化方法,通過在訓練過程中逐漸減少網(wǎng)絡中數(shù)值表示的位寬,實現(xiàn)從高精度網(wǎng)絡到低精度網(wǎng)絡的逐漸轉(zhuǎn)換。這種漸進式訓練策略可以為低位寬模型提供適宜的初始化條件,有助于減輕低比特網(wǎng)絡的訓練難度。

與此同時,模型蒸餾的方法被廣泛應用在二值網(wǎng)絡訓練中。一般來講,模型蒸餾的方法是通過大型教師模型提供引導信息,指導小型學生模型訓練。在二值網(wǎng)絡的應用中,全精度網(wǎng)絡或高精度網(wǎng)絡一般被視作教師模型,二值網(wǎng)絡或低精度網(wǎng)絡一般被視作學生模型,以實現(xiàn)二值網(wǎng)絡的引導性訓練。文獻[26-27]等多篇論文都提出模型蒸餾的思想,通過高精度模型所生成的特征圖對低精度模型的訓練過程加以指導,從而使得低精度特征圖接近于高精度特征圖以獲取更高的訓練精度。Zhuang等[26]提出一種基于全精度輔助訓練的方案。該方案通過共同訓練全精度網(wǎng)絡和二值網(wǎng)絡,使得二值網(wǎng)絡的更新能夠同時借助全精度網(wǎng)絡提供的信息。實驗證明該方法可有效提升二值網(wǎng)絡的訓練性能。與純粹的蒸餾思想不同,文獻[28]提出了一種借助生成對抗模型來引導二值網(wǎng)絡訓練的方法。該文利用對抗學習中生成器與判別器相互對抗、共同獲得性能提升的思想,將二值網(wǎng)絡視作生成器,生成“假”特征圖,由相應的全精度網(wǎng)絡生成“真”特征圖,通過引入一個判別器對真假特征圖進行鑒別,使得二值網(wǎng)絡生成特征圖分布更接近于全精度特征圖,從而提高二值網(wǎng)絡性能。

另外,一種基于“耦合-分解”思想的訓練策略在BinaryDuo[22]方法中被提出。該文通過利用梯度失配估計器進行實驗發(fā)現(xiàn),對于二值網(wǎng)絡中存在的梯度不匹配問題,采用更高的激活精度比修改激活函數(shù)的可微近似更為有效?;谠摪l(fā)現(xiàn),BinaryDuo在訓練過程中將兩個二值激活耦合為三元激活,對該三元耦合網(wǎng)絡進行優(yōu)化,并將優(yōu)化所得的網(wǎng)絡解耦為二值網(wǎng)絡,通過微調(diào)進一步提升網(wǎng)絡性能。同時,文獻[29]中提出了一種實現(xiàn)梯度量化的DoReFa-Net。由于向前/向后遍歷期間的卷積可以分別在低位寬權(quán)重和激活/梯度上運行,因此DoReFa-Net可以使用位卷積內(nèi)核來加快訓練和推理速度。

此外,在訓練二值卷積神經(jīng)網(wǎng)絡時選擇適當?shù)某瑓?shù)和特定的優(yōu)化器有助于提高二值網(wǎng)絡的性能,使二值網(wǎng)絡的收斂更為迅速并最終達到較高的收斂精度。大多數(shù)現(xiàn)有的二值卷積神經(jīng)網(wǎng)絡模型選擇了自適應學習率優(yōu)化器,例如Adam優(yōu)化器,使用Adam優(yōu)化器可以使訓練過程收斂更快更好[30]。同時,設(shè)置批量歸一化處理對于網(wǎng)絡的訓練也很關(guān)鍵,在網(wǎng)絡訓練過程中通過批量歸一化處理對網(wǎng)絡的特征圖分布進行調(diào)整,能夠使網(wǎng)絡訓練更加充分,有助于提升二值網(wǎng)絡的整體性能。另外,一些研究者試圖從信息論的角度對二值網(wǎng)絡進行解釋,并得出了相關(guān)的正則化訓練技巧。Qin等[31]指出量化函數(shù)的使用使得二值網(wǎng)絡的前向與反向傳播都不可避免地產(chǎn)生了信息損失。為了降低這種損失,Qin等[31]從最大化信息熵的角度出發(fā)來最小化前向傳播中的信息損失,通過簡單地正則化操作使得二值網(wǎng)絡的訓練更為魯棒。

2.3 面向其他應用的二值卷積神經(jīng)網(wǎng)絡

除圖像分類任務之外,目標檢測與語義分割也是視覺領(lǐng)域的常見任務之一,且相比于圖像分類其復雜度更高、難度更大,其性能對于二值化的敏感度也更高。目前領(lǐng)域內(nèi)存在少量研究,其二值網(wǎng)絡是專門為這兩種復雜任務而設(shè)計的。

在目標檢測方面,由于常規(guī)的網(wǎng)絡二值化方法通常在具有受限表達能力的一級或兩級檢測器中直接量化權(quán)重和激活,這會造成信息冗余,從而導致大量誤報并嚴重降低性能。針對這一問題,二值檢測器BiDet[32]提出充分利用二值卷積神經(jīng)網(wǎng)絡的表達能力,通過冗余消除進行目標檢測,通過減少誤報來提高檢測精度。具體來說,將信息瓶頸(Information Bottleneck,IB)原理推廣到目標檢測領(lǐng)域,對高級特征圖中的信息量進行限制,并且使得特征圖與對象檢測之間的互信息最大化。與此同時,BiDet學習稀疏對象先驗,以便后驗者可專注于具有誤報消除的信息檢測預測。BiDet是第一個提出將目標檢測任務中的主干網(wǎng)絡和檢測網(wǎng)絡同時量化的二值網(wǎng)絡,然而其結(jié)果顯示,二值化后的網(wǎng)絡產(chǎn)生了較大性能損失,二值卷積神經(jīng)網(wǎng)絡在目標檢測任務中仍然任重而道遠。

對于語義分割任務而言,其對于網(wǎng)絡特征圖的多尺度信息要求更高。在這種要求下,GroupNet[21]提出二值并行卷積(Binary Parallel Atrous Convolution, BPAC),該算法將豐富的多尺度上下文嵌入到BNN中以進行準確的語義分割。與僅使用Groupnet相比,具有BPAC的Group-Net可以在保持復雜度不變的情況下顯著提高模型性能。

除此之外的大部分應用方法均是以分類為主,在其他應用上進行遷移和測試,很少有針對任務本身設(shè)計的二值化方法。

2.4 其他方法

近年來網(wǎng)絡結(jié)構(gòu)搜索(Neural Architecture Search, NAS)[33]在深度學習領(lǐng)域取得了令人振奮的成績,這種方法通常自動設(shè)計針對于各種任務的最佳神經(jīng)網(wǎng)絡體系結(jié)構(gòu)。二值網(wǎng)絡結(jié)構(gòu)搜索(Binary Neural Architecture Search, BNAS)[34]提出將通道采樣和降低搜索空間引入到NAS中,以顯著降低搜索成本,通過基于性能的策略來放棄有效性低的操作。Shen等[35]提出了一個用于自動搜索緊湊而準確的二值卷積神經(jīng)網(wǎng)絡的新框架。具體而言,基于該框架的二值網(wǎng)絡將每層中的通道數(shù)編碼到搜索空間中,并在訓練過程中利用進化算法進行優(yōu)化。實驗表明,該方法搜索得到的二值卷積神經(jīng)網(wǎng)絡模型在模型大小和計算增量都可以接受的情況下,可以實現(xiàn)與全精度模型完全匹配的性能。

除NAS之外,還有一些研究從優(yōu)化角度重新考慮二值網(wǎng)絡的優(yōu)化問題。文獻[36]認為在二值網(wǎng)絡中,不能僅將訓練中的全精度權(quán)重直接類似于實值網(wǎng)絡中的權(quán)重。相反,它們的主要作用是在訓練過程中為二值權(quán)重的更新提供慣性。因此,文獻[36]為二值網(wǎng)絡的優(yōu)化提供了新穎的見解,根據(jù)慣性來解釋當前二值網(wǎng)絡優(yōu)化方法,并設(shè)計了一個專用于二值網(wǎng)絡的優(yōu)化器Bop。根據(jù)將Bop用于二值網(wǎng)絡優(yōu)化其在CIFAR-10和ImageNet數(shù)據(jù)集上的性能表現(xiàn),文獻[36]很好地證明了該種二值網(wǎng)絡優(yōu)化新視角的可行性。而將訓練中的全精度權(quán)重重新從慣性的角度加以定義以及引入Bop在一起,也可以幫助研究者們對二值網(wǎng)絡優(yōu)化有更深入地理解,并為進一步改進二值網(wǎng)絡的訓練方法開辟了新的道路。

此外,考慮到在二值網(wǎng)絡中梯度下降法并不適用于量化函數(shù),文獻[37]提出可以將二值網(wǎng)絡的優(yōu)化看作一個離散的優(yōu)化問題,為量化函數(shù)設(shè)置新的目標以最小化損失。對于離散優(yōu)化問題,其目標是找到一組目標,以使每個單元(包括輸出)都有線性可分離的問題要解決。給定這些目標,網(wǎng)絡將分解為單獨的感知器,因而可以使用標準凸方法進行學習。在此基礎(chǔ)上,文獻[37]開發(fā)了一種用于學習深閾值網(wǎng)絡的遞歸微型批處理算法。該方法的提出為量化領(lǐng)域開辟了一個新的研究方向,并在分類數(shù)據(jù)集ImageNet上進行了驗證。

3 實 驗

3.1 用于二值網(wǎng)絡的實驗數(shù)據(jù)集

二值卷積神經(jīng)網(wǎng)絡量化應用主要集中在目標分類任務上,同時在目標檢測與語義分割任務上也有少部分應用。本節(jié)將分別介紹不同應用中常用的數(shù)據(jù)集。

3.1.1 分類數(shù)據(jù)集

對于分類任務,常用的數(shù)據(jù)集主要包括MNIST手寫字體數(shù)據(jù)集[38]、SVHN數(shù)據(jù)集[39]、CIFAR10/100數(shù)據(jù)集[40]以及ImageNet大規(guī)模圖像數(shù)據(jù)集[41]。

MNIST:該數(shù)據(jù)集來自美國國家標準與技術(shù)研究所,由不同人手寫的數(shù)字圖片構(gòu)成。數(shù)據(jù)集包含60 000個用于訓練的樣本和10 000個用于測試的樣本。這些樣本均已經(jīng)過尺寸標準化處理使數(shù)字位于圖像中心。每個樣本大小固定為28×28像素,其像素值范圍為0~1。

SVHN:該數(shù)據(jù)來源于谷歌街景圖像中門牌號碼,每張圖片中包含一組‘0~9’的阿拉伯數(shù)字。數(shù)據(jù)集分成了訓練集、測試集與附加集3個子集。其中訓練集中包含73 257個數(shù)字,測試集中包含26 032個數(shù)字,附加集有531 131個數(shù)字。其圖像大小固定為32×32像素,像素值范圍為0~1。相比于同為數(shù)字識別數(shù)據(jù)集的MNIST,SVHN由于標記數(shù)據(jù)更多、來自自然場景,因而識別難度更大。

CIFAR10/100:CIFAR10與CIFA100均為彩色圖片數(shù)據(jù)集。其中CIFAR10由包含10個類別的60 000個彩色圖像樣本組成,并被分成了訓練集與測試集兩個子集。訓練集和測試集分別包含50 000張與10 000張圖像,每張圖像分辨率為32×32像素。該數(shù)據(jù)集覆蓋了包括飛機、汽車、鳥類、貓、鹿、狗、青蛙、馬、船和卡車在內(nèi)的10個類別,類別之間完全互斥。與CIFAR10數(shù)據(jù)組成結(jié)構(gòu)一致,CIFAR100則包含具有更為細致分類的100個類別,每個類別包含了600個圖像樣本,為500個訓練樣本與100個測試樣本的組合。由于需要進行更精細的識別,CIFAR100的識別難度比CIFAR10更大。

ImageNet:ImageNet是一個用于視覺對象識別研究的大型可視化數(shù)據(jù)庫。相比于前面介紹的數(shù)據(jù)集,ImageNet不管在圖片數(shù)量還是圖片分辨率上都有數(shù)量級上的提升。其由1 000個類別組成,包括了約120萬張訓練圖像和5萬張驗證圖像。ImageNet對深度學習的浪潮起了巨大的推動作用,也是當前神經(jīng)網(wǎng)絡量化在分類數(shù)據(jù)集上驗證的最常用數(shù)據(jù)集。

3.1.2 目標檢測與語義分割數(shù)據(jù)集

相比于圖像分類數(shù)據(jù)集,目標檢測與語義分割數(shù)據(jù)集由于標注工作量巨大,因而其建立過程更為復雜。目前領(lǐng)域內(nèi)常用的檢測、分割數(shù)據(jù)集有PASCAL VOC2012[42]數(shù)據(jù)集與COCO[43]數(shù)據(jù)集。

PASCAL VOC2012:該數(shù)據(jù)集源于 PASCAL 視覺目標檢測比賽,用于評估計算機視覺領(lǐng)域中包括語義分割、目標檢測等在內(nèi)的多種任務上模型的性能。該數(shù)據(jù)集包含人、常見動物、交通車輛、室內(nèi)家具用品在內(nèi)的4個大類并進一步細分為20小類。對于檢測任務,VOC2012包含了11 540張圖片在內(nèi)的27 450個物體,而對于分割任務,VOC2012則包含了2 913張圖片在內(nèi)的6 929個 物體。

COCO:該數(shù)據(jù)集是 Microsoft 團隊提供的用于圖像識別和目標檢測的數(shù)據(jù)集,是一個大型、豐富的物體檢測與分割數(shù)據(jù)集。該數(shù)據(jù)集以場景理解為目標,主要從復雜的日常場景截取圖像。數(shù)據(jù)集由80個類別構(gòu)成,涵括了超過33萬張圖片,其中20萬張有標注,整個數(shù)據(jù)集中個體的數(shù)目超過了150萬個?,F(xiàn)有研究使用COCO trainval 35K(115K圖像)進行分割訓練,并使用minival(5K圖像)進行分割驗證。

3.2 圖像分類實驗結(jié)果

對于MNIST、SVHN,由于其類別較小,數(shù)據(jù)量也較少,現(xiàn)有二值卷積神經(jīng)網(wǎng)絡在這些數(shù)據(jù)集上往往取得接近于全精度的結(jié)果,對于二值方法性能評估的意義不大。因此,近年來很少有工作報告該數(shù)據(jù)集上的測試精度。CIFAR10/100介于MNIST、SVHN與ImageNet之間,但由于數(shù)據(jù)量有限,在CIFAR數(shù)據(jù)集上進行測試容易造成過擬合,但由于其相對難度和訓練時間適中,也多為研究者所采用。

在本節(jié)中,列出了近年來關(guān)于二值卷積神經(jīng)網(wǎng)絡比較經(jīng)典和先進方法的結(jié)果,其所有數(shù)據(jù)都是直接引用對應原始論文中的結(jié)果。在此,選取了XNOR-Net[12]、Bi-Real Net[13]、XNOR-Net++[44]、PCNN[16]、BONN[11]、IR-Net[31]、CI-Net[45]、BNN[17]、ABC-Net[46]、BNN+[19]、CBCN[20]、GroupNet[21]、文獻[18]中的baseline、文獻[18]以及BinaryDuo[22]等方法來進行對比,用以顯示當前二值網(wǎng)絡在目標分類任務上的性能水平,如表1所示,其中:FP表示全精度網(wǎng)絡。

從表1的結(jié)果中,可以看出,由于訓練時的GPU資源有限,目前大部分研究在展示基于ImageNet數(shù)據(jù)集的實驗結(jié)果時,都選用了模型較小、對GPU資源需求較少的ResNet18[1]結(jié)構(gòu)?;诙祪?yōu)化的XNOR-Net方法比樸素量化的BNN高出9%(51.2%~42.2%),這也說明了XNOR-Net方法優(yōu)化得到的尺度因子在量化過程中大大提高了二值化模型的表達能力。此外,基于結(jié)構(gòu)設(shè)計的方法,Bi-Real Net、CBCN、GroupNet、文獻[18]中的方法進一步提高了二值網(wǎng)絡的表達能力。通過一個簡單的特征圖短接的加法操作,Bi-Real Net對二值卷積后進行了信息補償,從而獲得了超過5%的性能提升。GroupNet則采用犧牲計算量的方法來擴展二值分支,當擴展到4倍時,其ResNet18的Top-1性能高達64.4%,這也說明了從結(jié)構(gòu)設(shè)計角度對二值網(wǎng)絡進行適當調(diào)整,可以大幅增加其表達能力。但是如何在結(jié)構(gòu)設(shè)計中同時考慮效率與分類精度兩個方面,以獲得這兩個度量上的平衡,是目前存在的一個關(guān)鍵問題。

表1 不同新型的二值卷積神經(jīng)網(wǎng)絡在ImageNet分類數(shù)據(jù)集上的驗證

關(guān)于訓練策略而言,BinaryDuo通過對較高精度的三值網(wǎng)絡的解耦,在不增加推理過程中存儲和計算量的情況下大大提高了二值網(wǎng)絡的性能。此外,文獻[18]方法使用了模型蒸餾、漸進量化等多種訓練策略,很大程度上挖掘了模型的訓練潛力。其ResNet18結(jié)構(gòu)在ImageNet分類數(shù)據(jù)集上可以達到65.4%的精度,在增加不足1%計算量的情況下,將其與全精度網(wǎng)絡的性能差距縮小到了3.9%。

3.3 目標檢測和圖像分割實驗結(jié)果

文獻[21]認為在目標檢測任務中,對檢測網(wǎng)絡的主干部分和特征金字塔均進行二值化處理對性能的影響較小。但是,對于網(wǎng)絡的其他部分,如檢測頭,當進行量化時情況并不樂觀。實驗表明對檢測頭進行二值化會導致檢測性能明顯下降。這種下降可以根據(jù)檢測網(wǎng)絡的特性得到解釋。一般認為,檢測網(wǎng)絡的檢測頭部分是負責將提取的多級特征適配到分類和回歸目標,其表達能力對于檢測器的性能至關(guān)重要。但是,當多級信息進行二值化操作而被強制約束為{-1,1}時,其信息會遭到破壞而影響檢測性能。同時這也表明除主干外的其他檢測模塊對量化都很敏感,需要得到更多的研究以減輕其量化困難的問題,因而這也很可能是未來工作的一個有希望的方向。

此外,對于語義分割任務而言,文獻[21]提出的基于ResNet50骨干網(wǎng)的Group-Net性能下降相對最大。進一步表明,廣泛使用的瓶頸結(jié)構(gòu)對于二值網(wǎng)絡并不友好。

3.4 其他應用實驗結(jié)果

除了目標分類、目標檢測和語義分割等一些主流應用驗證,還有一些研究也在其他應用上進行過實驗驗證,比如文獻[28]在目標跟蹤任務中的Got10k、OTB50、OTB100及 UAV123等數(shù)據(jù)集上進行驗證,實驗表明在跟蹤任務的精度和成功率兩大指標方面,二值網(wǎng)絡與全精度網(wǎng)絡仍然具有一定的差距。此外,Bi-Real Net將二值模型應用在深度估計應用領(lǐng)域,其是自動駕駛和無人導航的重要任務,壓縮深度估計CNN對于將強大的CNN部署到內(nèi)存和計算資源有限的移動設(shè)備至關(guān)重要。在深度估計任務上進行驗證時,Bi-Real Net 采用了KITTI數(shù)據(jù)集[47]。結(jié)果表明,在深度估計實驗中,Bi-Real Net二值卷積神經(jīng)網(wǎng)絡幾乎能達到和全精度網(wǎng)絡相近的性能,僅僅產(chǎn)生了0.3%的微量性能損失。另外,還有研究[16]在人臉識別、行人重識別、手勢分類[48]等應用上進行過實驗驗證,實驗結(jié)果顯示直接遷移的二值網(wǎng)絡在其他任務應用上還與全精度網(wǎng)絡有一定的差距。

3.5 嵌入式設(shè)備應用實驗結(jié)果

為了能夠使二值網(wǎng)絡得到實際中的應用,目前針對二值網(wǎng)絡的嵌入式設(shè)備開發(fā)也有相應研究。Bi-Real Net基于嵌入式應用的Vivado設(shè)計套件[49]估算了18層Bi-Real Net及其在現(xiàn)場可編程門陣列(Field-Programmable Gate Aray, FPGA)上的全精度網(wǎng)絡的執(zhí)行時間。與FPGA板上的全精度網(wǎng)絡相比,二值卷積神經(jīng)網(wǎng)絡Bi-Real Net使用相同或更少的資源將執(zhí)行速度加速6.07倍。與全精度卷積相比,二值卷積層的速度提高了15.8倍。通過累加所有操作的執(zhí)行時間,最終經(jīng)過測試,18層Bi-Real Net比具有相同結(jié)構(gòu)的全精度網(wǎng)絡能夠加速7.38倍。

另外如文獻[50]所述,在二值網(wǎng)絡領(lǐng)域已經(jīng)有一些推斷框架,例如BMXNet[51]、BitStream[52]、BitFlow[53]。其中,BitStream和BitFlow只進行了論文發(fā)表,而沒有建立源代碼或二值庫。BMXNet 雖然開源,但在 Google Pixel 1 手機上進行的測試顯示,其運行速度甚至比全精度推斷框架TensorFlow Lite還要慢。因此,為了填補二值網(wǎng)絡推理框架缺失的空白,京東AI開源了一個針對ARM指令集高度優(yōu)化的二值網(wǎng)絡推理框架dabnn[54],這也是第1個高度優(yōu)化的針對二值網(wǎng)絡的開源推理框架。和BMXNet相比,dabnn的速度得到了一個數(shù)量級的提升。一些研究者也實際部署與應用該推理框架,用以測試所設(shè)計二值網(wǎng)絡的實際推理速度。如IR-Net便使用dabnn框架計算了算法部署到實際移動設(shè)備中時的效率。與現(xiàn)有的高性能推理(包括NCNN[30]和DSQ[55])比較結(jié)果如表2[31]所示,從中可以看出相比于全精度網(wǎng)絡與其他低位寬網(wǎng)絡,二值卷積神經(jīng)網(wǎng)絡IR-Net的推理速度要快得多。與此同時,IR-Net的模型大小也可以大大減小,且在IR-Net中引入的移位尺度幾乎不會帶來額外的推理時間和存儲消耗。

表2 不同二值卷積神經(jīng)網(wǎng)絡在推理過程中的存儲量和推理時間[31]

表3[49]顯示了各種方案中BNN的參數(shù)大小和計算成本。計算成本(Floating Point Operations, FLOPs)是根據(jù)Bi-Real Net中的方法計算而得,即浮點數(shù)乘法的數(shù)量與1/64倍1位乘法的數(shù)量之和。從表中的結(jié)果可以看出,對于大部分基于訓練方法或者優(yōu)化近似的二值卷積神經(jīng)網(wǎng)絡而言,其并未改變其網(wǎng)絡的基本結(jié)構(gòu)配置,因此在推理過程中,具有相近的參數(shù)和浮點計算量。對于一些擴展結(jié)構(gòu)的二值卷積神經(jīng)網(wǎng)絡而言,其參數(shù)和計算量會相對增加,以GroupNet為例,當擴展倍數(shù)為1時,GroupNet的參數(shù)量和計算量與普通二值網(wǎng)絡相同,而當相應擴展倍數(shù)時,其卷積層的計算量和參數(shù)量也會成倍增加。

表3 各種新型二值卷積神經(jīng)網(wǎng)絡在ImageNet分類數(shù)據(jù)集上的參數(shù)量和FLOPS[49]

4 影響及發(fā)展趨勢

二值卷積神經(jīng)網(wǎng)絡旨在解決深度學習技術(shù)的效率瓶頸,這將會對社會產(chǎn)生積極影響。特別是,由于小型智能設(shè)備廣泛的商業(yè)價值和令人興奮的前景,全世界將配備數(shù)十億個小型、聯(lián)網(wǎng)和智能設(shè)備。這些設(shè)備中的許多設(shè)備將嵌入家庭、車輛、工廠和城市中。此外,可穿戴設(shè)備正變得越來越流行。低功耗計算設(shè)備的激增將推動工業(yè)領(lǐng)域乃至整個社區(qū)的發(fā)展,并在下一波個人計算浪潮中發(fā)揮至關(guān)重要的作用。重要的是,這些設(shè)備將在很大程度上依賴于現(xiàn)代深度學習,從而在感知和決策方面變得“智能”。通過將數(shù)據(jù)從移動設(shè)備上載到云來依靠云計算可能會遇到許多問題,由于延遲、隱私問題,更是難以實現(xiàn),因而變得不可行。因此,迫切需要在移動設(shè)備本身上執(zhí)行深度學習推理。但是,深度學習方法主要是為“重”平臺(例如GPU)設(shè)計的,而大多數(shù)移動設(shè)備都沒有配備強大的GPU,也沒有足夠的內(nèi)存來運行和存儲龐大的深度模型。解決這些瓶頸將使我們能夠設(shè)計和實施有效的深度學習系統(tǒng),這將幫助我們解決各種實際應用,例如具有高度隱私的個人計算。因此,二值卷積神經(jīng)網(wǎng)絡作為解決在提高深度學習推理效率以使其更具可擴展性和實用性方面的核心技術(shù)挑戰(zhàn),將會為整個社會帶來巨大利益。

此外,目前二值網(wǎng)絡應用主要面向目標分類,一些文章也專門設(shè)計了針對于語義分割和目標檢測任務的二值網(wǎng)絡。而對于視頻、語音、其他時序信號方面,網(wǎng)絡量化技術(shù)的發(fā)展和應用仍處于較為空白的階段。而面對這些應用,若要取得較好的量化結(jié)果,必須充分考慮應用的特點,比如視頻信號具有強幀間相關(guān)性特點。語音、通信信號為一維信號,量化后可能會顯示出與二維圖像信號完全不同的特點,要考慮其時域、頻域特點,結(jié)合任務特征進行量化處理。

盡管二值卷積神經(jīng)網(wǎng)絡中現(xiàn)今已取得很大進展,但相對于全精度網(wǎng)絡而言,仍然面臨巨大的性能損失,特別是對大型網(wǎng)絡和數(shù)據(jù)集。主要原因可能包括:① 尚不清楚哪種網(wǎng)絡結(jié)構(gòu)是適合二值化的,即未能總結(jié)出網(wǎng)絡哪些組成即使進行二值化之后,也可以保留網(wǎng)絡中較為充足的信息。② 即 使我們具有用于二值化的梯度估計器或近似函數(shù),在離散空間中優(yōu)化二進制網(wǎng)絡也是一個難題。但是通過現(xiàn)有的研究明確了提高二值網(wǎng)絡表達能力以及充分挖掘其訓練潛力都將對提高二值網(wǎng)絡性能產(chǎn)生積極影響。

5 結(jié) 論

本文對二值卷積神經(jīng)網(wǎng)絡進行全面的綜述,主要從提高網(wǎng)絡表達能力與充分挖掘網(wǎng)絡訓練潛力的角度出發(fā),給出當前二值卷積神經(jīng)網(wǎng)絡的發(fā)展脈絡與研究現(xiàn)狀。具體而言,從二值化量化方法設(shè)計和結(jié)構(gòu)設(shè)計兩方面進行提高網(wǎng)絡表達能力方法的概述,從損失函數(shù)設(shè)計和訓練策略兩方面進行充分挖掘網(wǎng)絡訓練潛力方法的概述。最后,將二值卷積神經(jīng)網(wǎng)絡在不同任務與硬件平臺的應用情況進行總結(jié)和討論,并展望了未來研究可能面臨的挑戰(zhàn)。對于當前二值卷積神經(jīng)網(wǎng)絡的研究,本文總結(jié)如下:

1) 二值卷積神經(jīng)網(wǎng)絡占用存儲空間小、計算效率高,研究的主要挑戰(zhàn)是其與全精度網(wǎng)絡之間巨大的性能差異。

2) 二值網(wǎng)絡的研究,主要以提高網(wǎng)絡的表達能力和挖掘網(wǎng)絡的訓練潛力為主。

3) 針對于挖掘網(wǎng)絡訓練潛力的方法,在一般情況推理模式下模型存儲和計算量都不發(fā)生改變,而模型性能提高。

4) 部分對于以提高網(wǎng)絡表達能力為主的方法會增加網(wǎng)絡的存儲或計算量,并容易獲得顯著的性能提升。

5) 現(xiàn)在二值網(wǎng)絡的應用主要以ImageNet數(shù)據(jù)集上的目標分類為主,少量研究也在目標檢測、語義分割、目標跟蹤、深度估計、人臉識別及行人重識別等應用上進行驗證,表明二值網(wǎng)絡的適用范圍較廣。

6) 目前將二值網(wǎng)絡配置在硬件設(shè)備上實現(xiàn)實際加速已有一些研究,主要集中在ARM、FPGA上,但開源研究仍較少,由于各種結(jié)構(gòu)設(shè)計和輔助模塊,在真實硬件設(shè)備上并不一定有較大的加速比,因此,實際硬件加速也將是二值網(wǎng)絡研究的一個重點方向。

綜上所述,二值卷積神經(jīng)網(wǎng)絡的研究將對未來嵌入式小型便攜設(shè)備的發(fā)展產(chǎn)生不可忽略的作用,并可極大推動深度學習技術(shù)的發(fā)展和應用。

猜你喜歡
卷積表達能力精度
基于不同快速星歷的GAMIT解算精度分析
數(shù)字化無模鑄造五軸精密成形機精度檢驗項目分析與研究
基于全卷積神經(jīng)網(wǎng)絡的豬背膘厚快速準確測定
一種基于卷積神經(jīng)網(wǎng)絡的地磁基準圖構(gòu)建方法
基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
一種并行不對稱空洞卷積模塊①
初中語文教學中提高學生表達能力的方法
淺析中學語文教學中學生表達能力的培養(yǎng)
近似邊界精度信息熵的屬性約簡
新課改下如何提高農(nóng)村高中學生的英語聽力與口頭表達能力