国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于邊緣計算的分支神經(jīng)網(wǎng)絡(luò)模型推斷延遲優(yōu)化

2020-04-09 14:48琦,李卓*,陳
計算機應用 2020年2期
關(guān)鍵詞:數(shù)據(jù)源分支邊緣

樊 琦,李 卓*,陳 昕

(1.網(wǎng)絡(luò)文化與數(shù)字傳播北京市重點實驗室(北京信息科技大學),北京100101;2.北京信息科技大學計算機學院,北京100101)

0 引言

近年來,深度學習在一些領(lǐng)域取得巨大成功,其中的深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network,DNN)方法在各種任務(wù)上取得了很好的效果。越來越多的推斷任務(wù)譬如自動駕駛[1]、智能語音[2]、圖像識別[3]等都需要用到神經(jīng)網(wǎng)絡(luò)。深度神經(jīng)網(wǎng)絡(luò)主要由多個卷積層、全連接層組成。其中的每一層都對輸入數(shù)據(jù)進行處理,并傳輸?shù)较乱粚?,在最終層輸出推斷結(jié)果。

高精度的DNN 模型有更多的網(wǎng)絡(luò)層數(shù),也需要更多的計算資源。目前智能應用任務(wù)中,通常將DNN 部署在計算資源充足的云端服務(wù)器[4]。在這種方式下,需要數(shù)據(jù)源把任務(wù)數(shù)據(jù)傳輸至云端的模型中執(zhí)行推斷任務(wù);云計算模式存在著延遲高、隱私性低和通信成本高等問題[5],無法很好地滿足任務(wù)需求。還有的做法嘗試將推斷模型部署至移動設(shè)備端[6],但由于移動設(shè)備受限的資源情況,只能運行簡單的機器學習方法,最終得到精度不高的推斷結(jié)果。

邊緣計算作為一種新型計算模式,其核心原則之一是將計算能力推向邊緣,得到了研究人員廣泛關(guān)注[7]。在邊緣計算場景下,將DNN 模型部署在設(shè)備周圍的邊緣計算節(jié)點上。相對于到云服務(wù)的距離,邊緣計算節(jié)點到數(shù)據(jù)源近得多,所以低時延特性能輕松實現(xiàn)。但目前的邊緣計算設(shè)備處理能力有限,單個邊緣計算節(jié)點可能無法很好地完成復雜網(wǎng)絡(luò)模型的推斷任務(wù),因此需要多個邊緣計算節(jié)點共同部署DNN 模型。在邊緣計算場景下部署DNN的主要挑戰(zhàn)是如何挑選出合適的計算節(jié)點來部署模型,要考慮到神經(jīng)網(wǎng)絡(luò)模型的切分、模型的計算需求及邊緣計算節(jié)點的網(wǎng)絡(luò)狀況,以此來優(yōu)化多個計算節(jié)點協(xié)同運行神經(jīng)網(wǎng)絡(luò)模型時的延遲。圖1 展示了分別在云計算和邊緣計算下進行深度學習的場景。云計算場景下用戶設(shè)備發(fā)送的數(shù)據(jù)通過網(wǎng)絡(luò)上傳到云服務(wù)器進行推斷任務(wù)。而邊緣計算場景下云服務(wù)器只進行延遲容忍的模型訓練過程,然后將訓練好的模型部署在邊緣節(jié)點,數(shù)據(jù)源將推斷任務(wù)數(shù)據(jù)傳輸至邊緣節(jié)點,DNN模型進行推斷后再為數(shù)據(jù)源返回推斷結(jié)果。

圖1 云計算與邊緣計算的深度學習模型對比Fig.1 Deep learning model comparison of cloud computing and edge computing

本文主要研究了如何在邊緣計算環(huán)境下減少DNN 的推斷延遲。利用BranchyNet深度學習框架在云端服務(wù)器上訓練好具有多個分支的DNN 模型,證明了分支神經(jīng)網(wǎng)絡(luò)的分布式部署問題是NP難的,設(shè)計并實現(xiàn)了基于分支定界思想的部署算法(Deployment algorithm based on Branch and Bound,DBB),來為DNN 模型找到有最小運行延遲的邊緣節(jié)點部署方案。針對數(shù)據(jù)源推斷任務(wù)的延遲要求、地理分布特性,提出選擇節(jié)點退出(Select the Node Exit,SNE)算法,為不同的推斷任務(wù)數(shù)據(jù)源選擇合適的邊緣計算節(jié)點返回推斷結(jié)果。實驗結(jié)果表明,與在云端部署神經(jīng)網(wǎng)絡(luò)模型的方法相比,基于邊緣的神經(jīng)網(wǎng)絡(luò)模型推斷方法平均降低了36%的延遲消耗。

1 相關(guān)工作

深度學習任務(wù)主要分為訓練和推理兩個階段。神經(jīng)網(wǎng)絡(luò)層數(shù)的增多帶來的是訓練和推斷延遲以及成本的增大。為使DNN 更好服務(wù)于應用,目前有研究關(guān)注神經(jīng)網(wǎng)絡(luò)的分布式訓練方面,比如:文獻[8]提出的參數(shù)服務(wù)器框架,用并行的方式,使用參數(shù)服務(wù)器在訓練時更新節(jié)點參數(shù),以縮短大數(shù)據(jù)環(huán)境下深度學習的訓練時間;文獻[9]考慮了訓練DNN 模型時分布式服務(wù)器之間的通信開銷,研究了多種通信算法來提高DNN模型的訓練效率。

在優(yōu)化神經(jīng)網(wǎng)絡(luò)推斷延遲方面,文獻[10]提出了一種BranchyNet 分支網(wǎng)絡(luò)結(jié)構(gòu),在普通DNN 模型中間添加多個分支網(wǎng)絡(luò)模型并部署早期退出點,當系統(tǒng)對推斷任務(wù)有把握時,可將任務(wù)在模型中間添加的分支中退出,不必使樣本經(jīng)歷DNN 模型的所有層數(shù),從而減少推斷延遲;文獻[11]利用DNN 模型中卷積層和全連接層廣義矩陣乘積操作的特性,將DNN 模型中這兩部分計算需求劃分為可以并行執(zhí)行的片段,并部署到多個移動設(shè)備上,使用并行計算的方法來減少推斷過程中的延遲;文獻[12]研究了本地與邊緣服務(wù)器協(xié)同進行DNN 推斷的場景,提出了Edgent 終端-邊緣協(xié)同推理框架,將DNN 模型劃分為兩個部分:將資源需求大的部分部署在邊緣服務(wù)器上,而資源需求小的模型部分則部署在本地終端設(shè)備上;文獻[13]提出了Neurosurgeon 系統(tǒng),研究了計算機視覺、語音等多種DNN架構(gòu)的計算和數(shù)據(jù)特性,設(shè)計了DNN模型在移動設(shè)備與云服務(wù)器上共同部署時的分區(qū)方案。對邊緣計算場景中的深度學習推斷任務(wù),有效的任務(wù)調(diào)度算法也可以提高模型推理性能,文獻[14]中將DNN 模型分別部署在網(wǎng)絡(luò)邊緣的網(wǎng)關(guān)與遠程云服務(wù)器上,通過為深度學習任務(wù)設(shè)計了一種新的任務(wù)卸載策略來提高推斷性能。

此外,還有研究關(guān)注減少DNN 模型的計算工作量。文獻[15]中通過剪接、訓練量化和哈夫曼編碼三階段對DNN 模型進行深度壓縮,在不影響DNN 模型精度的前提下,降低了DNN 模型的存儲需求;文獻[16]針對在資源有限的嵌入式設(shè)備中進行卷積神經(jīng)網(wǎng)絡(luò)計算所需內(nèi)存空間和資源過大的問題,提出了結(jié)合網(wǎng)絡(luò)權(quán)重裁剪及面向嵌入式平臺的動態(tài)定點量化方法,有效地壓縮了神經(jīng)網(wǎng)絡(luò)模型并降低了計算消耗。

在邊緣計算場景下進行深度學習推斷任務(wù),需要考慮DNN 模型計算特性以及邊緣節(jié)點的網(wǎng)絡(luò)狀況和計算能力,因此本文綜合考慮這兩點提出分支神經(jīng)網(wǎng)絡(luò)在邊緣計算場景下的分布式部署問題,通過選擇最優(yōu)部署方案以及優(yōu)化推斷結(jié)果的傳輸來減少推斷任務(wù)的延遲。

2 部署模型與問題定義

在邊緣計算場景下部署分支DNN 模型,首先需要在云服務(wù)器上完成模型的訓練過程,這個過程是延遲容忍的,本文重點關(guān)注模型進行任務(wù)推斷的過程。DNN 的結(jié)構(gòu)是層與層之間的有序序列,每一層接收到上一層輸出數(shù)據(jù)并處理,然后傳輸至下一層。利用這個特性可將DNN 構(gòu)造為具有多個分支的DNN 模型,每一個分支都由具體的神經(jīng)網(wǎng)絡(luò)層組成,多個分支又共同組成一個完整的DNN 模型。邊緣計算場景中的邊緣計算節(jié)點由多種計算性能不同的設(shè)備組成,這些設(shè)備數(shù)量眾多,相互獨立,分散在用戶周圍[17]。單獨的邊緣計算節(jié)點只能運行精度不高的簡單模型,自然想到將帶有分支的DNN模型分布式部署到多個邊緣計算節(jié)點上,由這些節(jié)點共同完成模型的推斷過程。因為各分支有著不同的網(wǎng)絡(luò)層結(jié)構(gòu),這會導致各分支對部署節(jié)點的計算資源要求不同,即同一模型部署到不同節(jié)點上會導致不同的運行延遲;又考慮到不同邊緣計算節(jié)點之間有著不同的網(wǎng)絡(luò)狀況,因此分支神經(jīng)網(wǎng)絡(luò)的分布式部署問題需要綜合考慮到節(jié)點計算能力、分支模型結(jié)構(gòu)以及節(jié)點之間的數(shù)據(jù)傳輸,不同的部署方式會使得推斷樣本經(jīng)歷不同分支出口點、DNN 層數(shù),即會導致精度和運行時的延遲不同。因此,需要為給定的DNN 分支模型結(jié)構(gòu)選擇最佳的邊緣計算節(jié)點部署。同時數(shù)據(jù)源到不同邊緣計算節(jié)點的距離、網(wǎng)絡(luò)狀況也是影響推斷任務(wù)效果的因素。因此,問題的研究可以分為兩個階段:第一階段是為訓練好的DNN 分支模型選擇合適的邊緣節(jié)點部署,目標是使模型運行時的總延遲最??;第二階段是為不同的數(shù)據(jù)源選擇滿足其延時要求的邊緣計算節(jié)點退出推斷結(jié)果,并返回數(shù)據(jù)源。

在邊緣計算場景中,給定邊緣計算節(jié)點集合E={e1,e2,…,ei,…,em}以及有n 個分支的DNN 模型集合D={d1,d2,…,dz,…,dn},其中dz表示第z 個分支,且這n 個模型分支有運行順序的要求;fij表示分支模型i 和j 部分的運行順序;mij表示邊緣節(jié)點i與j之間延遲;cij表示將di部署在ej上運行時的延遲;xij表示將第i個模型部分部署到第j個節(jié)點上。

問題1 分支神經(jīng)網(wǎng)絡(luò)的分布式部署問題。給定邊緣計算節(jié)點集合E 與DNN 分支模型集合D,要求確定一個部署方案,使得在該部署方案下,每一個分支模型都部署到一個邊緣計算節(jié)點上,使DNN模型運行時所需總延遲最少。

定理1分支神經(jīng)網(wǎng)絡(luò)的分布式部署問題是NP-難問題。

證明 首先介紹二次分配問題(Quadratic Assignment Problem,QAP)。QAP 可描述為:給定n 個設(shè)備和n 個地點,三個n×n 矩陣F=(fij)n*n,D=(dij)n*n與C=(cij)n*n,其中,fij表示設(shè)備i與j之間的流量,dij表示地點i與j之間距離,cij表示設(shè)備i部署在位置j的花費,fij與dij之間的乘積為通信費用,要求給每個設(shè)備分配一個位置,并使設(shè)施之間的通信費用與設(shè)施到地點上的部署費用之和最小。

其中p(i)表示設(shè)施i被分配的地點。

在分支神經(jīng)網(wǎng)絡(luò)的分布式部署問題中,需要將n 個模型分配到m 個節(jié)點中的n個節(jié)點上(n ≤m),表示為問題規(guī)模n×m,而在QAP 中,是將n個設(shè)備分配到總數(shù)為n的節(jié)點上,問題規(guī)模為n×n。為了解決規(guī)模為n×m 的部署問題,至少需要解決一個規(guī)模為n×n的QAP。可以構(gòu)造m-n個虛擬分支模型,此時部署問題變?yōu)橐?guī)模為m×m 的QAP,再將m 個設(shè)備分配到m 個位置上;或是將m 個可用節(jié)點位置分為n 組,再將n個設(shè)備分配到n 個節(jié)點上,此時部署問題變?yōu)橐?guī)模為n×n 的QAP。因此分支神經(jīng)網(wǎng)絡(luò)的分布式部署問題至少與n×n 規(guī)模的QAP 一樣難。已知QAP 已經(jīng)被證明為NP-難問題[18],因此分支神經(jīng)網(wǎng)絡(luò)的分布式部署問題是NP-難問題。

3 模型部署算法設(shè)計

3.1 基于分支定界思想的部署算法

本文基于分支定界思想設(shè)計了分布式神經(jīng)網(wǎng)絡(luò)模型的部署算法。DBB 采用單賦值策略,在每一個步驟選擇一個未分配的模型分配到一個空閑的位置。每次分配都會計算當前已分配問題的下界,若當前下界大于已知的最優(yōu)解下界,則表明對當前解分支繼續(xù)探索不會得到更好的解下界,則將上一次分配的位置移除,為當前模型分配其他空閑位置;若當前計算下界小于已知最優(yōu)解下界,算法則會繼續(xù)采用單賦值策略繼續(xù)為當前解分配其他的對象。在為模型分配節(jié)點過程中,算法為每個節(jié)點定義節(jié)點性能:每個邊緣節(jié)點到其相鄰節(jié)點的延遲與當前模型部署延遲之和越小,則節(jié)點越有可能被部署,以此提升下一次分配得到更好下界的可能性。若模型已被全部分配至節(jié)點上,計算此時下界,若小于已知最優(yōu)解下界,則記錄當前解并更新下界。此時算法再通過回溯至解空間樹上一層,為已分配模型選擇其他節(jié)點部署來尋找下一個可行解。

算法1 DBB。

輸入 DNN 模型集合D 以及邊緣計算節(jié)點集合E,代表n 個分支模型分別部署在m 個邊緣計算節(jié)點上的n×m 延遲矩陣C,邊緣計算節(jié)點之間通信的延遲矩陣M,記錄已部署的模型與設(shè)施集合為I與J,模型ik不允許被放置的節(jié)點集合記為P(ik),C*為初始下界。

輸出 部署模型對應的節(jié)點序列。

1) C*=∞,i1=d1

2) for j ←1to m:

3) 集合I ←i1,集合J ←j1

4) for k ←1 to n-1

calculate B

if B ≥C*

go to 6)

else if B的值未改變

go to 5)

else ik+1=dk+1

replace I by I ∪{ik+1},J by J ∪{jk+1}

此時C1即完整分配的花費

if C1<C*,C*=C1,存儲已分配對(in,jm),k=n

else k=n

6) 將ik與jk分別從I與J中移除

7) P(ik)=P(ik)∪{jk}

calculate B

8) if B ≥C*,then go to 9)

else 分配ik到位置t,t ?J ∪P(ik)

Jk=t,replace I byI ∪{ik},J by J ∪{jk}

go to 4)

9) 此時ik-1與jk-1從I與J中移除

replace p(ik-1)by p(ik-1)∪jk-1,k=k-1

else 得到最優(yōu)解(in,jm)

通過分析,該算法復雜度主要體現(xiàn)在計算問題每一階段的下界部分,下界的定義方法會影響到算法的搜索效率。當問題規(guī)模n×n 中n 不超過20 時,可以很快得到問題最優(yōu)解。而問題所考慮的有n個分支的神經(jīng)網(wǎng)絡(luò)模型中,n的規(guī)模不會很大,這也是未采用啟發(fā)式方法,而使用分支定界思想設(shè)計部署算法的原因。算法中邊界定義如下:假定模型i被放置到位置j,計算當前解的下界B=C1+C2+C3。

其中:C1表示已分配模型的延遲成本,C2表示已分配與未分配模型之間傳輸?shù)难舆t成本,C3是未分配位置的模型的延遲成本。對本文問題來說,C3的計算策略是將未分配計算節(jié)點與其余未分配節(jié)點延遲按升序排列,再將需要分配的模型部分依次放置上去。

3.2 選擇節(jié)點退出算法

部署模型任務(wù)完成之后,得到邊緣節(jié)點上運行分支神經(jīng)網(wǎng)絡(luò)模型的最小延遲部署方案。而在推斷任務(wù)的實際情況中,還需考慮數(shù)據(jù)源到邊緣節(jié)點之間的距離、網(wǎng)絡(luò)狀況。推斷樣本經(jīng)歷不同的邊緣節(jié)點會導致結(jié)果延遲與精度的改變。邊緣計算應用具有軟實時特征,用戶請求需要在一定的期限內(nèi)返回[19],且推斷結(jié)果的精度同樣影響用戶的體驗質(zhì)量。為給推斷任務(wù)選擇合適的出口點返回推斷結(jié)果,本文設(shè)計了選擇節(jié)點退出算法。對給定延遲要求的推斷任務(wù),從已部署的邊緣節(jié)點集合D 中選出目標節(jié)點d 返回推斷結(jié)果,在保證推斷滿足延遲要求情況下,使推斷樣本經(jīng)歷更多的邊緣節(jié)點,最終為數(shù)據(jù)源返回符合延遲要求且保證精度的推斷結(jié)果。

如圖2 中,圖中央分布的是邊緣計算節(jié)點,標有數(shù)字的是已部署神經(jīng)網(wǎng)絡(luò)模型的節(jié)點。當數(shù)據(jù)源1 與2 有任務(wù)需推斷時,首先將數(shù)據(jù)發(fā)送至部署了神經(jīng)網(wǎng)絡(luò)模型第一層的邊緣節(jié)點1,隨后為數(shù)據(jù)源1 選擇符合任務(wù)要求的邊緣節(jié)點2 返回推斷結(jié)果,為數(shù)據(jù)源2選擇邊緣節(jié)點5返回推斷結(jié)果。

圖2 推斷任務(wù)運行場景Fig.2 Running scenario of inference task

算法2 SNE算法。

輸入 已部署的DNN 模型網(wǎng)絡(luò)拓撲;需推斷任務(wù)的延遲要求latency;數(shù)據(jù)源距離第一個邊緣節(jié)點延遲B1;第i 個邊緣節(jié)點距數(shù)據(jù)源延遲Bi;任務(wù)退出點N;預測延遲f();推斷任務(wù)從第1 個到第i個邊緣計算節(jié)點上推斷所用延遲

輸出 符合任務(wù)t延遲要求的N。

1) For k ←1 to n

2) ELk←f(ELk)

3) For i ←1 to n

return i,store i to set I

5) return N=max I

6) else return null

4 實驗結(jié)果與分析

4.1 實驗環(huán)境

本文使用NS2 網(wǎng)絡(luò)模擬器仿真邊緣計算的網(wǎng)絡(luò)場景,將基于邊緣計算的分支網(wǎng)絡(luò)部署模型與基于云計算的DNN 模型推斷進行對比。在深度學習框架BranchyNet下訓練了一個具有多個分支的DNN 模型,用于Cifar-10 數(shù)據(jù)集上的圖像分類任務(wù)。在NS2 網(wǎng)絡(luò)模擬器中仿真了以數(shù)據(jù)源、邊緣節(jié)點與云服務(wù)器為主的網(wǎng)絡(luò)分布場景。圖3 說明了具有5 個分支、6個出口點的分支神經(jīng)網(wǎng)絡(luò)模型B-AlexNet。為了便于說明,僅繪制卷積層和全連接層。

圖3 分支神經(jīng)網(wǎng)絡(luò)模型主要結(jié)構(gòu)Fig.3 Main structure of branchy neural network model

實驗中為設(shè)置異構(gòu)的邊緣節(jié)點網(wǎng)絡(luò)環(huán)境,采取將JetsonTX1、JetsonTX2、JetsonTK1 和JetsonNaNo 四種不同的邊緣設(shè)備在每次生成網(wǎng)絡(luò)拓撲時隨機分配到邊緣節(jié)點上的方法。參考四種設(shè)備不同的計算性能參數(shù),使用文獻[20]中的Paleo 框架預測了模型各分支在邊緣節(jié)點上的模型運行延遲,如表1。

4.2 實驗結(jié)果

首先將本文提出方法與現(xiàn)有在云端部署神經(jīng)網(wǎng)絡(luò)模型的方法進行對比。將訓練好的分支神經(jīng)網(wǎng)絡(luò)模型分別部署在邊緣節(jié)點上和云服務(wù)器上。圖4 實驗中基于邊緣計算的方法中延遲取的是模擬10 次不同網(wǎng)絡(luò)分布后的延遲平均值,節(jié)點之間帶寬設(shè)置為1 Mb/s。實驗結(jié)果表明,兩種方法中,當數(shù)據(jù)源的任務(wù)經(jīng)模型推斷后從同一出口點退出時,即此時兩種方式對任務(wù)推斷的精度相同,基于邊緣計算的神經(jīng)網(wǎng)絡(luò)模型推斷所用延遲比云端部署方式更短。且綜合不同的推斷精度考慮,本文方法所用推斷延遲較云端部署方法平均降低了36%。

下面基于圖5 的網(wǎng)絡(luò)拓撲,分析邊緣節(jié)點上神經(jīng)網(wǎng)絡(luò)模型對不同地理位置的數(shù)據(jù)源進行推斷任務(wù)的性能。首先由DBB 從隨機生成的邊緣節(jié)點分布集合中選擇了節(jié)點1、2、3、4、5、6部署分支神經(jīng)網(wǎng)絡(luò)模型。

表1 分支模型在邊緣設(shè)備上的運行延遲 單位:msTab.1 Branchy model running delay on edge devices unit:ms

圖4 本文方法與云服務(wù)器方法的推斷延遲對比Fig.4 Inference delay comparison of the proposed method and cloud server method

圖5 網(wǎng)絡(luò)模擬狀態(tài)Fig.5 Simulation state of the network

實驗結(jié)果如圖6 所示,可發(fā)現(xiàn)當推斷樣本返回的推斷精度低時,即此時樣本在部署早期分支退出點的節(jié)點退出(如節(jié)點1、2、3),此時數(shù)據(jù)源節(jié)點8距離退出點更近,因此獲得了更好的延遲效果;隨著推斷樣本精度的提升,邊緣節(jié)點在分支神經(jīng)網(wǎng)絡(luò)模型后期的退出點為數(shù)據(jù)源返回推斷結(jié)果,此時后期退出點距離數(shù)據(jù)源節(jié)點9更近,因此節(jié)點9的推斷任務(wù)取得比節(jié)點8更好的延遲效果。

圖6 邊緣場景下不同數(shù)據(jù)源任務(wù)推斷延遲對比Fig.6 Task inference delay comparison of different data sources in edge computing scenario

實驗中還發(fā)現(xiàn)推斷任務(wù)的運行延遲受到網(wǎng)絡(luò)帶寬的影響,因此在實驗中考慮設(shè)置網(wǎng)絡(luò)帶寬為500 kb/s,此時的推斷任務(wù)運行情況如表2 所示,精度為-1 時表示當前推斷無法滿足任務(wù)延遲要求。當推斷任務(wù)延遲要求為50 ms 時,云服務(wù)器與邊緣場景下的SNE 算法都無法滿足任務(wù)的延遲需求;隨著推斷任務(wù)延遲要求降低,SNE 算法通過選擇早期的分支模型進行任務(wù)推斷,并輸出中等精度的推斷結(jié)果;當任務(wù)延遲要求達到350 ms 時,兩種方式都可以滿足推斷任務(wù)延遲要求,為數(shù)據(jù)源返回最高精度分支模型的推斷結(jié)果。

表2 網(wǎng)絡(luò)受限情況下邊緣與云場景下任務(wù)推斷精度對比Tab.2 Comparison of inference accuracy in edge and cloud scenarios with limited network

5 結(jié)語

針對現(xiàn)有基于云的深度學習任務(wù)推斷延遲過高問題,本文提出在邊緣計算場景下部署分支神經(jīng)網(wǎng)絡(luò)模型以減小推斷延遲,設(shè)計了基于分支定界思想的部署算法(DBB)來為給定的DNN 模型選擇合適的邊緣計算節(jié)點部署,降低了推斷任務(wù)所需要的延遲;同時設(shè)計了選擇節(jié)點退出算法(SNE)為不同延遲要求的推斷任務(wù)滿足選擇合適節(jié)點返回推斷結(jié)果。實驗結(jié)果顯示,與傳統(tǒng)在云端部署神經(jīng)網(wǎng)絡(luò)模型的方法相比,本文提出的邊緣計算場景下部署分支神經(jīng)網(wǎng)絡(luò)模型平均降低了36%的推斷延遲。

猜你喜歡
數(shù)據(jù)源分支邊緣
一類離散時間反饋控制系統(tǒng)Hopf分支研究
軟件多分支開發(fā)代碼漏合問題及解決途徑①
巧分支與枝
圖表中的交互 數(shù)據(jù)鉆取還能這么用
一張圖看懂邊緣計算
基于Excel的照片查詢系統(tǒng)開發(fā)與應用
再談利用郵件合并功能批量生成準考證
數(shù)據(jù)有增加 圖表自適應
碩果累累
在邊緣尋找自我
河北区| 阆中市| 体育| 荃湾区| 台前县| 拜泉县| 湖北省| 南宁市| 疏勒县| 平定县| 汤原县| 唐河县| 阿坝县| 威宁| 临漳县| 高邮市| 绍兴县| 文登市| 枞阳县| 博客| 定安县| 富顺县| 临清市| 图们市| 金门县| 芒康县| 新安县| 工布江达县| 宁明县| 宁晋县| 邵阳县| 渭南市| 通河县| 华蓥市| 昌图县| 甘南县| 濮阳县| 广水市| 武城县| 苏尼特左旗| 土默特左旗|