国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

三維視頻的深度圖快速編碼算法*

2018-03-21 00:56雪,馮
通信技術(shù) 2018年3期
關(guān)鍵詞:類間深度圖視點(diǎn)

韓 雪,馮 桂

(華僑大學(xué) 信息科學(xué)與工程學(xué)院,福建 廈門 361021)

0 引 言

近年來,3D設(shè)備越來越多地應(yīng)用于生活的方方面面。3D視頻的數(shù)據(jù)量大大增加,給編碼和傳輸帶來了難題。如何高效編碼三維視頻,已經(jīng)成為研究的熱點(diǎn)。聯(lián)合視頻編碼小組(Moving Picture Expert Group,MPEG)基于傳統(tǒng)2D視頻編碼標(biāo)準(zhǔn)——高性能視頻編碼(High Efficient Video Coding,HEVC),以多視點(diǎn)加深度圖(Multi-view Video plus Depth,MVD)為編碼格式,在HEVC編碼標(biāo)準(zhǔn)基礎(chǔ)上,提出了編碼3D視頻的3D-HEVC編碼標(biāo)準(zhǔn)[1-2]。MVD的格式需要編碼幾個不同視點(diǎn)的紋理圖及其對應(yīng)的深度圖,再利用基于深度圖的繪制(Depth-Image-Based Rendering,DIBR)技術(shù),合成任意位置的視頻信息[3]。

不同視點(diǎn)的采集通過一系列同樣高度、角度不同的攝像頭完成。3D-HEVC標(biāo)準(zhǔn)測試平臺的測試序列使用三視點(diǎn)[4]。根據(jù)編碼時是否參考其他視點(diǎn),分為一個獨(dú)立視點(diǎn)和兩個非獨(dú)立視點(diǎn)。在非獨(dú)立視點(diǎn),根據(jù)采集視圖與獨(dú)立視點(diǎn)視頻的相對位置,分為左視點(diǎn)和右視點(diǎn)。編碼獨(dú)立視點(diǎn)主要利用空域和時域的冗余性降低編碼復(fù)雜度,非獨(dú)立視點(diǎn)的編碼還存在視點(diǎn)間的冗余性。深度圖反映了物體與相機(jī)的距離,是灰度圖像?;叶戎荡?,表示距離相機(jī)較近;灰度值小,表示距離相機(jī)較遠(yuǎn)[5]。圖1、圖2依次展示了分辨率為1 028×768的一組3D-HEVC測試序列Balloons的紋理圖及其對應(yīng)的深度圖。對比紋理圖和深度圖,發(fā)現(xiàn)平坦區(qū)域在深度圖占據(jù)的比例更大,但物體的邊界處較鋒利,物體與背景的交界常呈鋸齒狀[6]。針對深度圖的特性,3D-HEVC改進(jìn)深度圖的幀內(nèi)預(yù)測過程,不僅沿用HEVC編碼標(biāo)準(zhǔn)對CU的四叉樹分割方式和35種幀內(nèi)預(yù)測模式,還增加了兩種深度建模模式(Depth Modeling Mode,DMM),分別是楔形分割(Wedgelet Partition,DMM1)和輪廓分割(Contour Partition,DMM4)。以上兩種模式采用不規(guī)則的劃分方式,能更精確地表示深度圖的鋸齒狀邊緣,但增加了編碼復(fù)雜度[7]。

圖1 序列Balloons的紋理圖

圖2 序列Balloons的深度圖

針對深度圖幀內(nèi)預(yù)測的快速算法,大致可分為兩類,一類是減少幀內(nèi)預(yù)測模式的檢測數(shù)目,一類是針對四叉樹分割模型的CU尺寸快速決策算法?;啂瑑?nèi)模式數(shù)目的快速算法有:文獻(xiàn)[8]根據(jù)哈達(dá)瑪變換后的矩陣判斷當(dāng)前CU是否含有水平或者垂直邊緣;文獻(xiàn)[9]利用Canny算子判斷當(dāng)前CU的方向性,對35種幀內(nèi)模式和DMM模式先做分類,目的是減少需要遍歷的模式數(shù)目?;喫牟鏄浞指畹乃惴ㄓ校何墨I(xiàn)[10]利用已編碼紋理圖的CU編碼信息,對當(dāng)前CU的幀內(nèi)模式數(shù)目和四叉樹分割方式做簡化;文獻(xiàn)[11]把CU是否繼續(xù)分割建立成邏輯回歸函數(shù)模型;文獻(xiàn)[12]獲取幀內(nèi)預(yù)測中不同模式下的率失真代價,根據(jù)閾值預(yù)估計CU的分割深度。然而上述算法都未利用3D-HEVC的視點(diǎn)間相關(guān)性。針對CU的空域和時域相似性的快速算法效率不高,且對快速運(yùn)動的序列的效果較差。利用算子對平坦CU提前判決的算法,準(zhǔn)確度受選取的檢測方法和閾值影響很大。

本文主要研究深度圖中CU的特點(diǎn)和不同視點(diǎn)的相關(guān)性,分析和檢測Otsu’s算子對深度圖CU的適用性,提出了基于Otsu’s算子的CU尺寸提前決策算法。具體地,先用Otsu’s算子計算CU的最大類間方差,對平坦CU提前決策最佳尺寸和跳過其他深度的遍歷。利用視點(diǎn)相關(guān)性,編碼非獨(dú)立視點(diǎn)中的CU時,參考獨(dú)立視點(diǎn)的已編碼CU的深度信息和最佳預(yù)測模式。實驗結(jié)果表明,本文算法在合成視點(diǎn)質(zhì)量基本不變的情況下,有效降低了深度視頻幀內(nèi)編碼的復(fù)雜度。

1 深度圖幀內(nèi)預(yù)測過程

1.1 幀內(nèi)預(yù)測和復(fù)雜度分析

3D-HEVC采用四叉樹的編碼結(jié)構(gòu),即待編碼圖像以64×64大小的最大編碼單元(Largest Coding Unit,LCU)作為四叉樹分割的起始,不斷遞歸分割成4個相同尺寸的子CU,直到分割為最小尺寸8×8的CU。以自下而上的順序依次比較不同層的CU與四個子CU的率失真代價,選擇率失真代價最小的CU尺寸作為LCU的最終分割結(jié)果。圖3顯示了深度圖CU的四叉樹分割方式。一個64×64大小的LCU需要逐級分割到尺寸8×8,對應(yīng)深度級分別從0到3,并對每層的所有CU遍歷幀內(nèi)模式,計算率失真代價。深度圖中,由于大面積為平坦區(qū)域,大部分LCU的最大分割深度為0或者1,只有紋理復(fù)雜的或是包含邊緣的LCU會分割成更小的16×16尺寸或者8×8尺寸。由上述分析可知,如果能提前判斷當(dāng)前CU是否平坦,就能跳過一些不必要的分割過程。

圖3 LCU四叉樹分割方式

最佳幀內(nèi)模式的決策,首先是粗略的模式選擇。遍歷35種預(yù)測模式,分別是Planar模式、DC模式和33種角度模式,計算每種模式對應(yīng)的低復(fù)雜度的率失真代價,取率失真代價最小的3個或者8個幀內(nèi)模式組成粗選模式列表——RMD列表(Rough Mode Decision,RMD)。RMD列表加入候選模式列表,根據(jù)左側(cè)和上方相鄰的已編碼CU的最佳預(yù)測模式,推測三種最可能的預(yù)測模式(Most Probable Mode,MPM),并加入候選模式列表。遍歷兩種DMM模式,計算每種分割方式對應(yīng)的最小均方誤差SSE(Sum of Squared Error),從中選出最佳的DMM分割方式,并加入候選模式列表。對候選模式列表中的所有幀內(nèi)模式分別計算率失真代價,將最小率失真代價對應(yīng)的幀內(nèi)預(yù)測模式作為當(dāng)前CU的最佳幀內(nèi)預(yù)測模式。深度圖中,緩慢變化或平坦的CU較多,最佳幀內(nèi)模式用Planar模式和DC模式的比例很大,新增的DMM模式則通常用于編碼物體的邊緣。DMM模式的編碼時間占深度圖編碼總時間的20%,但選擇DMM模式為最佳預(yù)測模式的CU約為1%。所以,如果能夠提前判定當(dāng)前CU是平坦的或者包含邊緣,然后對不含邊緣的CU跳過DMM模式的檢測,將大大降低計算復(fù)雜度。

1.2 視點(diǎn)間相關(guān)性分析

多視點(diǎn)加深度的編碼結(jié)構(gòu),采用先獨(dú)立視點(diǎn)后非獨(dú)立視點(diǎn)的順序編碼。不同的視點(diǎn)是由一組攝像機(jī)在不同的水平位移和不同角度下獲取的,所采集的圖像為相同場景,所以不同視點(diǎn)間的深度圖具有很強(qiáng)的相關(guān)性。圖4顯示了序列Balloons的紋理圖和深度圖在第一幀時的三個視點(diǎn)的視頻信息。從圖4可以看出,三個視點(diǎn)展示同樣場景,但有不同方向上的偏移,而不同視點(diǎn)間的相似程度很高。

圖4 序列Balloons的紋理圖和深度圖第一幀的三視點(diǎn)圖像

表1顯示了對高分辨率的序列Poznan_Hall、Poznan_Street和低分辨率的序列Balloons、Kendo,統(tǒng)計非獨(dú)立視點(diǎn)中LCU最終分割深度與獨(dú)立視點(diǎn)相同位置的LCU分割深度相等的比例。從表1可以看出,相鄰視點(diǎn)有70%以上的LCU分割深度相等。以上結(jié)果表明,相鄰視點(diǎn)間存在很強(qiáng)的相關(guān)性。

表1 非獨(dú)立視點(diǎn)LCU與對應(yīng)獨(dú)立視點(diǎn)LCU分割深度相等的概率

2 提出的算法

常用的紋理復(fù)雜度的檢測方法有:文獻(xiàn)[9]采用Canny邊緣檢測算子,邊緣檢測算子計算量較大,對圖像噪聲敏感;文獻(xiàn)[13]利用角點(diǎn)檢測算子,以LCU起始,對包含角點(diǎn)的區(qū)域繼續(xù)分割,對不含角點(diǎn)的區(qū)域終止分割。角點(diǎn)檢測算子能較大程度降低計算復(fù)雜度,但深度圖的失真較大,合成視點(diǎn)的質(zhì)量損失最大。文獻(xiàn)[14]計算當(dāng)前CU的方差,再與閾值比較,方差的方法計算量較小,但對編碼時間的減小程度和準(zhǔn)確率與閾值的選取有較大相關(guān)性,若CU中不同區(qū)域的像素值差異較小,則該CU的方差值可能非常小,用閾值難以區(qū)分平坦CU;文獻(xiàn)[15]利用灰度共生矩陣分析LCU的紋理復(fù)雜度,根據(jù)矩陣中0的個數(shù)跳過DMM模式的檢測,缺點(diǎn)是灰度共生矩陣的計算量太大,且編碼時間減少較小。本文采用Otsu’s算子計算當(dāng)前CU的最大類間方差,能很好地區(qū)分平坦區(qū)域和非平坦區(qū)域,檢測準(zhǔn)確率優(yōu)于上述三種算子,且直方圖經(jīng)過均衡化處理,圖像的噪聲對Otsu’s算子的計算結(jié)果影響較小,是一種理想的檢測CU紋理復(fù)雜度的方法。

2.1 基于Otsu’s算子的CU提前終止分割算法

Otsu’s算子廣泛應(yīng)用于圖像分割領(lǐng)域,能夠最佳地分離出圖片中地背景和物體,其計算結(jié)果稱為最大類間方差。最大類間方差代表圖片的差異程度。最大類間方差值越大,代表圖片內(nèi)部像素分布的差異較大;最大類間方差值越小,代表圖像內(nèi)部像素分布接近。計算方法:圖像根據(jù)灰度值k分成背景和物體兩類,灰度值為[0,1,…,k]的所有像素組成類C1,灰度值為[k+1,…,255]的所有像素組成類C2[16]。遍歷從0到255的閾值,求出一個最佳分割出來的類C1和類C2的閾值,使類間方差值最大。不同閾值下的類間方差的計算公式如下:

其中,P1(k)和P2(k)分別代表類C1和類C2在圖像中所占的比例。m1、m2、mG分別代表類C1的平均灰度、類C2的平均灰度和整幅圖像的平均灰度。有一種特殊情況,當(dāng)最大類間方差值等于0時,代表圖片中的像素值都相等。深度圖表現(xiàn)了物體的相對距離,平坦區(qū)域所占比例最大,對于相對距離較近的物體,在深度圖中表現(xiàn)為灰度差異小。所以,Otsu’s算子能夠較好地檢測出內(nèi)部變化不明顯的CU,更適應(yīng)深度圖的特征。

根據(jù)Otsu’s算子的特征,本文對深度幀中的獨(dú)立視點(diǎn)的64×64到8×8尺寸的CU,用Otsu’s算子計算最大類間方差值把小于1的CU定義為平坦的。終止該CU繼續(xù)分割,把當(dāng)前尺寸作為最終分割結(jié)果。表2顯示了深度圖獨(dú)立視點(diǎn)中不同尺寸CU的最大類間方差小于1時,CU終止繼續(xù)分割的正確率??梢钥闯?,本文提出的CU提前終止分割算法的正確率很高。

表2 深度圖獨(dú)立視點(diǎn)的CU在不同尺寸下提前終止分割算法的正確率(單位:%)

2.2 利用視點(diǎn)間相關(guān)性提前終止CU分割

因為3D-HEVC編碼標(biāo)準(zhǔn)先編碼獨(dú)立視點(diǎn),所以在編碼非獨(dú)立視點(diǎn)時可以參考獨(dú)立視點(diǎn)的已編碼CU。為了提前判決非獨(dú)立視點(diǎn)中的平坦CU,不必對所有CU計算最大類間方差,可以參考獨(dú)立視點(diǎn)對應(yīng)CU的Otsu’s算子計算結(jié)果,節(jié)省編碼時間,降低編碼比特率。對于左視點(diǎn),獨(dú)立視點(diǎn)中相同位置的CU與左鄰近CU與當(dāng)前CU的相似程度較大;對于右視點(diǎn),獨(dú)立視點(diǎn)中相同位置的CU與右鄰近CU與當(dāng)前CU的相似程度較大。

本文深度圖非獨(dú)立視點(diǎn)CU的快速算法如下。若當(dāng)前CU屬于左視點(diǎn),參考CU為獨(dú)立視點(diǎn)相同位置的同位CU和左鄰近CU。若當(dāng)前CU屬于右視點(diǎn),參考CU為獨(dú)立視點(diǎn)相同位置的同位CU和右鄰近CU。若兩個參考CU的最大類間方差值都小于1,則認(rèn)定當(dāng)前CU為平坦的,終止繼續(xù)分割。表3統(tǒng)計了非獨(dú)立視點(diǎn)中不同尺寸CU的提前終止分割算法的正確率。從表3可以看出,從64×64到8×8尺寸的CU的終止分割的正確率分別為93.61%、98.72%、99.48%和99.72%。對于小尺寸的CU,本文提出的算法的正確率較高。但是,對于64×64尺寸的LCU,本文算法的正確率較低??梢姡瑑H以獨(dú)立視點(diǎn)的相鄰CU的最大類間方差與閾值的比較,不足以準(zhǔn)確判斷出平坦CU。所以,需要增加參考條件,提高對非獨(dú)立視點(diǎn)的LCU提前終止分割算法的正確率。

表3 深度圖的非獨(dú)立視點(diǎn)的不同尺寸CU提前終止分割算法的正確率(單位:%)

具體地,對于深度圖非獨(dú)立視點(diǎn)的64×64大小的LCU,僅用其對應(yīng)獨(dú)立視點(diǎn)的兩個鄰近CU的Otsu’s算子值同時小于1,不足以把當(dāng)前CU判決為平坦。需要根據(jù)最佳幀內(nèi)模式進(jìn)一步做判斷。若當(dāng)前LCU經(jīng)過幀內(nèi)預(yù)測得到的最佳幀內(nèi)模式為Planar模式或者DC模式,則當(dāng)前CU判定為平坦的,終止其繼續(xù)分割,而當(dāng)前CU的尺寸為最佳分割尺寸。

基于以上分析和論述,對本文提出的算法進(jìn)行整理,算法流程圖如圖5所示。

圖5 算法流程

2.3 算法步驟

步驟1:判斷當(dāng)前視點(diǎn)是否為獨(dú)立視點(diǎn),如果是獨(dú)立視點(diǎn),執(zhí)行步驟2;如果為非獨(dú)立視點(diǎn)的左視點(diǎn),執(zhí)行步驟3。

步驟3:當(dāng)前編碼的CU屬于左視點(diǎn),且CU尺寸小于64×64,取對應(yīng)的獨(dú)立視點(diǎn)中相同位置的CU及左鄰近CU作為參考塊。若上述兩個參考CU的σ2max值都小于1,則終止四叉樹分割過程,把當(dāng)前尺寸作為最佳分割尺寸;如果當(dāng)前CU為64×64大小的LCU,則執(zhí)行步驟4。

步驟4:對于左視點(diǎn)的LCU,檢測在步驟3中提到的兩個參考CU的值。若都小于1,則先對當(dāng)前LCU進(jìn)行幀內(nèi)預(yù)測過程,獲取最佳預(yù)測模式記為mode0_v1。若mode0_v1為Planar模式或DC模式,終止當(dāng)前LCU的繼續(xù)分割;否則,執(zhí)行步驟7。

步驟5:當(dāng)前編碼的CU屬于右視點(diǎn),且CU尺寸小于64×64時,取對應(yīng)的獨(dú)立視點(diǎn)中相同位置的CU及其右鄰近CU作為參考塊。若上述兩個CU的值都小于1,則終止四叉樹分割過程,把當(dāng)前尺寸作為最佳分割尺寸;如果當(dāng)前CU為64×64大小的LCU,則執(zhí)行步驟6。

步驟6:對于右視點(diǎn)的LCU,檢測在步驟5中提到的兩個參考CU的值。若都小于1,則先對當(dāng)前LCU進(jìn)行幀內(nèi)預(yù)測過程,獲取最佳預(yù)測模式記為mode0_v2。若mode0_v2為Planar模式或DC模式,終止當(dāng)前LCU的繼續(xù)分割;否則,執(zhí)行步驟7。

步驟7:對當(dāng)前CU進(jìn)行傳統(tǒng)的CU四叉樹分割和幀內(nèi)預(yù)測。

3 實驗結(jié)果及分析

本文提出的算法在3D-HEVC測試平臺HTM15.0上進(jìn)行測試。在通用測試條件(Common Test Conditions,CTC)配置下,使用All-Intra配置文件,分別測試分辨率為1 024×768的3組序列Balloons、Kendo、Newspaper1,和分辨率為 1 920×1 088的5 組 序 列 GT_Fly、Poznan_Hall2、Poznan_Street、Undo_Dancer、Shark[17]。紋理圖和深度圖使用的量化參數(shù)為(25,34)、(30,39)、(35,42)、(40,45)。測試序列如表4所示。表5顯示了文獻(xiàn)[15]和本文提出的算法,分別與原始測試平臺在編碼復(fù)雜度和合成視點(diǎn)質(zhì)量方面的對比。其中,?BD-rate表示合成視點(diǎn)平均比特率的變化,?T表示深度圖的總編碼時間減少。具體計算公式如下:

表4 標(biāo)準(zhǔn)測試序列

其中,BDBRPRO和BDBRORI分別表示本文提出的算法和原始算法的合成視點(diǎn)的平均比特率,TPRO和TORI分別表示本文提出的算法與原始算法的深度圖編碼時間。

表5是本文算法與文獻(xiàn)[15]的對比。由實驗結(jié)果分析可知,本文算法與HTM15.0平臺的原始算法相比,深度圖的平均編碼時間減少25.68%,合成視點(diǎn)的平均比特率增加0.07%。其中,序列Poznan_Hall和Kendo的編碼時間減少最多,分別減少了43.51%和35.57%。究其原因,在于上述兩個序列對應(yīng)的深度圖的CU比較平坦,滿足最大類間方差小于1的CU數(shù)目較多。此外,與文獻(xiàn)[15]相比,本文算法在深度圖編碼時間上有較大改善。

圖6和圖7分別顯示了分辨率為1 024×768的序列Newspaper1和分辨率為1 920×1 088的序列Poznan_Street,在量化參數(shù)為25時的合成視點(diǎn)質(zhì)量的主觀比較結(jié)果。圖6是序列Newspaper1的主觀質(zhì)量比較。其中,圖6(a)是原始算法的合成視點(diǎn)圖像,圖6(b)顯示了加入本文算法后的合成圖像。圖7是序列Poznan_Street的主觀質(zhì)量比較結(jié)果。其中,圖7(a)是原始算法的合成視點(diǎn)圖像,圖7(b)顯示了加入本文算法后的合成圖像。從主觀比較的結(jié)果可以看出,本文提出的算法的合成視頻圖像能保持較高質(zhì)量,與原始算法的合成視頻基本無差異。

表5 本文算法與參考文獻(xiàn)[15]的比較

4 結(jié) 語

本文基于深度圖的特點(diǎn),提出CU提前終止分割算法。用Otsu’s算子計算CU的最大類間方差,判斷當(dāng)前CU是否平坦,并結(jié)合視點(diǎn)間的關(guān)聯(lián)性,用獨(dú)立視點(diǎn)的CU分割信息判斷非獨(dú)立視點(diǎn)中的CU是否平坦,對平坦的CU跳過繼續(xù)分割的過程。實驗結(jié)果表明,本文算法與3D-HEVC參考模型HTM15.0的原始算法相比,時間減少25.68%。利用Otsu’s算子檢測CU的紋理復(fù)雜度和利用多視點(diǎn)相似性具有一定創(chuàng)新性,且Otsu’s算子對平坦CU的判斷準(zhǔn)確率高于方差、邊緣檢測算子、灰度共生矩陣等一些常用方法,同時本文的實驗結(jié)果與其他快速算法相比具有一定優(yōu)勢。此外,通過分析可知,本文算法對于序列GT_Fly和Poznan_Street的減少時間不多,因為上述序列的深度圖存在大面積深度值緩慢變化的區(qū)域。因此,如何對包含漸變區(qū)域的CU編碼做優(yōu)化,將是下一步的工作重點(diǎn)。

[1] Ying C,Ye W.The Emerging MVC Standard for 3D Video Services[J].Eurasip Journal on Advances in Signal Processing,2009,2009(01):1-13.

[2] Merkle P,Smolic A,Muller K,et al.Multi-View Video Plus Depth Representation and Coding[C].IEEE International Conference on Image Processing,2007:201-204.

[3] Fehn C.Depth-Image-Based Rendering(DIBR),Compression,and Transmission for a New Approach on 3D-TV[J].Proceedings of SPIE-The International Society for Optical Engineering,2004(5291):93-104.

[4] Tech G,Chen Y,Müller K,et al.Overview of the Multiview and 3D Extensions of High Efficiency Video Coding[J].IEEE Transactions on Circuits & Systems for Video Technology,2016,26(01):35-49.

[5] Vetro A,Chen Y,Mueller K.HEVC-Compatible Extensions for Advanced Coding of 3D and Multiview Video[C].Data Compression Conference IEEE,2015:13-22.

[6] Muller K,Schwarz H,Marpe D,et al.3D High-Efficiency Video Coding for Multi-View Video and Depth Data[J].IEEE Transactions on Image Processing,2013,22(09):3366-3378.[7] Muller K R,Merkle P,Tech G,et al.3D Video Coding with Depth Modeling Modes and View Synthesis Optimization[C].Signal & Information Processing Association Summit and Conference IEEE,2012:1-4.

[8] Park C S.Edge-based Intramode Selection for Depthmap Coding in 3D-HEVC[J].IEEE Transactions on Image Processing,2015,24(01):155.

[9] Shi Y Y,Cao T F,Liang S Y.Intra Prediction Mode Selection for HEVC Based on Canny Operator[J].Computer Systems& Applications,2016,25(08):176-181.

[10] Han H M,Peng Z J,Jiang G Y.Region Segmentationbased Fast CU Size Decision and Mode Decision Algorithm for 3D-HEVC Depth Video Intra Coding[J].Opto-Electronic Engineering,2015,42(08):47-53.

[11] Hu Q,Shi Z,Zhang X,et al.Fast HEVC intra mode decision based on logistic regression classification[C].IEEE International Symposium on Broadband Multimedia Systems and Broadcasting IEEE,2016:1-4.

[12] Liu P,He G,Xue S,et al.A Fast Mode Selection for Depth Modelling Modes of Intra Depth Coding in 3D-HEVC[C].Visual Communications and Image Processing IEEE,2017:1-4.

[13] Zhang H B,Fu C H.Fast Coding Unit Decision Algorithm for Depth Intra Coding in 3D-HEVC[J].Journal of Electronics and Information Technology,2016,38(10):2523-2530.

[14] Peng K K,Chiang J C,Lie W N.Low Complexity Depth Intra Coding Combining Fast Intra Mode and Fast CU Size Decision in 3D-HEVC[C].IEEE International Conference on Image Processing IEEE,2016:1126-1130.

[15] Guo L,Tian X,Chen Y.Simplified Depth Intra coding for 3D-HEVC Based on Gray-level Co-occurrence Matrix[C].IEEE International Conference on Signal and Image Processing,2017:328-332.

[16] Cheriet M,Said J N,Suen C Y.A Recursive Thresholding Technique for Image Segmentation[J].IEEE Transactions on Image Processing A Publication of the IEEE Signal Processing Society,1998,7(06):918-921.

[17] Mueller K,Vetro A.Common Test Conditions of 3DV Core Experiments[S].Joint Colllaborative Team on 3D Video Coding Extensions (JCT-3V) of ITU_T VCEG and ISO/IEC MPEG,2014.

猜你喜歡
類間深度圖視點(diǎn)
專家視點(diǎn)
一種基于WMF-ACA的深度圖像修復(fù)算法
基于OTSU改進(jìn)的布匹檢測算法研究
基于貝葉斯估計的多類間方差目標(biāo)提取*
基于類間區(qū)分度的屬性約簡方法*
基于深度圖的3D-HEVC魯棒視頻水印算法
基于改進(jìn)最大類間方差法的手勢分割方法研究
一種基于局部直方圖匹配的深度編碼濾波算法
環(huán)境視點(diǎn)
疊加速度譜在鉆孔稀少地區(qū)資料解釋中的應(yīng)用