国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

語(yǔ)義分割圖像自適應(yīng)編碼方法

2020-11-05 08:53陳鴻翔梁晨光宮久路
關(guān)鍵詞:階數(shù)二進(jìn)制算術(shù)

陳鴻翔,梁晨光,李 蒙,宮久路

(1.北京理工大學(xué)機(jī)電學(xué)院,北京 100081;2.北京宇航系統(tǒng)工程研究所,北京 100076;3.北京航天控制儀器研究所,北京 100039)

0 引言

語(yǔ)義分割是對(duì)圖像中的每個(gè)像素都標(biāo)注出其所屬類(lèi)別,實(shí)現(xiàn)圖像在像素級(jí)別上的分類(lèi)[1]。語(yǔ)義分割是探測(cè)與識(shí)別的基礎(chǔ)性技術(shù),主要用于紅外探測(cè)、雷達(dá)探測(cè)、目標(biāo)識(shí)別與分類(lèi)等任務(wù),在無(wú)人系統(tǒng)、國(guó)防軍事等領(lǐng)域具有廣泛的應(yīng)用[2-5]。語(yǔ)義分割圖像的存儲(chǔ)和傳輸都占用了較多資源,因此,需要對(duì)語(yǔ)義分割圖像進(jìn)行高效無(wú)損壓縮。

圖像的語(yǔ)義分割結(jié)果一般表示為按類(lèi)別劃分的多幅圖像,每幅語(yǔ)義分割圖像只包含其對(duì)應(yīng)類(lèi)別的像素,是一種二值圖像。常用的二值圖像無(wú)損壓縮方法主要為邊界編碼、混合編碼等,不同類(lèi)型的二值圖像通常需要不同方法才能達(dá)到最好的壓縮效果。文獻(xiàn)[6]針對(duì)邊緣圖像利用Logistic回歸建立分類(lèi)器對(duì)其進(jìn)行自適應(yīng)編碼,與邊緣打包法相比提高了壓縮比5%左右。文獻(xiàn)[7]針對(duì)圖形圖表類(lèi)型的二值圖像提出了一種基于分割的編碼方法,將圖像的黑色區(qū)域分割為矩形,對(duì)每個(gè)矩形的頂點(diǎn)坐標(biāo)進(jìn)行編碼,該算法相比于其他分割方法平均效率提高了32%左右。不同于上述二值圖像,語(yǔ)義分割圖像中的目標(biāo)像素均為同一種類(lèi)別,多為連續(xù)分布,相鄰像素間具有很強(qiáng)的相關(guān)性,適于采用基于上下文的編碼方法。文獻(xiàn)[8]針對(duì)黑白散斑圖像設(shè)計(jì)了一種基于上下文的無(wú)失真編碼器,與JBIG相比,該編碼器的壓縮性能提高了58%左右。

本文針對(duì)語(yǔ)義分割圖像壓縮性能不足、占用資源較多的問(wèn)題,提出了基于上下文與二進(jìn)制算術(shù)編碼的自適應(yīng)編碼方法。

1 二進(jìn)制算術(shù)編碼與上下文模型

二進(jìn)制算術(shù)編碼是一種熵編碼方法,其基本原理是根據(jù)符號(hào)出現(xiàn)概率將輸入序列轉(zhuǎn)化為[0,1)之間的一個(gè)區(qū)間[C,C+A),并將該區(qū)間中的一個(gè)值作為最終的編碼輸出。

二進(jìn)制算術(shù)編碼輸入序列中的符號(hào)分為大概率符號(hào)(more probable symbol,MPS)和小概率符號(hào)(less probable symbol,LPS),并根據(jù)實(shí)際情況進(jìn)行調(diào)整。如果當(dāng)前輸入的二進(jìn)制序列中的0較多,1較少,那么MPS為0,LPS為1;否則MPS為1,LPS為0。若當(dāng)前編碼符號(hào)為MPS,則二進(jìn)制算術(shù)編碼迭代公式為:

(1)

若當(dāng)前編碼符號(hào)為L(zhǎng)PS,則二進(jìn)制算術(shù)編碼迭代公式為:

(2)

式(1)和式(2)中:C表示區(qū)間索引,初始化為0;A表示區(qū)間間隔,初始化為1;P表示LPS在當(dāng)前已輸入序列中出現(xiàn)的概率;MPS,LPS和P根據(jù)統(tǒng)計(jì)進(jìn)行更新。

上下文模型是一種概率模型,定義了上下文選取方法,存儲(chǔ)了特定上下文中“0”或“1”的概率,根據(jù)選取的上下文位數(shù),可分為0、1、2或n階。0階上下文模型表示統(tǒng)計(jì)的符號(hào)概率是符號(hào)在已輸入序列中出現(xiàn)的概率,不考慮上下文信息;多階上下文模型統(tǒng)計(jì)的符號(hào)概率為該符號(hào)在特定上下文后出現(xiàn)的條件概率。根據(jù)Shannon信息論[9],若某一符號(hào)出現(xiàn)的概率為P,則編碼該符號(hào)的最佳比特位數(shù)為-lbP。例如已經(jīng)編碼了100位二進(jìn)制符號(hào),其中0和1各出現(xiàn)了50次,使用0階上下文模型時(shí),編碼下一位符號(hào)所需的最佳比特位數(shù)為-lb(50/100)=1;使用1階上下文模型時(shí),若剛編碼的符號(hào)為0,下一位要編碼的符號(hào)為0,在前面的編碼過(guò)程中已經(jīng)統(tǒng)計(jì)出符號(hào)0后面依然為符號(hào)0的情況有40次,則編碼下一位符號(hào)0所需的最佳比特位數(shù)為-lb(40/50)≈0.322。采用多階上下文模型,使用條件概率對(duì)符號(hào)進(jìn)行編碼并進(jìn)行上下文模型的概率更新,一般具有更高的壓縮比;然而上下文模型采用的上下文位數(shù)越多,上下文種類(lèi)也越復(fù)雜,編碼時(shí)上下文模型查找和概率更新過(guò)程也需要消耗更多時(shí)間。

2 自適應(yīng)編碼方法

對(duì)語(yǔ)義分割圖像進(jìn)行二進(jìn)制算術(shù)編碼時(shí),編碼時(shí)間和圖像壓縮比與上下文模型和圖像結(jié)構(gòu)有關(guān)。為了進(jìn)一步提高壓縮性能,本文通過(guò)分析語(yǔ)義分割圖像特征與上下文模型的關(guān)系,提出了最佳上下文模型的概念和自適應(yīng)選擇方法,根據(jù)圖像復(fù)雜度特征,預(yù)測(cè)其最佳上下文模型用于二進(jìn)制算術(shù)編碼,以實(shí)現(xiàn)語(yǔ)義分割圖像的自適應(yīng)編碼。

2.1 圖像特征與上下文模型

圖像經(jīng)過(guò)語(yǔ)義分割后,根據(jù)分割類(lèi)別將得到多幅語(yǔ)義分割圖像,每幅語(yǔ)義分割圖像只含有兩種像素值,如圖1所示,遙感圖像經(jīng)過(guò)語(yǔ)義分割得到“建筑”、“道路”、“植被”和“水域”四種類(lèi)別的語(yǔ)義分割圖像。

圖1 圖像語(yǔ)義分割Fig.1 Image semantic segmentation

語(yǔ)義分割圖像中的像素分為兩類(lèi),分別為表示其所屬類(lèi)別的像素(目標(biāo)像素)和其他像素(背景像素),因此像素多為連續(xù)分布、劃分明顯,相鄰像素間具有很強(qiáng)的相關(guān)性。利用語(yǔ)義分割圖像相鄰像素間的相關(guān)性,選擇合適的鄰近像素,定義上下文模型用于二進(jìn)制算術(shù)編碼,以取得更好的壓縮效果。

對(duì)語(yǔ)義分割圖像進(jìn)行二進(jìn)制算術(shù)編碼時(shí),常采用逐行掃描法對(duì)像素點(diǎn)進(jìn)行遍歷。采用逐行掃描法遍歷圖像,編碼某一像素值時(shí),其上方和左側(cè)的像素值已經(jīng)輸出,可以將這些像素值作為上下文信息來(lái)設(shè)計(jì)上下文模型。

像素間的相關(guān)性與其間隔距離負(fù)相關(guān),因此,在定義上下文模型時(shí),優(yōu)先選取相鄰像素作為上下文。如圖2所示,對(duì)于某一像素點(diǎn)X,以其周?chē)南袼豅,T,TL,TR,LL和TT作為上下文信息[10-11],選擇四種不同階數(shù)的上下文模型:

圖2 相鄰像素示意圖Fig.2 Schematic diagram of adjacent pixels

1) 1階上下文模型:以L或T為上下文(文中實(shí)驗(yàn)以L為上下文);

2) 2階上下文模型:以L和T為上下文;

3) 4階上下文模型:以L,T,TL和TR為上下文;

4) 6階上下文模型:以L,T,TL,TR,LL和TT為上下文。

圖像編碼所需的時(shí)間隨上下文模型階數(shù)增加而增加。而圖像壓縮比不僅與上下文模型階數(shù)有關(guān),也與圖像結(jié)構(gòu)有關(guān)。圖3為遙感影像的語(yǔ)義分割結(jié)果,分別采用1、2、4和6階上下文模型對(duì)這兩幅圖像進(jìn)行二進(jìn)制算術(shù)編碼得到壓縮比的對(duì)比,如表1所示。

從表1可以看出,圖像壓縮比與模型階數(shù)和圖像結(jié)構(gòu)有關(guān)。對(duì)于結(jié)構(gòu)比較復(fù)雜的圖像,如圖3(a)所示,圖像壓縮比隨著模型階數(shù)增加而增加;對(duì)于兩種像素?cái)?shù)量差距較大且結(jié)構(gòu)比較簡(jiǎn)單的圖像,如圖3(b)所示。由于二進(jìn)制算術(shù)編碼的輸出是由編碼過(guò)程中使用到的各個(gè)上下文模型及其編碼結(jié)果組成,當(dāng)圖像目標(biāo)像素較少、圖像結(jié)構(gòu)簡(jiǎn)單,且采用高階上下文模型時(shí),大量上下文結(jié)構(gòu)在編碼時(shí)出現(xiàn)頻率很低,存儲(chǔ)這些上下文模型和編碼結(jié)果需要更多的空間,上下文模型達(dá)到一定的階數(shù)后圖像壓縮比不會(huì)進(jìn)一步提高,反而會(huì)出現(xiàn)下降。因此,根據(jù)語(yǔ)義分割圖像復(fù)雜度,選擇正確的上下文模型,是實(shí)現(xiàn)高效壓縮的關(guān)鍵。

圖3 語(yǔ)義分割圖像對(duì)比Fig.3 Semantic segmentation image comparison

表1 不同上下文模型測(cè)試結(jié)果對(duì)比Tab.1 Thecompression results of different context models

2.2 上下文模型選擇

上下文模型的選擇與語(yǔ)義分割圖像復(fù)雜度有關(guān),為了快速自適應(yīng)地選擇最優(yōu)的上下文模型,本文提出了最佳上下文模型階數(shù)的概念和計(jì)算方法,通過(guò)SVM[12]方法建立上下文模型分類(lèi)器,揭示了最佳上下文模型階數(shù)與圖像復(fù)雜度特征的關(guān)系,根據(jù)上下文模型分類(lèi)器選擇上下文模型,實(shí)現(xiàn)語(yǔ)義分割圖像的自適應(yīng)編碼。

2.2.1最佳上下文模型階數(shù)

對(duì)語(yǔ)義分割圖像進(jìn)行二進(jìn)制算術(shù)編碼,達(dá)到最大壓縮比時(shí)采用的上下文模型階數(shù),即為最佳上下文模型階數(shù)。然而隨著上下文模型階數(shù)的增加,編碼時(shí)間會(huì)顯著增長(zhǎng),因此當(dāng)圖像壓縮比提升有限時(shí),通常需要考慮圖像壓縮比與壓縮時(shí)間的平衡性。定義目標(biāo)函數(shù)如下式:

(3)

(4)

式(3)、式(4)中:i為上下文模型階數(shù);Si為采用i階上下文模型進(jìn)行編碼后的編碼文件大小;θ為自適應(yīng)選擇閾值,θ≥0;K為最佳上下文模型階數(shù)。

在實(shí)際應(yīng)用中,采用以下步驟計(jì)算最佳上下文模型階數(shù):

1) 對(duì)語(yǔ)義分割圖像分別采用2.1節(jié)中的1、2、4和6階上下文模型進(jìn)行二進(jìn)制算術(shù)編碼,統(tǒng)計(jì)對(duì)應(yīng)的編碼文件大小S1,S2,S4,S6;

2) 設(shè)置閾值θ(θ≥0);

3) 當(dāng)θ=0時(shí),表示僅考慮圖像壓縮比。選擇min{S1,S2,S4,S6}對(duì)應(yīng)的上下文模型階數(shù)為最佳模型階數(shù);若有多個(gè)對(duì)應(yīng)的模型階數(shù),則選取最小的階數(shù)為最佳模型階數(shù);

4) 當(dāng)θ>0時(shí),表示綜合考慮圖像壓縮比與壓縮時(shí)間。選擇{S1,S2,S4,S6}中的最小值Si,分別計(jì)算Si-Sj;當(dāng)Si-Sj<θ時(shí),Si對(duì)應(yīng)的上下文模型階數(shù)為最佳模型階數(shù)。

2.2.2圖像復(fù)雜度特征

如前文所述,根據(jù)語(yǔ)義分割圖像復(fù)雜度,選擇正確的上下文模型,是實(shí)現(xiàn)高效壓縮的關(guān)鍵。常見(jiàn)的圖像復(fù)雜度主要包括顏色復(fù)雜度、形狀復(fù)雜度和紋理復(fù)雜度,但圖像復(fù)雜度并沒(méi)有統(tǒng)一的定義和計(jì)算方法[13]。二值圖像特征主要有圖像密度、歐拉數(shù)、連通域個(gè)數(shù)和圖像的邊界長(zhǎng)度。圖像密度是指二值圖像中目標(biāo)像素個(gè)數(shù)與總像素?cái)?shù)的比值,算術(shù)編碼中兩個(gè)基本的要素為信源符號(hào)出現(xiàn)的頻率和編碼區(qū)間,它們決定了編碼最終的輸出數(shù)據(jù)。對(duì)語(yǔ)義分割圖像進(jìn)行算術(shù)編碼時(shí),圖像密度可以反映兩種像素出現(xiàn)的頻率,連通域個(gè)數(shù)和邊界長(zhǎng)度可以反映上下文模型以及其區(qū)間的變換次數(shù),因此本文使用圖像密度、連通域個(gè)數(shù)和邊界長(zhǎng)度來(lái)描述圖像復(fù)雜度。

2.2.3上下文模型分類(lèi)器

SVM是基于樣本點(diǎn)最大間隔的一種分類(lèi)模型,通過(guò)學(xué)習(xí)已知數(shù)據(jù)來(lái)總結(jié)數(shù)據(jù)之間的規(guī)律,泛化錯(cuò)誤率低。SVM適用于解決小樣本情況下的分類(lèi)、回歸問(wèn)題[14]。

以圖像密度、連通域個(gè)數(shù)和邊界長(zhǎng)度作為輸入特征,最佳上下文模型階數(shù)作為分類(lèi)目標(biāo),建立SVM分類(lèi)模型。引入核函數(shù)將輸入空間樣本映射到高維空間實(shí)現(xiàn)非線性分類(lèi),使用核函數(shù)K(xi,xj)和參數(shù)C,求解最優(yōu)化問(wèn)題。優(yōu)化目標(biāo)函數(shù)如下式:

(5)

分類(lèi)決策函數(shù)如下式:

(6)

式(5)、式(6)中:α為拉格朗日系數(shù),n為樣本數(shù)量,x為n×3維的輸入特征向量,y為輸出。

常用的SVM核函數(shù)包括線性核函數(shù)、高斯徑向基核函數(shù)(radial basis function,RBF)、多項(xiàng)式核函數(shù)以及Sigmoid核函數(shù)。RBF核函數(shù)可以將數(shù)據(jù)從低維空間映射到高維空間,且RBF函數(shù)中只有一個(gè)變量,SVM訓(xùn)練參數(shù)相對(duì)較少。因此,本文采用RBF核函數(shù),其表達(dá)式為:

(7)

式(7)中:σ表示RBF核函數(shù)參數(shù)。

SVM分類(lèi)模型的分類(lèi)精度與懲罰參數(shù)C和核函數(shù)參數(shù)gamma有關(guān)。利用數(shù)據(jù)集對(duì)SVM分類(lèi)模型進(jìn)行訓(xùn)練,使用交叉驗(yàn)證尋優(yōu)方法(cross validation,CV),獲取懲罰參數(shù)C和核函數(shù)參數(shù)gamma的最優(yōu)參數(shù),建立分類(lèi)器,實(shí)現(xiàn)最佳上下文模型階數(shù)的準(zhǔn)確預(yù)測(cè)。

2.3 自適應(yīng)編碼流程

語(yǔ)義分割圖像自適應(yīng)編碼流程如圖4所示,具體流程如下:

圖4 語(yǔ)義分割圖像自適應(yīng)編碼流程框圖Fig.4 Flow chart of adaptive image compression for semantic segmentation

1) 像素遍歷:對(duì)輸入的語(yǔ)義分割圖像按逐行掃描法進(jìn)行像素遍歷,同時(shí)完成以下步驟的計(jì)算;

2) 圖像密度計(jì)算:統(tǒng)計(jì)輸入圖像的目標(biāo)像素?cái)?shù)和像素總數(shù),計(jì)算圖像密度;

3) 連通域個(gè)數(shù)計(jì)算:通過(guò)廣度優(yōu)先搜索算法計(jì)算輸入圖像的連通域個(gè)數(shù);

4) 邊界長(zhǎng)度計(jì)算:統(tǒng)計(jì)輸入圖像的邊界像素總數(shù);

5) 上下文模型預(yù)測(cè):將圖像密度、連通域個(gè)數(shù)和邊界長(zhǎng)度輸入訓(xùn)練好的分類(lèi)器,輸出預(yù)測(cè)結(jié)果,即最佳上下文模型階數(shù);

6) 二進(jìn)制算術(shù)編碼:根據(jù)步驟5)得到的上下文模型階數(shù)選擇2.1節(jié)中對(duì)應(yīng)的上下文模型,進(jìn)行二進(jìn)制算數(shù)編碼,輸出編碼結(jié)果。

3 實(shí)驗(yàn)與分析

為了測(cè)試語(yǔ)義分割圖像自適應(yīng)編碼性能,實(shí)驗(yàn)分為上下文模型分類(lèi)器訓(xùn)練及測(cè)試和自適應(yīng)編碼算法測(cè)試兩部分。本文實(shí)驗(yàn)均在Ubuntu18.04 LTS的64位操作系統(tǒng)下進(jìn)行,CPU為Intel(R) Core(TM) i5-8300H @ 2.30 GHz,內(nèi)存為16.0 GB。

3.1 分類(lèi)器訓(xùn)練和測(cè)試

3.1.1數(shù)據(jù)集構(gòu)建

上下文模型分類(lèi)器的訓(xùn)練和測(cè)試樣本為自建語(yǔ)義分割圖像數(shù)據(jù)集。數(shù)據(jù)集為基于NVIDIA Jetson AGX Xavier平臺(tái)使用U-Net網(wǎng)絡(luò)對(duì)遙感影像進(jìn)行語(yǔ)義分割的結(jié)果圖像,共計(jì)360幅語(yǔ)義分割圖像,分割類(lèi)別包括房屋建筑、其他建筑、道路、行人道、植被、樹(shù)木、農(nóng)作物、河流、積水區(qū)、大型車(chē)輛和小型車(chē)輛,圖像大小為2 048像素×2 048像素。數(shù)據(jù)集部分圖像如圖5所示。

圖5 數(shù)據(jù)集部分圖像Fig.5 Images of the training set

數(shù)據(jù)集中的圖像大小為2 048像素×2 048像素,像素總數(shù)為4 194 304。對(duì)每幅圖像按逐行掃描法進(jìn)行像素遍歷,統(tǒng)計(jì)目標(biāo)像素總數(shù)、邊界像素總數(shù)和連通域個(gè)數(shù),以圖像密度、連通域個(gè)數(shù)和邊界長(zhǎng)度為輸入特征;對(duì)每幅圖像分別以0、512、1 024和2 048 B為最佳上下文模型階數(shù)選擇閾值θ,利用2.2.1節(jié)中闡述的方法計(jì)算最佳上下文模型階數(shù)為類(lèi)別標(biāo)簽,構(gòu)建數(shù)據(jù)集。以圖5中的12幅圖像為例,每幅圖像的特征計(jì)算結(jié)果、不同階數(shù)上下文模型的二進(jìn)制算術(shù)編碼對(duì)應(yīng)的編碼文件大小以及采用不同閾值θ的最佳上下文模型階數(shù)如表2所示。

表2 圖例數(shù)據(jù)統(tǒng)計(jì)結(jié)果Tab.2 Legend data statistics results

3.1.2SVM分類(lèi)模型訓(xùn)練

利用基于Python語(yǔ)言的scikit-learn機(jī)器學(xué)習(xí)開(kāi)發(fā)包進(jìn)行SVM模型訓(xùn)練和參數(shù)調(diào)試。分別以0、512、1 024和2 048 B為選擇閾值θ得到的最佳上下文模型階數(shù)為類(lèi)別標(biāo)簽,采用以下步驟,進(jìn)行4種上下文模型分類(lèi)器的訓(xùn)練和測(cè)試:

1) 使用3.1.1節(jié)中的數(shù)據(jù)集,以圖像密度、連通域個(gè)數(shù)和邊界長(zhǎng)度為輸入特征,最佳上下文模型階數(shù)為類(lèi)別標(biāo)簽,構(gòu)建輸入樣本,并按7∶3分為訓(xùn)練樣本和測(cè)試樣本。

2) 將訓(xùn)練樣本作為輸入,建立SVM模型訓(xùn)練分類(lèi)器。使用交叉驗(yàn)證尋優(yōu)方法,獲取使SVM模型預(yù)測(cè)準(zhǔn)確度最高的懲罰參數(shù)C和核函數(shù)參數(shù)gamma。本文使用網(wǎng)格搜索的方式,對(duì)可能的參數(shù)組合(C,gamma)進(jìn)行遍歷,通過(guò)交叉驗(yàn)證得到預(yù)測(cè)準(zhǔn)確度最高的參數(shù)組合(C,gamma),參數(shù)搜索列表如下:

C:[1,2,4,6,8,10,12,14,16,18,20],

gamma:[1×10-12,1×10-10,…,1×10-4,1×10-3]。

3) 訓(xùn)練完成后將測(cè)試樣本輸入分類(lèi)器,對(duì)比分類(lèi)器預(yù)測(cè)的樣本類(lèi)別標(biāo)簽與實(shí)際類(lèi)別標(biāo)簽,計(jì)算分類(lèi)器準(zhǔn)確率。

4種SVM分類(lèi)模型參數(shù)訓(xùn)練過(guò)程如圖6所示,圖中Accuracy表示模型準(zhǔn)確度。SVM模型最優(yōu)參數(shù)及實(shí)驗(yàn)結(jié)果如表3所示。

圖6 SVM分類(lèi)模型訓(xùn)練過(guò)程Fig.6 SVM classification model training process

表3 SVM分類(lèi)模型參數(shù)與測(cè)試結(jié)果Tab.3 SVM classification model parameters and test results

從圖6可以看出,SVM分類(lèi)模型準(zhǔn)確度與參數(shù)組合(C,gamma)取值有關(guān)。從表3可以看出,使用SVM方法進(jìn)行上下文模型分類(lèi)器訓(xùn)練,分類(lèi)器平均預(yù)測(cè)準(zhǔn)確率為93.75%,預(yù)測(cè)準(zhǔn)確度較高,可用于語(yǔ)義分割圖像自適應(yīng)編碼時(shí)的上下文模型階數(shù)預(yù)測(cè)。

3.2 自適應(yīng)編碼算法測(cè)試

測(cè)試采用Kaggle dstl satellite imagery feature detection比賽用數(shù)據(jù)集,該數(shù)據(jù)集由英國(guó)國(guó)防科學(xué)技術(shù)實(shí)驗(yàn)室(DSTL)提供,數(shù)據(jù)集包含25幅1 m×1 m的高分辨率遙感圖像以及每幅遙感圖像10種類(lèi)別的語(yǔ)義分割圖像。語(yǔ)義分割類(lèi)別包括房屋建筑、其他建筑、道路、行人道、樹(shù)木、農(nóng)作物、河流、積水區(qū)、大型車(chē)輛和小型車(chē)輛。圖像大小為2 048像素×2 048像素。樣本圖像及其類(lèi)別標(biāo)簽如圖7所示,類(lèi)別標(biāo)簽示意圖為該樣本圖像10種語(yǔ)義分割圖像的合成圖像。

測(cè)試數(shù)據(jù)集由上述數(shù)據(jù)集的遙感影像語(yǔ)義分割圖像組成,共計(jì)250幅語(yǔ)義分割圖像。分別采用JPEG2000,固定階數(shù)上下文模型的二進(jìn)制算術(shù)編碼方法和本文提出的自適應(yīng)編碼方法對(duì)測(cè)試數(shù)據(jù)集進(jìn)行壓縮,其中自適應(yīng)編碼方法分別采用以0、512、1 024和2 048 B為最佳上下文模型階數(shù)選擇閾值θ,使用前文描述的方法訓(xùn)練得到的上下文模型分類(lèi)器,對(duì)測(cè)試圖像進(jìn)行壓縮。

以圖8所示的語(yǔ)義分割圖像為例,首先采用逐行掃描法對(duì)像素點(diǎn)進(jìn)行遍歷,像素點(diǎn)遍歷結(jié)果示意如圖9所示。

圖8 語(yǔ)義分割圖像Fig.8 Semantic segmentation image

圖9 像素點(diǎn)遍歷結(jié)果示意圖Fig.9 Illustration of pixel traversal results

遍歷過(guò)程中對(duì)目標(biāo)像素?cái)?shù)、像素總數(shù)、連通域個(gè)數(shù)和邊界像素?cái)?shù)進(jìn)行統(tǒng)計(jì),計(jì)算得到圖像密度、連通域個(gè)數(shù)和邊界長(zhǎng)度,如表4所示。

表4 圖例特征計(jì)算結(jié)果Tab.4 Legend feature calculation results

將圖像密度、連通域個(gè)數(shù)和邊界長(zhǎng)度分別輸入訓(xùn)練好的4種分類(lèi)器,輸出預(yù)測(cè)結(jié)果,即最佳上下文模型階數(shù)。根據(jù)得到的上下文模型階數(shù)選擇2.1節(jié)中對(duì)應(yīng)的上下文模型,對(duì)語(yǔ)義分割圖像進(jìn)行二進(jìn)制算數(shù)編碼。同時(shí)對(duì)圖例分別采用1、2、4和6階數(shù)上下文模型進(jìn)行二進(jìn)制算術(shù)編碼以及JPEG2000編碼,統(tǒng)計(jì)對(duì)應(yīng)的編碼文件大小,如表5所示。

表5 圖例測(cè)試結(jié)果對(duì)比Tab.5 The test results of legend are compared

按上述過(guò)程對(duì)數(shù)據(jù)集進(jìn)行測(cè)試,計(jì)算不同方法的壓縮比,并統(tǒng)計(jì)每種方法的處理時(shí)間,處理時(shí)間為每種方法對(duì)整個(gè)數(shù)據(jù)集進(jìn)行處理對(duì)應(yīng)的程序運(yùn)行時(shí)間,其中自適應(yīng)編碼方法的處理時(shí)間包括像素遍歷、特征計(jì)算、上下文模型預(yù)測(cè)和二進(jìn)制算術(shù)編碼完整過(guò)程。測(cè)試結(jié)果如表6所示。

表6 不同算法測(cè)試結(jié)果對(duì)比Tab.6 The test results of different algorithms are compared

從表6可以看出:自適應(yīng)編碼算法和基于上下文的二進(jìn)制算術(shù)編碼壓縮比是JPEG2000的10~24倍;為達(dá)到最大壓縮比,即自適應(yīng)編碼閾值θ=0 B時(shí),自適應(yīng)編碼法比二進(jìn)制算術(shù)編碼法處理時(shí)間減少了約44%;考慮壓縮比與處理時(shí)間的平衡性,不要求達(dá)到最大壓縮比,即自適應(yīng)編碼閾值θ=512 B時(shí),在同樣壓縮比下,自適應(yīng)編碼法比采用4階上下文模型的二進(jìn)制算術(shù)編碼法處理時(shí)間減少了約31%。自適應(yīng)編碼算法可以有效提高語(yǔ)義分割圖像壓縮比并減少處理時(shí)間。

4 結(jié)論

本文提出了語(yǔ)義分割圖像自適應(yīng)編碼方法。該方法在二進(jìn)制算術(shù)編碼的基礎(chǔ)上,提出了最佳上下模型階數(shù)的概念和計(jì)算方法,并設(shè)計(jì)了最佳上下文模型選擇算法,利用SVM建立分類(lèi)器,根據(jù)語(yǔ)義分割圖像復(fù)雜度特征,自適應(yīng)地選擇最佳上下文模型對(duì)圖像進(jìn)行二進(jìn)制算術(shù)編碼。實(shí)驗(yàn)結(jié)果顯示,與JPEG2000無(wú)損壓縮方法相比,自適應(yīng)編碼算法具有較高的壓縮比,與一般的二進(jìn)制算術(shù)編碼相比,自適應(yīng)編碼算法能在壓縮比不變的情況下減少處理時(shí)間38%左右,壓縮性能具有顯著提高。

猜你喜歡
階數(shù)二進(jìn)制算術(shù)
XIO 優(yōu)化階數(shù)對(duì)宮頸癌術(shù)后靜態(tài)調(diào)強(qiáng)放射治療計(jì)劃的影響
準(zhǔn)天頂衛(wèi)星系統(tǒng)廣播星歷精度評(píng)定和擬合精度分析
有用的二進(jìn)制
用Scratch把十進(jìn)制轉(zhuǎn)為二進(jìn)制
有趣的進(jìn)度
復(fù)變函數(shù)中孤立奇點(diǎn)的判別
擔(dān)心等
算算術(shù)
學(xué)算術(shù)
小狗算算術(shù)