国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

控制失真漂移的HEVC視頻自適應(yīng)隱寫算法

2024-08-15 00:00朱燕彬徐達文
計算機應(yīng)用研究 2024年8期

摘 要:現(xiàn)有自適應(yīng)視頻隱寫的成本分配方法主要針對特定變換系數(shù),導(dǎo)致容量較低。此外,失真漂移是HEVC(high efficiency video coding)視頻隱寫面臨的一大挑戰(zhàn)。因此,結(jié)合HEVC視頻編碼的幀內(nèi)幀間過程,提出了一種代價分配方法,以實現(xiàn)高容量、低失真?zhèn)鬟f的高性能視頻自適應(yīng)隱寫。首先,該方法針對HEVC視頻編碼中的離散正弦變換特征進行研究,分析了這些系數(shù)在受到擾動后所產(chǎn)生的誤差傳播規(guī)律。在嵌入過程中,對修改變換系數(shù)導(dǎo)致的塊內(nèi)失真、塊間失真、幀間失真進行了詳細分析,并考慮不同塊隱寫產(chǎn)生的塊間失真差異對塊進行分類。該算法充分利用所有的非零變換系數(shù),為不同的載體系數(shù)分配了不同的失真代價,將隱秘信息嵌入到對視頻質(zhì)量影響較小的幀中。實驗結(jié)果表明,與現(xiàn)有的HEVC視頻系數(shù)域隱寫方法相比,該算法在視頻碼率、視頻質(zhì)量和嵌入容量方面具有一定的優(yōu)勢。

關(guān)鍵詞:自適應(yīng)視頻隱寫; 失真漂移; HEVC

中圖分類號:TP309.7 文獻標志碼:A

文章編號:1001-3695(2024)08-037-2508-07

doi:10.19734/j.issn.1001-3695.2023.11.0573

HEVC video adaptive steganography algorithmbased on controlling distortion drift

Zhu Yanbin1,2, Xu Dawen2

(1. School of Information Engineering, Chang’an University, Xi’an 710064, China; 2.School of Cyber Science & Engineering, Ningbo University of Technology, Ningbo Zhejiang 315211, China)

Abstract:Existing cost allocation methods for adaptive video steganography mainly focus on specific transform coefficients, resulting in lower capacity. Moreover, distortion drift is a significant challenge for steganography in HEVC videos. Therefore, this paper proposed a cost allocation method that combined the intra-frame and inter-frame processes of HEVC video coding to achieve high-capacity, low-distortion transmission in high-performance adaptive video steganography. Firstly, the method investigated the discrete sine transform features in HEVC video coding, analyzing the error propagation patterns of these coefficients under disturbance. During the embedding processed, it conducted a detailed analysis on the intra-block distortion, inter-block distortion, and inter-frame distortion caused by modifying transform coefficients. The algorithm also took into account the differentiation in inter-block distortion resulting from steganography in different blocks, leading to the classification of blocks. This paper maximized the utilization of all non-zero transform coefficients, allocating distinct distortion costs for various carrier coefficients. The covert information was then embedded into frames that minimally impacted video quality. Experimental results indicate that, compared to existing HEVC video coefficient domain steganography methods, the proposed algorithm demonstrates advantages in terms of video bitrate, video quality, and embedding capacity.

Key words:adaptive video steganography; distortion drift; HEVC

0 引言

隨著信息技術(shù)的快速發(fā)展和互聯(lián)網(wǎng)的普及,人們對保護和傳輸敏感信息的需求越來越迫切。在此背景下,隱寫技術(shù)作為一種信息隱藏技術(shù),在保密通信等領(lǐng)域被廣泛應(yīng)用。隱寫技術(shù)通過在媒介中嵌入隱秘信息,使其對未經(jīng)授權(quán)的人不可察覺,旨在提供安全、可靠且隱蔽的通信手段,同時確保信息的完整性和保密性。

視頻隱寫[1,2]是一種重要的隱寫技術(shù),它利用視頻作為載體來隱藏和傳輸隱秘信息。相對于傳統(tǒng)的文本或圖像隱寫,基于視頻的隱寫技術(shù)具有更高的隱蔽性和嵌入容量。視頻作為具有豐富多媒體特性的載體,為隱寫術(shù)提供了廣闊的應(yīng)用空間。

視頻隱寫一般可分為空間域隱寫和壓縮域隱寫兩類??臻g域隱寫借鑒了圖像領(lǐng)域中的經(jīng)典算法進行隱寫,即在視頻幀的原始像素上進行隱寫,而另一種則是結(jié)合視頻編碼壓縮域隱寫。HEVC(high efficiency video coding)是一種高效的視頻編碼標準,能夠提供更好的視頻質(zhì)量和更低的比特率[3]。因此,HEVC視頻在廣播、視頻會議、互聯(lián)網(wǎng)傳輸?shù)雀咔逡曨l領(lǐng)域得到廣泛應(yīng)用。在HEVC隱寫中,隱秘信息被嵌入到壓縮視頻的特定部分,如幀內(nèi)預(yù)測模式(intra prediction mode,IPM)[4~6]、運動矢量(motion vector,MV)[7~9]、預(yù)測單元劃分模式(partition mode of prediction unit)[10,11]、量化離散余弦變換(quantified discrete cosine transform,QDCT)系數(shù)或量化離散正弦變換(quantified discrete sine transform,QDST)系數(shù)[12~17]以及樣點自適應(yīng)補償(sample adaptive offset,SAO)[18]等。與H.264/AVC相比,HEVC在DCT的基礎(chǔ)上引入了DST,并引入了自適應(yīng)濾波、遞歸阻塞等新特性。因基于變換系數(shù)的HEVC視頻隱寫算法具有較高的嵌入容量而得到較多的研究。Chang等人[12]和Van等人[13]提出了基于HEVC標準的數(shù)據(jù)隱藏算法,通過修改DST系數(shù)的奇偶性來嵌入隱秘信息。但是這種隱寫造成的失真,會隨著編碼的幀內(nèi)預(yù)測而擴散,產(chǎn)生失真漂移。為了避免隱寫造成的幀內(nèi)失真漂移,Liu等人[14]提出將隱秘信息嵌入4×4 TU(transform unit)塊的DST系數(shù)中,在滿足幀內(nèi)預(yù)測方向的三個條件的位置用多個系數(shù)隱寫一位隱秘信息,以防止HEVC下的失真漂移。Chang等人[15]對4×4 TU和8×8 TU塊進行分析,設(shè)計更大塊中的多系數(shù)耦合,避免失真漂移。隨著隱寫術(shù)的發(fā)展,STC(syndrome-trellis code)[19]成為了一種廣泛應(yīng)用的隱寫編碼,研究者們相繼提出了基于STC隱寫編碼的若干種視頻自適應(yīng)隱寫方案。Zhou等人[16]提出了一種基于DCT/DST系數(shù)和BLB(block based)失真模型的HEVC隱寫算法。BLB失真模型同時考慮了塊間失真和塊內(nèi)失真,該算法采用幀內(nèi)無誤差傳播的方法將隱秘信息隱藏在小塊中,在消除塊間失真的同時大大提高了嵌入容量。Yang等人[17]提出了基于失真補償?shù)腍EVC視頻隱寫算法,通過設(shè)計一種包含塊內(nèi)失真、幀間失真影響、塊紋理復(fù)雜度和系數(shù)組代價的自適應(yīng)函數(shù),來指導(dǎo)STC向那些嵌入影響小、塊紋理復(fù)雜度高的區(qū)域嵌入隱秘信息。Yang等人[17]還提出了一種可以抵抗基于CER隱寫分析的HEVC隱寫算法。現(xiàn)有的這些視頻隱寫框架的代價分配方法都是利用耦合系數(shù)進行隱寫設(shè)計,如文獻[14,15]都是對塊實現(xiàn)多系數(shù)耦合進行隱寫,這導(dǎo)致在該部分的隱寫會引起比特率的增長。以往工作大多只在小塊中采用幀內(nèi)無錯誤傳播的方法嵌入數(shù)據(jù)。較大的塊通常避免隱藏數(shù)據(jù),因為在大塊編碼圖像的平坦區(qū)域隱寫,會帶來明顯的失真。然而,隨著分辨率的提高,HEVC視頻中更多的是大尺寸的塊。如果不使用大尺寸塊來隱藏數(shù)據(jù),則大量數(shù)據(jù)隱藏空間未被充分利用。另一方面,這種幀內(nèi)無錯誤傳播的隱寫方法會增加碼率??偟膩碚f,現(xiàn)有的視頻隱寫框架和其代價分配方法的局限性限制了隱寫視頻的編碼性能。

9060d614ba55de8809e947de6864a0ae

在面對這兩個問題的挑戰(zhàn)時,首先推導(dǎo)出了一個綜合考慮塊內(nèi)、塊間和幀間失真的畸變模型。接著,為了提高數(shù)據(jù)塊的嵌入效率并減少塊內(nèi)失真,提出了STC框架作為一種新的嵌入方法。本文算法根據(jù)HEVC視頻編碼特性,對視頻的特征和嵌入要求進行了分析,以起到動態(tài)調(diào)整隱寫參數(shù)的效果,實現(xiàn)隱蔽性和視覺質(zhì)量之間的平衡。具體而言,在視頻的變換域中嵌入隱秘信息,利用視頻的冗余和感知模型來確保隱秘信息對于正常觀看者不可察覺。實驗驗證了本文算法有更好的隱寫效果。

1 HEVC幀內(nèi)變換編碼與失真分析

在編碼中,HEVC采用分塊概念,并定義了編碼樹單元(coding tree units,CTU)、編碼單元(coding units,CU)、預(yù)測單元(prediction units,PU) 和變換單元(transform units,TU)。其中PU是進行預(yù)測運算的基本單元。HEVC通過四叉樹劃分方法對CU進行劃分,并支持從8×8到64×64大小的CU。對于一個2N×2N的CU,幀內(nèi)預(yù)測單元可選模式有劃分為N×N或者2N×2N的塊。

1.1 HEVC中的DCT/DST變換過程

變換單元是HEVC變換、量化與熵編碼的基本單位。在HEVC編碼中,TU塊的大小有32×32、16×16、8×8、4×4四種不同的尺寸。與H.264/AVC不同的是,HEVC標準規(guī)定,在幀內(nèi)4×4模式亮度分量殘差編碼中使用4×4整數(shù)DST,而在32×32、16×16、8×8塊中使用的是整數(shù)DCT。以4×4的塊為例,整個DST變換過程如下:

假設(shè)RP4×4表示的是該塊的亮度殘差系數(shù):

RP4×4=R00R01R02R03R10R11R12R13R20R21R22R23R30R31R32R33(1)

DST系數(shù)矩陣RDST4×4可表示為

RDST4×4=HRP4×4HT=Q00Q01Q02Q03Q10Q11Q12Q13Q20Q21Q22Q23Q30Q31Q32Q33(2)

其中:矩陣H為HEVC編碼過程中的DST矩陣;HT是矩陣H的轉(zhuǎn)置矩陣。

H=ABCDCC0-CD-A-CBB-DC-A A=29,B=55,C=74,D=84(3)

在完成DST后,HEVC對DST系數(shù)進行量化處理,該過程可用式(4)描述。

RQDST4×4=RDST4×4×MF2qbits+T_shift(4)

其中:qbits和MF是中間變量,定義如下

qbits=14+floorQP6(5)

MF=2qbitsQstep(6)

其中:T_shift是DST的比例因子;Qstep是由量化參數(shù)QP確定的量化步長。最后,對量化后的QDST系數(shù)RQDST4×4進行熵編碼,得到視頻碼流。

在解碼階段,首先對視頻比特流進行熵解碼,獲得QDST系數(shù)RQDST4×4′。然后對QDST系數(shù)反量化得到DST系數(shù)RDST4×4′。其過程如下:

RDST4×4′= RQDST4×4′×Qstep ×26-shift(7)

其中:shift為中間變量。

shift=6+floor(QP6)-IT_shift(8)

其中:IT_shift為逆DST的比例因子。最后,對解碼得到的RDST4×4′執(zhí)行逆DST,重構(gòu)殘差Rr4×4可以表示為

Rr4×4=HTRDST4×4′H(9)

最終,將預(yù)測值與殘差值相加,可以得到該塊的重構(gòu)像素即

Pb=Pp+Rr4×4(10)

其中:Pb表示當前塊的像素值;Pp表示當前塊的預(yù)測值。

1.2 塊內(nèi)失真分析

在對HEVC的DST域進行隱寫時,需要對DST系數(shù)進行修改,從而嵌入隱秘信息。假設(shè)矩陣Δ表示的是隱秘信息矩陣,則隱寫后的殘差矩陣表示為R′QDST4×4:

R′QDST4×4=RQDST4×4+Δ(11)

其中:Δ是通過數(shù)據(jù)隱藏加入DST系數(shù)矩陣。Δ(i,j)=0表示不修改RQDCT4×4的(i,j)位置的值。Δ表示為

Δ=00000000000±10000(12)

對隱寫后的殘差矩陣進行反量化得到R′DST4×4,對隱寫后的系數(shù)矩陣進行解碼,重構(gòu)殘差可以表示為

R′r4×4=IDST(R′DST4×4)=HT(R′QDST4×4×Qstep×26-shift)H(13)

隱寫前后殘差的差值可以表示為

ΔRr4×4=Rr′4×4-Rr4×4=HTΔR′r4×4H(14)

由上述公式可知,對DST系數(shù)進行隱寫時,塊內(nèi)像素殘差會發(fā)生變化,從而導(dǎo)致該部分像素發(fā)生變化,產(chǎn)生塊內(nèi)失真。通過上式分析可知,塊間失真影響像素中的殘差值,即塊內(nèi)失真影響式(10)中的重構(gòu)殘差Rr4×4。

1.3 塊間失真分析

在HEVC編碼中,PU塊都采用幀內(nèi)預(yù)測模式進行預(yù)測編碼。預(yù)測模式共有35種,分為33種角度模式,平面(模式0:Planar)和直流(模式1:DC)模式。如圖1所示,在預(yù)測模式中灰色塊表示相鄰塊的像素重建值,用作參考像素,Pi,j表示預(yù)測塊。

根據(jù)1.1節(jié)可知,在DST域進行隱寫會改變該塊內(nèi)的殘差值,從而影響像素值。當圖1中預(yù)測塊(Pi-1,j-1,Pi-1,j,Pi-1,j+1,Pi,j-1,Pi+1,j-1)進行隱寫后產(chǎn)生塊內(nèi)失真,其塊內(nèi)像素發(fā)生變化,參考像素的像素值也發(fā)生變化。在HEVC的幀內(nèi)預(yù)測過程中,由于參考像素發(fā)生改變,導(dǎo)致當前塊Pi,j的預(yù)測像素產(chǎn)生誤差。即當前塊的預(yù)測值發(fā)生變化,導(dǎo)致塊間失真漂移。同樣地,32×32、16×16、8×8也會產(chǎn)生失真漂移。幀內(nèi)預(yù)測使得在參考塊中由隱寫術(shù)引起的失真?zhèn)鞑サ剿鼈兊念A(yù)測塊中,產(chǎn)生失真漂移,會大大降低視頻質(zhì)量。通過上述分析可知,塊間失真影響像素中的預(yù)測值,即式(10)中的預(yù)測值PP。

1.4 幀間失真漂移

幀間預(yù)測是視頻編碼中的關(guān)鍵步驟,通過利用先前編碼的參考幀來預(yù)測當前幀的像素值,以減小視頻序列中的冗余信息。該過程首先進行運動估計,通過比較當前幀與參考幀的塊,找到相似位置的運動矢量。然后,通過運動矢量進行運動補償,從參考幀中提取相應(yīng)位置的塊,并將其疊加到當前幀的預(yù)測位置上,形成一個預(yù)測塊。最后,計算當前幀實際像素值與預(yù)測塊之間的殘差,將殘差信息進行編碼傳遞。

幀間預(yù)測使得在參考幀中由隱寫引起的失真?zhèn)鞑サ剿鼈兊念A(yù)測幀中。隱寫引起幀間失真?zhèn)鬟f的主要原因與視頻編碼中的幀間預(yù)測誤差傳遞相似。隱寫涉及在視頻中隱藏信息,而幀間失真?zhèn)鬟f是指由于視頻編碼過程中的一些因素導(dǎo)致信息的失真逐漸傳遞到后續(xù)幀。導(dǎo)致幀間失真?zhèn)鬟f有幾方面原因:首先,隱寫引起的失真不僅會影響嵌入點所在的幀,還可能通過幀間預(yù)測傳遞到后續(xù)的幀。由于幀間預(yù)測是通過比較相鄰幀之間的差異來實現(xiàn)的,一旦某一幀發(fā)生失真,這種失真可能在接下來的預(yù)測中得到傳遞和累積。其次,隱寫可能會對視頻中的運動矢量產(chǎn)生干擾,所以運動估計是基于原始幀內(nèi)容進行的。嵌入導(dǎo)致的像素值變化可能使得運動估計算法難以準確地找到相似的塊,從而引入額外的運動估計誤差。最后,隱寫可能會導(dǎo)致視頻中的像素值發(fā)生微小變化,這些微小變化在量化階段可能被顯著放大。量化誤差的引入可能導(dǎo)致失真在編碼過程中逐漸傳遞,影響后續(xù)幀的質(zhì)量。

在視頻編碼中,一個GOP(group of pictures)包括I幀和P幀。其中,I幀通過幀內(nèi)預(yù)測編碼減小空間冗余,P幀通過幀間預(yù)測減小時間冗余。使用幀間預(yù)測時,由于隱寫引起的失真會傳播到預(yù)測幀中。如圖2所示,P幀通過參考I幀進行幀間預(yù)測,因此在I幀進行隱寫產(chǎn)生的失真將通過幀間預(yù)測傳遞到P1、P2、P3幀。同樣,P1幀進行隱寫產(chǎn)生的失真?zhèn)鬟f到P2、P3幀,而P2幀的失真?zhèn)鬟f到P3幀。這種失真的傳遞現(xiàn)象在視頻編碼中會影響隱寫的穩(wěn)定性和質(zhì)量。通過上述分析可知,幀間失真影響式(10)中的預(yù)測值PP。

綜上,通過1.2~1.4節(jié)的分析可知,在編碼的變換量化過程中會產(chǎn)生不可避免的編碼失真,在對視頻進行隱寫過程中,幀內(nèi)和幀間對預(yù)測值產(chǎn)生影響而造成隱寫失真。最終的預(yù)測像素值可以表示為

Pb=Pp′+R′r4×4(15)

其中:P′p表示隱寫后當前塊的預(yù)測值;R′r4×4表示隱寫后的殘差值。

2 失真漂移傳播

通過第1章中的分析可知,修改DST系數(shù)將引起塊間失真、塊內(nèi)失真和幀間失真,針對以上三部分的失真,本文從三方面進行代價設(shè)計,實現(xiàn)一種高效的視頻自適應(yīng)隱寫方案。

2.1 塊內(nèi)失真漂移

如第1章所示,對塊內(nèi)的QDST系數(shù)進行修改后,會導(dǎo)致塊內(nèi)的QDST系數(shù)發(fā)生變化,從而導(dǎo)致像素發(fā)生變化,產(chǎn)生了塊內(nèi)的失真,所以將塊內(nèi)失真φ[RQDCT(m,n)]定義為

φ-[RQDCT(m,n)]=∑3i=0∑3j=0R-b″(i,j)-Rb′(i,j)Pb′(i,j)(16)

φ+[RQDCT(m,n)]=∑3i=0∑3j=0R+b″(i,j)-Rb′(i,j)Pb′(i,j)(17)

其中:|·|為絕對值函數(shù);φ-[RQDCT(m,n)]和φ+[RQDCT(m,n)]分別對應(yīng)RQDCT(m,n)-1和RQDCT(m,n)+1(0≤m,n≤3)隱寫操作后的失真值;R-b″(i,j)和R+b″(i,j)表示將DCT系數(shù)塊中位置(m,n)處的值寫入隱秘信息“+1”和“-1”對應(yīng)的殘差值;Rb′(i,j)表示未隱寫的殘差值;Pb′(i,j)為未隱寫的重構(gòu)像素。

2.2 塊間失真漂移

對QDST系數(shù)進行隱寫產(chǎn)生塊內(nèi)失真,作為被參考像素,通過幀內(nèi)預(yù)測將失真?zhèn)鬟f到相鄰塊。此部分的失真?zhèn)鬟f主要是由參考像素決定,所以本文根據(jù)當前塊的預(yù)測模式定義該塊的塊間失真μ[RQDCT(m,n)]:

μ-[RQDCT(m,n)]=∑k∈V∑h∈UR-b″(k)-Rb′(k)Pb′(h)(18)

μ+[RQDCT(m,n)]=∑k∈V∑h∈UR+b″(k)-Rb′(k)Pb′(h)(19)

其中:V和U表示不同的像素集合;Rb′(k)為隱寫前的殘差值;Rb″(k)為隱寫后的殘差值;Pb′(h)為不進行隱寫的重建像素。對于不同的塊種類,定義不同的V。

類型1如圖3所示,P(i+1,j-1)∈{2,3,…,26}∩P(i+1,j)∈{2,3,…,10},即左下塊具有預(yù)測模式2、3、…、26,下塊預(yù)測模式2、3、…、10或DC。當預(yù)測塊滿足此條件時,p4,1,p4,2,p4,3,p4,4的失真不會傳遞到左下塊和下塊。相鄰塊在幀內(nèi)預(yù)測過程中會產(chǎn)生失真,此時的塊間失真主要由p1,4,p2,4,p3,4,p4,4傳遞。此時的集合V包含p1,4,p2,4,p3,4,p4,4。

類型2如圖4所示,P(i-1,j+1)∈{10,11,…,34}∩P(i,j+1)∈{26,27,…,34},即右上塊具有預(yù)測模式10、11、…、34或DC,右塊預(yù)測模式為26、27、…、34。當預(yù)測塊滿足此條件時,p1,4,p2,4,p3,4,p4,4的失真不會傳遞到右上和右塊。相鄰塊在幀內(nèi)預(yù)測過程中會產(chǎn)生失真,此時失真主要由p4,1,p4,2,p4,3,p4,4引起。此時的集合V包含p4,1,p4,2,p4,3,p4,4。

類型3如圖5所示,P(i+1,j-1)∈{2,3,…,26}∩P(i+1,j)∈{2,3,…,10}∩P(i-1,j+1)∈{10,11,…,34}∩P(i,j+1)∈{26,27,…,34}∩P(i+1,j+1)∈{2,3,…,10,26,…,34,DC,Planer},即左下塊具有預(yù)測模式2、3、…、26,下塊預(yù)測模式2、3、…、10或DC,右上塊具有預(yù)測模式10、11、…、34、DC,右塊預(yù)測模式為26、27、…、34,右下塊預(yù)測模式為2、3、…、10、26、27、…、34或DC、Plannar。當滿足該條件時,對該塊進行隱寫導(dǎo)致產(chǎn)生的塊內(nèi)失真不會造成塊間失真。此時的集合V為空。

對于塊間失真,第三種塊間失真不會產(chǎn)生塊間失真的傳遞,其失真最小。因此,在對I幀進行隱寫時,應(yīng)優(yōu)先選擇第三種情況的塊進行隱寫。

2.3 幀間失真?zhèn)鬟f

HEVC的幀間編碼是利用已編碼幀預(yù)測得到當前幀。主要原理是在參考幀中選擇最佳匹配塊作為當前塊的預(yù)測,表明參考幀的失真會傳遞到預(yù)測幀,即前一幀的失真會產(chǎn)生累積。

幀間預(yù)測使得在參考幀中由隱寫術(shù)引起的失真?zhèn)鞑サ剿鼈兊念A(yù)測幀中,所以定義θ(d)使GOP中每個幀的失真呈下降趨勢。定義幀間失真為

θ(d)=1mod(d,pre)(20)

其中:mod(d,pre)表示d幀在該GOP中的位置,此處的pre為GOP中的幀數(shù)。

2.4 提出的代價函數(shù)

視頻隱寫中,通過對視頻進行失真分析,可以得到相應(yīng)的失真函數(shù)來度量嵌入過程中引入的失真。失真函數(shù)用于測量隱寫后的視頻與原始視頻之間的差異。

具體而言,本文考慮塊內(nèi)失真、塊間失真和幀間失真三個部分的失真。這些部分代表了視頻隱寫中可能引起的失真來源。最終的失真代價由這三個部分的失真值共同決定。具體失真函數(shù)可以表示為

ρ-[RQDCT(m,n)]=f(φ-[RQDCT(m,n)],μ-[RQDCT(m,n)],θ(d))=

(αφ-[RQDCT(m,n)]+βμ-[RQDCT(m,n)])×θ(d)(21)

ρ+[RQDCT(m,n)]=

f(φ+[RQDCT(m,n)],μ+[RQDCT(m,n)],θ(d))=

(αφ+[RQDCT(m,n)]+βμ+[RQDCT(m,n)])×θ(d)(22)

其中:φ、μ、θ分別是塊內(nèi)失真、塊間失真和幀間失真;α和β為控制因子,用于調(diào)整代價函數(shù)的比例,影響塊內(nèi)、塊間和幀間失真的相對權(quán)重;φ表示塊內(nèi)失真,表示單個塊內(nèi)失真程度,可以幫助選擇對塊內(nèi)失真影響更小的點;μ表示該塊對相鄰塊的失真影響,可以幫助選擇對相鄰塊影響更小的嵌入點;θ表示視頻幀之間的失真,有助于控制信息嵌入的穩(wěn)定性。通過綜合考慮這些失真來源并設(shè)計合適的隱寫算法,可以在保持視頻質(zhì)量的同時實現(xiàn)有效的隱寫嵌入。

2.5 隱寫框架

假設(shè)載體序列記為x={x1,x2,x3,…,xn}。這里的n表示載體元素的數(shù)量。xi表示為第i個載體元素。在載體元素x中嵌入隱秘信息s后的序列為y={y1,y2,y3,…,yn}。

在STC模型中,ρ(xi,yi)表示x變?yōu)閥的失真。當x上的嵌入操作相互獨立時,每個載體單元的嵌入失真可以被認為是加性的。對于加性失真,STC可以逼近平均失真的下界。那么總的失真函數(shù)可以表達為D(x,y)=∑ni=1ρ(xi,yi)(23)

STC的嵌入和提取映射可以表示為

Emb(x,m)=argminy∈C(m)D(x,y)(24)

m=H·y(25)

其中:m是嵌入消息向量;H是奇偶校驗矩陣;C(m)={z∈{0,1}n|Hz=m}是m對應(yīng)的余集。數(shù)據(jù)提取器可以在接收到y(tǒng)后通過計算H·y來提取消息。

3 實驗結(jié)果與分析

本章將對實驗數(shù)據(jù)集及其參數(shù)進行介紹,并將該實驗方案與現(xiàn)有三種方案在隱寫容量、視頻質(zhì)量、比特增長率(BIR)等性能方面進行對比。

3.1 視頻數(shù)據(jù)集

本文采用了不同分辨率(416×240、832×480、1024×768、1280×720、1920×1080)的八個視頻序列作為實驗數(shù)據(jù)集,所有的視頻序列均為未壓縮的,并以4∶2∶0的YUV色彩空間存儲。本文選取了視頻前10個GOP的視頻幀,并采用IPPP編碼結(jié)構(gòu)對其進行編碼處理,QP的取值分別為20、25。實驗在HEVC參考軟件HM16.7下進行。具體的參數(shù)如表1所示。3lCb035Tmdf2F9XN2oN1lw==

3.2 嵌入容量

現(xiàn)有HEVC視頻DST域隱寫操作,通常是對多個DST系數(shù)進行適當?shù)男薷?,以實現(xiàn)多系數(shù)耦合,防止由于嵌入操作導(dǎo)致的失真偏移。這涉及在I幀中針對多個DST系數(shù)進行調(diào)整,使其包括零和非零元素。本文算法選擇了所有的非零DST系數(shù)進行隱寫,嵌入容量更大。為了更好地比較用于隱寫的載體數(shù)量,本文選取了幾個不同分辨率的視頻序列在不同的QP下進行比較說明,具體實驗結(jié)果如表2所示。

本文算法的隱寫容量與QP呈反比例關(guān)系,即隨著QP的降低,載體元素的隱寫容量逐漸增加。從理論上來說,這是因為隨著QP的降低,視頻畫面內(nèi)容的保真度越高,視頻內(nèi)容越清晰,所表現(xiàn)出來的紋理細節(jié)更細致,因此每個視頻塊需要使用更多的比特位來進行編碼,從而提供了更多的隱寫載體空間,提升了隱寫容量。同時,隱寫容量也與視頻的分辨率成正比關(guān)系,即一般情況下,分辨率越高,載體元素越多,這是因為高分辨率視頻具有更多的像素點,從而提供更多的隱寫載體。

與其他算法相比,本文算法使用了所有的非零系數(shù),這意味著在每個視頻塊中,所有非零的變換系數(shù)都被用于隱寫信息的嵌入,從而最大化了隱寫容量。舉例來說,以視頻1為例,當QP為20時,本文算法的隱寫容量為163 407 bit,要比文獻[14,15,17]的容量大。同樣,當QP為25時,本文算法的隱寫容量為71 583 bit,也同樣大于其他算法。在表中的其他視頻也有類似的結(jié)果,表明本文算法具有更大的容量優(yōu)勢。

3.3 隱寫視頻的視覺質(zhì)量

當量化參數(shù)(QP)設(shè)為20時,BasketballPass和BQMall視頻圖像的質(zhì)量如圖6所示。圖6(a)(c)為原始幀,圖6(b)(d)為隱寫的嵌入幀,隱寫后的視頻沒有明顯的失真。這是由于STC框架通過定義代價函數(shù)來確定最佳的信息嵌入方法,以最小化塊內(nèi)失真的影響,確保視頻圖像的高質(zhì)量。

基于QDCT系數(shù)的隱寫技術(shù)會改變視頻壓縮過程中的編碼參數(shù)和變換系數(shù),進而影響視頻的編碼性能。本文使用PSNR來度量隱寫視頻的視覺質(zhì)量,并通過比較隱寫前后未壓縮的視頻序列以及解碼后的重構(gòu)視頻序列來計算PSNR。

為了比較文獻[14,15,17]和本文算法的視頻質(zhì)量,本文設(shè)置固定的有效載荷(嵌入容量)來進行比較。表3中給出了在不同嵌入容量下的PSNR值對比,其中ori為原始視頻的PSNR。

在相同的GOP(40幀的IPPP)和QP設(shè)置下,可以觀察到在不同的嵌入容量條件下,本文算法的視頻質(zhì)量PSNR普遍優(yōu)于其他三種方法(文獻[14,15,17])。舉例來說,以視頻1為例,當嵌入容量為3 000 bit時,本文算法的PSNR為43.653 5 dB,而文獻[14,15,17]的PSNR分別為43.489 8 dB、43.484 1 dB和43.497 7 dB,表明本算法隱寫視頻質(zhì)量相對更好。類似地,在不同嵌入容量下的其他視頻也表現(xiàn)出類似的趨勢,表明本文算法在保持較高嵌入容量的同時,能夠提供更好的視頻質(zhì)量。

為比較文獻[14,15,17]和本文算法的視覺質(zhì)量,設(shè)置QP:25隱寫視頻的PSNR差值進行對比。文獻[14,15,17]和本文算法的PSNR差值如圖7所示。

從圖7可以看出,對I幀的大量隱寫,在幀間編碼之后,會對P幀產(chǎn)生較大的失真,即影響整個視頻的質(zhì)量變化。圖7顯示了每個算法的PSNR差值??梢钥闯?,PSNR差值隨幀和算法的不同而變化。如圖7(a)所示在這四種算法中,本文算法在大多數(shù)幀上始終表現(xiàn)出最低的PSNR差值,這表明其可以更好地保留視頻質(zhì)量并降低失真。文獻[14,15]顯示出相似的PSNR差值,是因為文獻[15]的算法增加了8×8塊的隱寫,隱寫量未到達一定值時,不會在8×8塊中進行隱寫。本文算法在保持圖像質(zhì)量方面有一定的改進,與文獻[14,15,17]相比,PSNR差值始終較低。

3.4 比特率變化

視頻編碼質(zhì)量也可以通過比特率的提高來體現(xiàn)。一般來說,根據(jù)視頻編碼標準中的率失真優(yōu)化(rate distortion optimization,RDO),提高比特率可以獲得更好的視覺質(zhì)量。然而,在視頻隱寫中,由于嵌入信息會改變一些系數(shù),隱寫導(dǎo)致的比特率提高與常規(guī)情況完全不同。

在視頻隱寫中,本文將隱秘信息嵌入到系數(shù)的最低比特位中。這樣,一個DCT系數(shù)的最低比特位的改變代表著嵌入了一比特的信息。因此,在DCT系數(shù)中嵌入信息時,會導(dǎo)致一些DCT系數(shù)的最低比特位發(fā)生改變,從而影響比特率。嵌入的信息越多,導(dǎo)致DCT系數(shù)最低比特位改變的次數(shù)就越多,比特率也隨之增加。

在相同的隱寫容量下,較低的比特率增長意味著更高的壓縮效率和更緊湊的數(shù)據(jù)表示。這表示隱寫信息被嵌入到視頻中所需的額外比特數(shù)相對較少,使得媒體文件更小。較低的比特率增長有助于減小隱寫引入的影響,提供更高的隱寫嵌入效率,同時保持更好的視頻質(zhì)量和更高的傳輸效率。

對于其他三個算法,它們通過耦合系數(shù)進行隱寫,避免失真漂移,需要修改更多的系數(shù)和更多的零系數(shù),因此本文算法有更低的比特率增長(bit increase ratio,BIR)。BIR定義為

BIR=bitstego-bitoribitori×100%(26)

其中:bitstego、bitori分別表示隱寫后和隱寫前的比特率。

表4所示是在QP為20和25時,不同分辨率視頻在相同嵌入容量下的BIR對比。BIR用于衡量隱寫算法對視頻質(zhì)量的影響程度,數(shù)值越小,表示視頻質(zhì)量的損失越小。

從表4可以觀察到,在相同嵌入容量下,本文算法的BIR與其他三種方法相比增加較少,表明本文算法在保持較高嵌入容量的同時,對視頻質(zhì)量的影響較小。從理論角度來看,其他三種算法修改更多的系數(shù)(包含非零系數(shù)),而本文算法修改了更少的非零系數(shù),從而實現(xiàn)了更小的BIR。

3.5 抗隱寫分析

隱寫分析是評價隱寫算法性能的一種指標,用于檢測和評估載體是否包含隱藏的信息。本文采用Wang等人[20]提出的隱寫分析算法對視頻隱寫算法進行對比實驗。使用表1列出的視頻序列作為本文的數(shù)據(jù)集,并將其分為測試集和訓(xùn)練集,比例為1∶1。所有的視頻序列被均勻地劃分成10個不同的子序列,最終得到80個原始子序列和80個隱寫子序列。經(jīng)過50次隨機分割數(shù)據(jù)集后的重復(fù)實驗,并計算其平均值。實驗結(jié)果如表5所示。

根據(jù)實驗結(jié)果,觀察到本文算法表現(xiàn)出一定的優(yōu)勢,其隱寫分析結(jié)果為51.43%,表明本文算法在抗隱寫分析方面具有較好的性能。

3.6 關(guān)于比例因子的討論

對于算法中不同的(α,β)會有不同的成本,進而導(dǎo)致隱寫視頻的編碼性能和安全性的差異。α和β分別表示塊內(nèi)塊間畸變的影響。通過分析可知,塊間失真漂移會導(dǎo)致較大的視頻視覺質(zhì)量的下降,設(shè)置β值比α更大。在幾個視頻上設(shè)置不同的值,得到平均PSNR、BIR如表6所示。

由表6可以看出,在不同的α和β設(shè)置下,平均PSNR的最大值為38.922 5 dB,平均BIR的最小值為0.194 8。由于算法在設(shè)置(α,β)=(0.3,0.7)時,在PSNR和BIR方面獲得較好的編碼性能,所以在實驗中采用該設(shè)置值。

4 結(jié)束語

本文提出了一種高容量的HEVC視頻自適應(yīng)隱寫算法,通過對塊內(nèi)、塊間和幀間失真的分析,設(shè)計了一種代價分配方法。該方法充分利用了所有非零變換系數(shù),并對嵌入過程進行了合理的設(shè)計,以控制失真漂移,提高編碼性能和安全性。實驗結(jié)果表明,在相同的嵌入容量下,與其他三種方法相比,本文算法在視頻質(zhì)量、比特率影響和安全性方面均表現(xiàn)更優(yōu)。未來研究可以進一步提升視頻隱寫的安全性,探索并設(shè)計非加性視頻隱寫算法,以擴展其在不同應(yīng)用領(lǐng)域的潛在應(yīng)用。

參考文獻:

[1]Valandar M Y, Ayubi P, Barani M J, et al. A chaotic video steganography technique for carrying different types of secret messages[J]. Journal of Information Security and Applications, 2022, 66: article ID103160.

[2]翟黎明. 數(shù)字視頻隱寫與隱寫分析方法研究[D]. 武漢: 武漢大學(xué), 2020. (Zhai Liming. Research on steganography and steganalysis in digital videos[D]. Wuhan: Wuhan University, 2020.)

[3]Sullivan G J, Ohm J R, Han W J, et al. Overview of the high efficiency video coding(HEVC) standard[J]. IEEE Trans on Circuits & Systems for Video Technology, 2013, 22(12): 1649-1668.

[4]徐健, 王讓定, 黃美玲, 等. 一種基于預(yù)測模式差值的HEVC信息隱藏算法[J]. 光電子·激光, 2015, 26(9): 1753-1760. (Xu Jian, Wang Rangding, Huang Meiling, et al. A data hiding algorithm for HEVC based on the differences of intra prediction modes[J]. Journal of Optoelectronics·Letters, 2015, 26(9): 1753-1760.)

[5]Dong Yi, Jiang Xinghao, Li Zhaohong, et al. Multi-channel HEVC steganography by minimizing IPM steganographic distortions[J]. IEEE Trans on Multimedia, 2023, 25: 2698-2709.

[6]Wang Jie, Yin Xuemei, Chen Yifang, et al. An adaptive IPM-based HEVC video steganography via minimizing non-additive distortion[J]. IEEE Trans on Dependable and Secure Computing, 2023, 20(4): 2896-2912.

[7]邱楓, 鈕可, 李軍, 等. 基于運動矢量多直方圖修正的視頻可逆隱寫算法[J]. 計算機應(yīng)用研究, 2022,39(11): 3470-3474. (Qiu Feng, Niu Ke, Li Jun, et al. Video steganography algorithm based on motion vector and multi histogram modification[J]. Application Research of Computers, 2022, 39(11): 3470-3474.)

[8]Zhai Liming, Wang Lina, Ren Yanzhen. Multi-domain embedding strategies for video steganography by combining partition modes and motion vectors[C]//Proc of IEEE International Conference on Multimedia and Expo. Piscataway, NJ: IEEE Press, 2019: 1402-1407.

[9]Liu Shuowei, Liu Beibei, Hu Yongjian, et al. Non-degraded adaptive HEVC steganography by advanced motion vector prediction[J]. IEEE Signal Processing Letters, 2021, 28: 1843-1847.

[10]He Songhan, Xu Dawen, Yang Lin. Adaptive HEVC video stegano-graphy with high performance based on Attention-Net and PU partition modes[J]. IEEE Trans on Multimedia, 2023, 26: 687-700.

[11]He Songhan, Xu Dawen, Yang Lin. HEVC video information hiding scheme based on adaptive double-layer embedding strategy[J]. Journal of Visual Communication and Image Representation, 2022, 87: 103549.

[12]Chang P C, Chung K L, Chen J J, et al. An error propagation free data hiding algorithm in HEVC intra-coded frames [C]//Proc of Asia-Pacific Signal and Information Processing Association Annual Summit and Conference. Piscataway, NJ: IEEE Press, 2013: 1-9.

[13]Van L P, De Praeter J, Van Wallendael G, et al. Out-of-the-loop information hiding for HEVC video[C]//Proc of IEEE International Conference on Image Processing. Piscataway, NJ: IEEE Press, 2015: 3610-3614.

[14]Liu Yunxia, Liu Shuyang, Zhao Hongguo, et al. A new data hiding method for H.265/HEVC video streams without intra-frame distortion drift[J]. Multimedia Tools & Applications, 2019, 78: 6459-6486.

[15]Chang P C, Chung K L, Chen J J, et al. A DCT/DST-based error propagation-free data hiding algorithm for HEVC intra-coded frames[J]. Journal of Visual Communication & Image Representation, 2014, 25(2): 239-253.

[16]Zhou Aijun, Jiang Xinghao, Sun Tanfeng, et al. A HEVC stegano-graphy algorithm based on DCT/DST coefficients with BLB distortion model[C]//Proc of the 14th International Congress on Image and Signal Processing, BioMedical Engineering and Informatics. Piscataway, NJ: IEEE Press, 2021: 1-9.

[17]Yang Lin, Xu Dawen, Wang Rangding, et al. Adaptive HEVC video steganography based on distortion compensation optimization[J]. Journal of Information Security and Applications, 2023, 73: 103442.

[18]Cui Yabing, Yao Yuanzhi, Yu Nenghai. Defining embedding distortion for sample adaptive offset-based HEVC video steganography[C]//Proc of the 22nd International Workshop on Multimedia Signal Processing. Piscataway, NJ: IEEE Press, 2020: 1-6.

[19]Filler T, Judas J, Fridrich J. Minimizing embedding impact in stega-nography using trellis-coded quantization[C]//Proc of Media Forensics and Security Ⅱ. [S.l.]: SPIE, 2010: 38-51.

[20]Wang Yu, Cao Yun, Zhao Xianfeng. Video steganalysis based on centralized error detection in spatial domain[C]//Proc of Internatio-nal Conference on Information Security & Cryptology. Cham: Sprin-ger, 2016: 472-483.

[21]Yang Lin, Wang Rangding, Xu Dawen, et al. Centralized error distribution-preserving adaptive steganography for HEVC[J]. IEEE Trans on Multimedia, 2024, 26: 4255-4270