秦 娜,楊軍彥
(西北師范大學(xué) 計算機科學(xué)與工程學(xué)院,甘肅 蘭州 730070)
近年來,隨著數(shù)字水印技術(shù)的快速發(fā)展,出現(xiàn)了大量基于水印的圖像認證算法,當(dāng)圖像真?zhèn)涡允艿綉岩蓵r,提取的水印就可以作為驗證篡改是否發(fā)生的依據(jù)。其中,在Contourlet變換域嵌入水印的圖像認證算法受到重視[1-3],這些算法大都將水印嵌入到能量較大的Contourlet變換方向子帶中,較好地利用了方向子帶的紋理特性,滿足水印的不可見性和魯棒性要求。這些算法通過將提取的水印與原始水印相對比,能判斷該圖像是否發(fā)生了篡改,并對篡改區(qū)域進行定位,但不足之處在于它們僅能指出圖像的篡改位置,而不能區(qū)分是圖像內(nèi)容被篡改還是水印被篡改,或者兩者都被篡改。
由于對圖像內(nèi)容的篡改會破壞原始圖像的使用價值,因此,認證算法必須檢測出此類篡改并精確定位,以確保認證的可靠與有效;而對水印的篡改一般不影響原始圖像的使用價值,這種僅水印被篡改的情況應(yīng)能通過認證。如果不加區(qū)分地一律不通過認證,一方面將會使本來真實可信的圖像變得不可信,從而降低數(shù)字圖像的利用效率,并妨礙數(shù)字圖像認證技術(shù)的推廣與應(yīng)用;另一方面攻擊者可以通過僅篡改水印來偽造對圖像內(nèi)容的篡改,使本來真實的圖像不能通過認證,達到惡意攻擊的目的。因此,能區(qū)分是圖像內(nèi)容還是水印被篡改的認證算法成為圖像認證技術(shù)推廣與應(yīng)用必須解決的問題。
針對現(xiàn)有基于水印的圖像認證算法對區(qū)分圖像內(nèi)容還是水印被篡改研究的不足,本文提出了一種可區(qū)分內(nèi)容或水印篡改的圖像認證算法。首先由載體圖像的Contourlet低頻系數(shù)生成恢復(fù)水印,將其嵌入對應(yīng)的4個中頻子帶;恢復(fù)水印全部嵌入后,再在載體圖像Contourlet低頻子帶嵌入認證水印。雙水印的嵌入可以作為判斷圖像內(nèi)容被篡改還是水印被篡改的依據(jù)。該算法不分塊,避免了塊效應(yīng)和基于分塊獨立性產(chǎn)生的量化攻擊,能夠與現(xiàn)有的壓縮標準(如 JPEG、JPEG 2000)結(jié)合起來,能較好地檢測出發(fā)生的篡改并定位,同時區(qū)分篡改類型,在一定條件下還可以恢復(fù)被篡改的區(qū)域。
生成與嵌入恢復(fù)水印的具體步驟如下。
(1)采用 Contourlet變換對原始灰度圖像 I進行 2級拉普拉斯金字塔變換和最精細子帶8方向分解,提取其低頻子帶系數(shù)矩陣 b(i,j)。
(2)求低頻系數(shù)矩陣 b(i,j)的均值,通過比較低頻子帶各系數(shù)與均值的大小關(guān)系,將各系數(shù)量化為小于16的非負整數(shù),并用4位二進制數(shù)表示,對所有低頻子帶系數(shù)處理后得到一維二值序列s。
(3)將 s排列為 4行 m×m列 (m×m是中頻子帶大?。┑亩S矩陣 wr,則wr的每一列對應(yīng) 4位二進制數(shù)的高位到低位,而每一行對應(yīng)一個位平面。
(4)對每一個中頻子帶,通過奇偶量化中頻子帶系數(shù) a(i,j)嵌入恢復(fù)水印,使一個中頻子帶嵌入 wr的一行數(shù)據(jù),具體如下。
當(dāng) mod(floor(a(i,j)/q),2)的值與恢復(fù)水印信息不一致時,按如下規(guī)則修改中頻子帶系數(shù):若(a(i,j)-(floor(a(i,j)/q)×q)>q/2,則 a(i,j)=floor(a(i,j)/q)×q+1.5q;否則,(a(i,j)=floor(a(i,j)/g)×g-0.5g;當(dāng) mod(floor(a(i,j)/q),2)的值與恢復(fù)水印信息一致時,不作修改。其中,mod表示取余運算,floor表示下取整,q為每個中頻子帶系數(shù)的量化參數(shù),E為子帶能量值。
(5)對所有中頻系數(shù)都按步驟(4)處理,完成恢復(fù)水印的嵌入。
嵌入認證水印的具體步驟如下。
(1)采用二值圖像 wa作為認證水印,首先對其采用Arnold變換得到置亂的認證水印圖像wa1,將置亂次數(shù)作為密鑰保存,增強水印系統(tǒng)的安全性。
(2)對原始灰度圖像I進行2級拉普拉斯金字塔變換和最精細子帶8方向分解,提取其低頻子帶系數(shù)矩陣b(i,j),并用式(1)和式(2)計算低頻系數(shù)的量化參數(shù) q1。
(3)根據(jù)水印信息,量化 b(i,j)得到嵌入水印后的低頻系數(shù)矩陣 b′(i,j):
(4)認證水印嵌入后,進行 Contourlet逆變換得到含水印信息的圖像。
提取與認證水印的具體步驟如下。
(1)對被檢測圖像進行與水印嵌入前相同的Contourlet變換,得到低頻系數(shù)矩陣 b1(i,j),按照式(4)從中提取認證信息 wa′(i,j),將其反置亂后得到提取的二值水印
(2)根據(jù)式(5)從 4 個中頻子帶的系數(shù) a1(i,j)中提取恢復(fù)水印 wr′,并將其組成 4行 m×m列的二值矩陣wr′′(m×m 是中頻子帶大小)圖像 wa1′(i,j)。
(3)對篡改的檢測及認證過程為:首先,若嵌入的認證水印與提取的認證水印相等,則含水印圖像即可通過認證;若不相等,就比較計算得到的恢復(fù)水印和從Contourlet變換4個中頻子帶提取的恢復(fù)水印。若兩者相等,就說明含水印圖像先前沒通過認證的原因在于其認證水印被篡改,此時含水印圖像仍然可以通過認證,因為只有認證水印被篡改,大多情況下并不影響圖像的使用價值,否則就不能通過認證。即:
若 wa=wa′,通過認證;
若 wa≠wa′,wr=wr′,通過認證;
若 wa≠wa′,wr≠wr′,不 通 過 認 證 。
實驗時采用大小為 256×256、位深為 8 bit/pixel的Lena灰度圖像和64×64的二值圖像進行各種測試。Matlab仿真實驗中,Contourlet變換的 LP采用“9-7”金字塔濾波器。Contourlet變換的DFB采用“pkva”方向性濾波器。對輸入圖像lena進行2級LP分解,得到一個近似圖像2I和兩個帶通子圖像1B、2B,其中1B為最精細子帶圖像,2B為次精細子帶圖像。然后,分別對1B、2B進行8方向分解和4方向分解。如圖1所示,圖1(a)為原始圖像,圖 1(b)為二值水印圖像,圖 1(c)為只嵌入恢復(fù)水印的圖像,圖1(d)為嵌入了恢復(fù)水印和認證水印的圖像,圖 1(e)為從圖 1(d)提取出的水印圖像。
圖1 只嵌入恢復(fù)水印圖、嵌入雙水印圖及提取的水印
實驗時,含雙水印圖像與原始圖像相比,其峰值信噪比PSNR=38.180 1;只嵌入恢復(fù)水印圖像與原始圖像相比,其PSNR=39.862 5;提取出的水印圖像與原始水印圖像相比,其相關(guān)系數(shù)NC=1.00。實驗結(jié)果表明,嵌入水印后對圖像的視覺質(zhì)量影響小,并且在載體圖像未遭受任何攻擊時,該算法完全可以正確地提取出水印圖像。
在傳輸過程中,數(shù)字圖像受到的篡改攻擊包括篡改嵌入的水印信息、篡改圖像內(nèi)容及同時篡改水印和內(nèi)容3種。下面通過實驗來驗證算法對篡改類型的區(qū)分情況。
對含水印圖像進行處理,使提取的認證水印與原始認證水印相比,各位值取反。如圖2所示,圖2(a)是認證水印被篡改的圖像,圖2(b)是其認證結(jié)果。由于只篡改水印信息并不影響原始圖像的使用價值,因此這種情況通過認證。
圖3 水印被篡改的認證
對含水印圖像進行了裁剪和替換等處理,結(jié)果如圖4所示,從認證結(jié)果可以清晰地看出篡改發(fā)生的位置。由于此時圖像的內(nèi)容發(fā)生了篡改,破壞了原始圖像的使用價值,因此這種情況不能通過認證。同時,通過事先嵌入的恢復(fù)水印,對被篡改區(qū)域進行了恢復(fù)。
本文提出了一種可區(qū)分水印或內(nèi)容篡改的圖像認證算法,該算法在原始圖像Contourlet變換域的中頻子帶嵌入量化的低頻信息作為恢復(fù)水印,而在圖像的低頻子帶嵌入認證水印。仿真實驗表明,該算法在保證不可見性的同時,具有較好的魯棒性;雙重水印的嵌入使得算法可以區(qū)分水印被篡改或內(nèi)容被篡改,并可對圖像內(nèi)容被篡改區(qū)域進行定位與近似恢復(fù)。
[1]李海峰,宋巍巍,王樹勛.基于 Contourlet變換的穩(wěn)健性圖像水印算法[J].通信學(xué)報,2006,27(4):87-94.
圖4 裁剪和替換操作的認證及恢復(fù)
[2]JAYALAKSHMI M,MERCHANT S N,DESAI U B.Digital water-marking in Contourlet domain[C].The 18th International Conference on Pattern Recognition, 2006 (3):861-864.
[3]BOUZIDI A,BAAZIZ N.Contourlet domain feature extraction for image content authentication[C].Proceedings of the 2006 International Conference on Intelligent Information Hiding and Multimedia Signal Processing, 2006:202-206.