国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于自注意力連接UNet的磁共振成像去吉布斯偽影算法

2023-05-24 03:19:14陸志揚
計算機應(yīng)用 2023年5期
關(guān)鍵詞:吉布斯偽影解碼

劉 陽,陸志揚,王 駿,施 俊

(上海大學(xué) 通信與信息工程學(xué)院,上海 200444)

0 引言

吉布斯偽影是磁共振成像(Magnetic Resonance Imaging,MRI)中常見的一種環(huán)狀偽影,當(dāng)磁共振掃描高頻采樣信號不足時,傅里葉變換成像后就會產(chǎn)生吉布斯偽影[1-2]。吉布斯偽影的出現(xiàn)會改變組織結(jié)構(gòu)的強度、形狀和解剖細(xì)節(jié),影響醫(yī)生對疾病的診斷[3]。

針對吉布斯偽影,傳統(tǒng)方法采用小波變換、總變分方法、亞像素移位和自適應(yīng)濾波等技術(shù)實現(xiàn)去偽影[4-7]。但濾波處理方法往往需要復(fù)雜的參數(shù)調(diào)整或預(yù)處理,導(dǎo)致其很難在醫(yī)學(xué)圖像處理中得到廣泛應(yīng)用[8]。亞像素移位可以在不使用部分傅里葉編碼情況下減少吉布斯偽影,但是由于欠采樣產(chǎn)生的模糊效應(yīng)和傅里葉級數(shù)近似產(chǎn)生的吉布斯偽影之間相互作用,這些效應(yīng)的組合很難明確建模[9]。

近年來,深度學(xué)習(xí)(Deep Learning,DL)作為一種機器學(xué)習(xí)(Machine Learning,ML)方法在磁共振成像處理中得到了廣泛的關(guān)注,許多DL 網(wǎng)絡(luò)被提出,用于去除MRI 中的噪聲和偽影。由于高斯噪聲的非相干性和位置無關(guān)性,常利用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)自身小感受野的特性進行圖像去噪。通過構(gòu)建非線性模型靈活地去除圖像中的吉布斯偽影和噪聲,對含吉布斯偽影的MRI 進行并行化和高效處理[10-11]。例如,GAS-CNN(Gibbs-ringing Artifact Suppression Convolutional Neural Network)通過從自然圖像到MRI 的知識轉(zhuǎn)移來抑制吉布斯偽影,利用自然圖像訓(xùn)練MRI進行微調(diào)[10];GRACNN(Gibbs-Ringing Artifact reduction using CNN)通過學(xué)習(xí)圖像的偽影部分來提取偽影信息,得到無偽影圖像,獲得了比傳統(tǒng)算法更優(yōu)的實驗結(jié)果[11]。這種單尺度CNN 對改善噪聲很有效,但對分布于整張圖像的吉布斯偽影的去除,則需要更大感受野的網(wǎng)絡(luò)來改善[12]。

UNet 通常用于圖像分割,利用多尺度特征模塊進行特征的提取和恢復(fù),具有較大的感受野[13]。其中,跳連接可以幫助編碼-解碼過程恢復(fù)完整的空間分辨率,將編碼端子網(wǎng)絡(luò)特征與解碼端子網(wǎng)絡(luò)特征進行直接串聯(lián)融合。許多基于UNet 的改進算法,通過改變跳連接的連接方式減小編碼端和解碼端特征之間的語義差距,提升了網(wǎng)絡(luò)的性能。例如,UNet++使用了嵌套的密集跳躍連接代替普通跳躍連接,縮小了編碼端和解碼端子網(wǎng)絡(luò)特征之間的語義差距[14];UCTransNet(U-Net with a proposed CTrans module)設(shè)計了一個多尺度通道融合的子模塊來引導(dǎo)融合的多尺度通道信息有效連接到解碼器,來消除編解碼之間的語義差異[15]。CNN卷積運算的固有局限性限制了感受野的擴大,而Transformer利用注意力機制模擬數(shù)據(jù)間的長期依賴關(guān)系,可以學(xué)習(xí)到特征之間明確的全局和遠(yuǎn)程語義交互信息[16]。因此考慮在UNet 跳連接處加入Transformer 模塊[17-18],通過自注意力連接的方式進行編解碼端特征融合,進一步擴大網(wǎng)絡(luò)的感受野,同時利用UNet 良好的編解碼能力捕捉更多的偽影信息。

自蒸餾(Self-distillation)是一種無需教師模型的知識蒸餾方式,其中知識是在網(wǎng)絡(luò)本身中蒸餾出來的[19]。例如,基于階段的自蒸餾方法Metadistiller,將知識從深層階段轉(zhuǎn)移到淺層階段[20]。目前自蒸餾在分類任務(wù)中可以替代過參數(shù)化的教師模型,實現(xiàn)模型壓縮和快速推理[21]。而自蒸餾技術(shù)在圖像重建任務(wù)中的應(yīng)用還處于起步階段。為了提升網(wǎng)絡(luò)自身性能,增強網(wǎng)絡(luò)在小樣本條件下對圖像邊緣和精細(xì)結(jié)構(gòu)的處理能力,提高UNet 解碼端的重建精度,本文將自蒸餾訓(xùn)練與UNet 圖像恢復(fù)模塊相結(jié)合,通過自蒸餾訓(xùn)練,使得深層網(wǎng)絡(luò)輸出的更精細(xì)化特征指導(dǎo)淺層輸出特征,提升網(wǎng)絡(luò)在MRI 重建和去偽影方面的性能,獲得更精確的無偽影輸出圖像和更高的評價指標(biāo)。

針對MRI 去除吉布斯偽影任務(wù),本文提出了一種基于自蒸餾訓(xùn)練的自注意力連接UNet(Self-attention connection UNet based on Self-Distillation training,SD-SacUNet)算法。首先設(shè)計了一種基于自注意力連接模塊的UNet 以加強編碼-解碼端的特征融合,提高特征提取能力;然后設(shè)計了一種基于圖像重建的自蒸餾訓(xùn)練方式,以提高UNet 解碼端圖像恢復(fù)精度,進一步提升去偽影效果。

本文的主要工作如下:

1)將自注意力連接模塊引入經(jīng)典的UNet,提出一種新的SD-SacUNet,在UNet 編解碼網(wǎng)絡(luò)兩端之間加入自注意力連接模塊進行自注意力機制的計算,將處理后的編碼端特征與解碼端特征合并,有效融合編解碼兩端不同的語義特征,利用Transformer 強大的全局交互能力,獲取更精細(xì)的網(wǎng)絡(luò)輸出結(jié)果,得到清晰的無偽影輸出圖像。

2)提出了一種基于圖像重建任務(wù)的自蒸餾訓(xùn)練方法,在SD-SacUNet 的編碼器中間層特征輸出之間計算損失函數(shù),將深層特征的有用信息用于指導(dǎo)淺層特征的訓(xùn)練,獲取更高的訓(xùn)練精度,提升網(wǎng)絡(luò)整體的特征表達能力。

1 本文方法

1.1 總體流程

本文提出的SD-SacUNet 的總體結(jié)構(gòu)如圖1 所示。該算法將UNet 編碼端每個下采樣層的輸出特征分別輸入各自對應(yīng)的自注意力連接模塊進行自注意力機制的運算,而后與解碼特征進行連接;在UNet 解碼端加入瓶頸層用于調(diào)節(jié)特征尺度來進行自蒸餾訓(xùn)練,利用深層特征指導(dǎo)淺層特征的訓(xùn)練,編碼器深層的精細(xì)化特征通過自蒸餾路徑傳遞給淺層,以指導(dǎo)淺層網(wǎng)絡(luò)的訓(xùn)練。

圖1 SD-SacUNet總體結(jié)構(gòu)Fig.1 Overall structure of SD-SacUNet

具體內(nèi)容如下:

1)網(wǎng)絡(luò)架構(gòu):在傳統(tǒng)UNet 基礎(chǔ)上加入了自注意力連接模塊,將UNet 的編碼端劃分為不同的子塊,通過下采樣和特征映射,編碼端特征被投影到更高維度。轉(zhuǎn)換后的子塊通過Transformer 模塊以及子塊合并操作進行特征學(xué)習(xí)和維度恢復(fù),而后與解碼特征合并,參與解碼階段的圖像恢復(fù)過程。

2)自蒸餾訓(xùn)練:在UNet解碼端圖像恢復(fù)階段進行自蒸餾訓(xùn)練,利用瓶頸層建立深層特征與淺層特征信息交互的通道,從而讓深層重建階段更精細(xì)的特征來指導(dǎo)淺層的特征訓(xùn)練,提高整體解碼階段的特征重建精度,獲得更好的去偽影重建效果。自蒸餾訓(xùn)練時加入的瓶頸層將在測試階段去除。

1.2 自注意力連接模塊設(shè)計

本文所提出的SD-SacUNet 中的自注意力連接模塊由子塊嵌套操作、兩個Swin Transformer(Hierarchical Vision Transformer using Shifted Windows)[17]塊以及子塊融合操作組成,替代了原有UNet 中的跳連接操作,目的是縮小編碼特征和解碼特征之間的語義差距,有利于在特征恢復(fù)階段,解碼端網(wǎng)絡(luò)充分利用編碼端特征進行特征重建與恢復(fù)。自注意力連接模塊能夠擴大感受野,有利于捕捉全局信息,幫助克服卷積操作感受野較小的局限性。對特征進行自注意力編碼,網(wǎng)絡(luò)根據(jù)特征感興趣的區(qū)域進行特征融合,輔助解碼端的特征重建。自注意力連接模塊主要結(jié)構(gòu)如圖2 所示。

圖2 自注意力連接模塊Fig.2 Self-attention connection module

自注意力連接模塊首先將輸入的編碼端特征進行子塊嵌套操作,具體由兩步組成:分別為對特征進行分塊和將分塊后的子塊特征進行線性變化并嵌入位置向量信息。隨后,處理好的子塊被送入兩個連續(xù)的Swin Transformer 塊中進行注意力機制的運算。兩個Swin Transformer 塊分別計算普通窗口注意力和移位窗口注意力,以此達到將注意力的計算限制在每個窗口內(nèi)的目的。移位窗口操作可以使不同窗口之間的特征能夠進行信息交互,兼顧全局特征和控制計算的復(fù)雜度。最后通過子塊融合操作,將子塊進行合并和上采樣,恢復(fù)子塊分辨率與輸入的編碼特征相同,并與解碼端特征進行合并操作。此處的合并操作保留了UNet 跳連接中的串聯(lián)操作,將自注意力連接模塊的輸出特征與解碼端特征進行直接的串聯(lián)融合。通過網(wǎng)絡(luò)的自我學(xué)習(xí)將有用信息進行傳遞,而不花費更多的計算成本[13]。

子塊嵌套操作是將編碼端輸出的特征圖進行不重疊的子塊劃分和位置編碼。SD-SacUNet 編碼端的輸出共分為4層,其中第n層特征尺寸為為了方便闡述,將其定義為(Cn,hn,wn)。首先進行降采樣操作來降低計算量,降采樣因子設(shè)為2。因此輸入Swin Transformer 模塊的標(biāo)記特征大小為

Swin Transformer 塊最主要的特點是在傳統(tǒng)Transformer的多頭自注意力機制的基礎(chǔ)上,增加局部關(guān)注和移位窗口機制。Swin Transformer 模塊由層標(biāo)準(zhǔn)化(Layer Normalization,LN)層、多頭自注意力(Multi-head Self-Attention,MSA)層、殘差連接和多層感知器(MultiLayer Perceptron,MLP)模塊組成,其中MLP 模塊中含有兩個GELU(Gaussian Error Linear Unit)非線性激活全連接層。使用的兩個Swin Transformer 模塊采用了不同的注意力模塊。第一個模塊采用了常規(guī)窗口多頭自注意力模塊(Multi-head Self-Attention modules with regular Windows,W-MSA),W-MSA 將輸入特征劃分為不重疊的窗口,在每個窗口內(nèi)分別計算自注意力得分;第二個模塊為移位窗口多頭自注意力模塊(Multi-head Self-Attention modules with Shifted Windows,SW-MSA),移位窗口每次移動,通過對移位窗口計算注意力,能獲得特征圖之間的遠(yuǎn)程依賴信息,使它兼顧了局部和全局的注意力。注意力得分定義為:

其中:Q、K、V∈分別代表查詢矩陣、鍵矩陣和值矩陣;d代表查詢矩陣和鍵矩陣的維度;B代表偏差矩陣。

子塊融合操作是將前面嵌套操作降采樣的特征圖利用反卷積進行上采樣,還原其原有分辨率,因此在經(jīng)過自注意力連接模塊處理后的特征與同級解碼器特征尺寸相同,可以直接進行特征融合。經(jīng)過注意力機制融合的特征保留了編碼器提取特征的細(xì)節(jié)部分,并且在網(wǎng)絡(luò)的訓(xùn)練過程中,注意力機制會調(diào)整編解碼連接部分網(wǎng)絡(luò)的權(quán)重,使后續(xù)特征能夠得到有效融合,避免了編解碼器兩端特征由于語義上的差異帶來的網(wǎng)絡(luò)性能的下降。同時解碼器在重建圖像的過程中充分利用網(wǎng)絡(luò)提取的有用信息,得到具有精準(zhǔn)細(xì)節(jié)的重建圖像,避免了過度平滑問題。

1.3 自蒸餾模塊設(shè)計

重建任務(wù)的自蒸餾模塊設(shè)計主要是為了從網(wǎng)絡(luò)內(nèi)部提供知識進行蒸餾訓(xùn)練,提升訓(xùn)練的效果。在重建任務(wù)中,網(wǎng)絡(luò)在去除偽影的同時可以保留和恢復(fù)更多的圖像細(xì)節(jié),使得結(jié)果圖像結(jié)構(gòu)邊緣清晰,具有清楚的輪廓結(jié)構(gòu)。由于UNet解碼端是一個圖像分辨率逐漸擴大的過程,解碼端深層的特征圖尺寸更大,含有的細(xì)節(jié)信息更加豐富,利用這一特點來指導(dǎo)淺層特征的訓(xùn)練,可以使得淺層特征圖進一步提升細(xì)節(jié),從而使得整體網(wǎng)絡(luò)輸出結(jié)果保留更多圖像細(xì)節(jié)。在網(wǎng)絡(luò)進行訓(xùn)練時,自蒸餾方法可以將深層特征圖信息傳遞給淺層。此外,在測試階段,將用作自蒸餾訓(xùn)練的瓶頸層去除,因此不會對網(wǎng)絡(luò)帶來額外參數(shù)量的提升。

SD-SacUNet 的解碼部分共有四個圖像恢復(fù)模塊。為了使得淺層網(wǎng)絡(luò)更好地學(xué)習(xí)深層網(wǎng)絡(luò)的知識,訓(xùn)練網(wǎng)絡(luò)時在每個圖像恢復(fù)模塊后各增加一個瓶頸(Bottle Neck)層。添加瓶頸層可以調(diào)整特征大小與后一層輸出特征相一致,減少各層輸出之間的影響,通過計算與后一層特征之間的損失函數(shù),使得深層解碼特征的知識逐步過渡給淺層。在圖像恢復(fù)過程中,特征恢復(fù)從淺層得以加強。在解碼端輸出至全連接層恢復(fù)完整無偽影圖像的過程中,特征被進一步精煉,在上采樣恢復(fù)時也排除了冗余噪聲過多的干擾,更好地保留圖像細(xì)節(jié)。自蒸餾訓(xùn)練的損失函數(shù)定義計算解碼端相鄰特征之間的歐氏距離,如式(2)所示:

其中:ni'代表經(jīng)過瓶頸層進行上采樣的淺層網(wǎng)絡(luò)特征;ni+1表示下一層解碼端網(wǎng)絡(luò)輸出特征,通過計算二者之間的損失函數(shù),將深層特征信息傳遞到淺層。

總的自蒸餾損失定義為各層損失函數(shù)之和,如式(3)所示:

其中:Lsd代表自蒸餾損失。按照本文網(wǎng)絡(luò)架構(gòu),m=4,計算UNet 解碼器端5 層中間輸入的損失。

1.4 模型訓(xùn)練

如圖1 所示,MRI 重建去偽影的訓(xùn)練目標(biāo)是通過一個SD-SacUNet 編解碼模型,學(xué)習(xí)輸入的含吉布斯偽影圖像與無偽影原圖之間的映射關(guān)系。本文中用到的損失函數(shù)均為L2歐氏距離損失,以此來衡量預(yù)測輸出的無偽影圖與真實標(biāo)簽圖之間的差異。通過計算反向梯度優(yōu)化參數(shù),指導(dǎo)圖像重建模型的訓(xùn)練過程。

其中:Lres代表重建損失;yi表示網(wǎng)絡(luò)的標(biāo)簽,即無偽影圖像;為網(wǎng)絡(luò)重建輸出的預(yù)測;n為訓(xùn)練的樣本數(shù)量。

訓(xùn)練網(wǎng)絡(luò)的總損失定義為重建損失與自蒸餾損失的和,如公式(5)所示:

其中:α和β兩個超參數(shù)用來調(diào)節(jié)損失函數(shù)的數(shù)量級,使得每種損失函數(shù)得到充分的訓(xùn)練和優(yōu)化。

2 實驗與結(jié)果分析

2.1 實驗數(shù)據(jù)與預(yù)處理

本文采用CC359 數(shù)據(jù)庫[22]驗證所提出的SD-SacUNet 算法的有效性。CC359 數(shù)據(jù)庫為單通道線圈數(shù)據(jù),數(shù)據(jù)采集于臨 床MRI 掃描儀(Discovery MR750,General Electric(CE)Healthcare,Waukesha,WI),共含有35 個全采樣的T1 加權(quán)MRI 數(shù)據(jù)。該數(shù)據(jù)集為復(fù)數(shù)圖像集,可以反向轉(zhuǎn)換生成復(fù)數(shù)k空間樣本。將數(shù)據(jù)集進行兩個方向(切片編碼和相位編碼)上的欠采樣時,可作為2D 數(shù)據(jù)集。

本文按照五折交叉驗證的方法將數(shù)據(jù)集劃分為訓(xùn)練集28 個病例,每個病例切片45 張,共1 440 張圖像;測試集有7個病例,共315 張圖像。由于吉布斯偽影是由高頻數(shù)據(jù)缺失導(dǎo)致的,制作成對的輸入和標(biāo)簽圖像的時候,將全采樣圖像通過傅里葉變換到k空間域,此時為高頻中心,通過頻移得到低頻中心傅里葉變換圖,通過一個遮罩將外圍部分高頻數(shù)據(jù)置0,再進行傅里葉反變換得到的圖像就含有吉布斯偽影,其中吉布斯偽影和噪聲的影響程度與遮罩的大小有關(guān)。

2.2 實驗設(shè)計

為了比較本文所提出的SD-SacUNet 算法的有效性,選取了如下經(jīng)典的網(wǎng)絡(luò)和目前在醫(yī)學(xué)圖像處理領(lǐng)域與本文工作類似的先進網(wǎng)絡(luò)進行對比,本文對比實驗設(shè)置如下:

市場需求一旦發(fā)生變化,訂貨量會隨之變動,即q>q*或q

1)UNet[13]:作為本文算法的基準(zhǔn)進行對比和消融實驗。

2)UNet++[14]:對于UNet 中的跳連接進行了改進,在編解碼器之間加入了嵌套的多尺度融合模塊。

3)GRACNN[11]:深度學(xué)習(xí)去吉布斯偽影的經(jīng)典方法,先提取偽影,再從原圖中將偽影減去得到無偽影圖像的方法。

4)UCTransNet[15]:一種利用Transformer 進行多尺度通道交叉融合代替UNet 跳連接的網(wǎng)絡(luò)模型,應(yīng)用于分割領(lǐng)域。

5)SwinIR(Image Restoration using Swin Transformer)[18]:基于Swin Transformer 模塊進行圖像恢復(fù)任務(wù)的算法。

6)Uformer[23]:一種利用Transformer 塊構(gòu)造的U 形網(wǎng)絡(luò),主要用于圖像恢復(fù)任務(wù)。

此外,本文還對SD-SacUNet 算法本身進行了消融實驗,分別驗證了自蒸餾方法和SacUNet 結(jié)構(gòu)的有效性。本文設(shè)置四組消融實驗,具體如下:

1)UNet:采用常規(guī)訓(xùn)練方法訓(xùn)練UNet,不添加額外的損失函數(shù)。

2)SD-UNet:采用自蒸餾方法進行訓(xùn)練的UNet。

3)SacUNet:采用常規(guī)訓(xùn)練方法訓(xùn)練SacUNet,不添加額外損失函數(shù)。

4)SD-SacUNet:采用自蒸餾方法進行訓(xùn)練SacUNet。

所有算法的實驗均采用五折交叉驗證,取五折實驗結(jié)果的平均值,并計算方差得到最終的實驗數(shù)據(jù)。在網(wǎng)絡(luò)層數(shù)和超參數(shù)的選擇上盡可能地設(shè)置為與本文算法相同或近似,以防止參數(shù)不統(tǒng)一導(dǎo)致的結(jié)果差異。

實驗結(jié)果定量評價主要使用峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)和結(jié)構(gòu)相似性(Structure Similarity Index Measure,SSIM)判斷MRI 進行去偽影重建后的輸出結(jié)果。其中:PSNR 旨在降低噪聲,是評價圖像重建質(zhì)量的標(biāo)準(zhǔn);SSIM 關(guān)注圖像的可見結(jié)構(gòu),從亮度、對比度和結(jié)構(gòu)三個方面衡量,是視覺質(zhì)量的度量。利用這兩個指標(biāo)可以定量判斷網(wǎng)絡(luò)處理后的圖像質(zhì)量,數(shù)值越大,重建效果越好。實驗結(jié)果定性評估使用可視化圖像顯示重建后的無偽影圖像。

2.3 實現(xiàn)細(xì)節(jié)

在網(wǎng)絡(luò)編碼器部分,每個特征提取模塊均由最大池化層,卷積層和線性整流函數(shù)(Rectified Linear Unit,ReLU)激活層構(gòu)成,其中,卷積層和激活層將重復(fù)兩次,輸入特征經(jīng)過特征提取模塊的處理后,其通道數(shù)翻倍,特征面積不斷縮小,感受野不斷擴大。輸入端的卷積層將圖像通道數(shù)為1 變化為32,后接的4 個特征提取模塊輸出通道數(shù)分別為64,128,256,512。Swin Transformer 模塊的窗口大小按照特征圖由大到小設(shè)置為16,8,4,2。解碼器端的圖像恢復(fù)模塊通過反卷積進行上采樣,后接卷積層和激活層,在對自注意力連接塊輸出進行合并后,將再進行一次卷積和激活的操作。解碼器后跟全連接層,將通道數(shù)由32 合并為1 通道的圖像輸出,即為無偽影重圖像。自蒸餾瓶頸層在訓(xùn)練階段參與網(wǎng)絡(luò)的訓(xùn)練,并在測試階段去除。

本文將輸入圖像裁剪為160×256 像素,去除了非組織區(qū)域。采用PyTorch 框架進行實驗,利用Adam 優(yōu)化器進行反向傳播。

2.4 實驗結(jié)果定量分析

表1 和表2 分別給出了對比實驗和消融實驗的定量結(jié)果。通過對比實驗,可以看出:UNet++通過嵌套的網(wǎng)絡(luò)結(jié)構(gòu)對UNet 的跳連接進行了改進,獲得了比UNet 更好的實驗結(jié)果。經(jīng)典的去吉布斯偽影網(wǎng)絡(luò)GRACNN 通過設(shè)計的CNN 結(jié)構(gòu)提取偽影信息,本文的SD-SacUNet 比GRACNN 在PSNR 指標(biāo)上高出0.77 dB,SSIM 也提高了0.018 3。與其他兩個基于UNet 與Transformer 的算法UCTransNet 和Uformer相比,在PSNR上分別高出了0.35 dB、0.10 dB,SSIM 分 別提升 了0.004 1、0.000 6。與基于Swin Transformer 模塊的圖像恢復(fù)算法SwinIR 相比,兩項指標(biāo)分別提高了0.14 dB、0.003 3??偟膩碚f,本文算法結(jié)果在PSNR 和SSIM 這兩個圖像重建指標(biāo)上均有所提升,圖像重建效果相較于一些經(jīng)典算法框架取得了一定進步。

表1 CC359數(shù)據(jù)集在不同算法中的重建結(jié)果Tab.1 Reconstruction results of different algorithms on CC359 dataset

表2 CC359數(shù)據(jù)集上的消融實驗結(jié)果Tab.2 Ablation experimental results on CC359 dataset

表2 所作消融實驗將SD-UNet 與UNet 進行對比,PSNR高出了0.19 dB,SSIM 提升了0.014,通過對比得出自蒸餾訓(xùn)練方法在圖像重建任務(wù)可以在一定程度上提升精度。通過將SacUNet 和UNet 進行對比,兩項指標(biāo)分別提升了0.88 dB、0.026 8,由此可以得出基于自注意力連接的UNet 比傳統(tǒng)的UNet 具有更高的重建水平。SD-SacUNet 在兩項指標(biāo)中均獲得了明顯的提升,說明基于自蒸餾訓(xùn)練的自注意力連接UNet 結(jié)構(gòu)改進均有效,提升了網(wǎng)絡(luò)整體對于MRI 去吉布斯偽影重建的效果。

2.5 實驗結(jié)果定性分析

本文在處理網(wǎng)絡(luò)輸入圖像的過程中去除了一部分的高頻信息,因此,輸入圖像不僅含有吉布斯偽影,還含有一定程度影響圖像重構(gòu)細(xì)節(jié)的噪聲。根據(jù)可視化結(jié)果圖3,以及表1 和表2 定量結(jié)果進行綜合分析,UNet、UNet++與GRACNN這類基于CNN 的方法在去除吉布斯偽影的同時,邊緣區(qū)域存在一定的模糊,甚至是不正確的紋理。由于PSNR 指標(biāo)并不高,圖像中仍存在部分噪聲,對于局部組織結(jié)構(gòu)重建產(chǎn)生不良影響,并且重建后的圖像過于平滑,可能損失一部分結(jié)構(gòu)的細(xì)節(jié)信息?;赥ransformer 經(jīng)典模塊的算法,如Uformer 和SwinIR 以及基于UNet 與Transformer 相結(jié)合的算法,如UCTransNet,這三個算法均取得了比較好的去偽影重建效果,這說明了此類利用CNN 和Transformer 相結(jié)合的算法擁有良好的特征提取能力,證明了二者結(jié)合的有效性。與Uformer、SwinIR 等基于多個堆疊的Transformer 基本模塊的圖像恢復(fù)算法相比,本文算法僅在UNet 編解碼特征融合階段加入了Transformer 子模塊,通過將UNet 與Transformer模塊相結(jié)合的方式,降低了參數(shù)量,節(jié)省了大量的運算空間,并且通過自蒸餾訓(xùn)練,提高了重建結(jié)果。

圖3 不同算法在CC359數(shù)據(jù)集上的去偽影重建效果Fig.3 Reconstruction results of different algorithms with removal of Gibbs artifacts on CC359 dataset

通過細(xì)節(jié)比對(例如圖3 中箭頭所指區(qū)域),可以看出本文算法SD-SacUNet 可以很好地去除吉布斯偽影,恢復(fù)高頻細(xì)節(jié)并減輕模糊瑕疵,在保證原始結(jié)構(gòu)的同時,獲得更清晰的結(jié)構(gòu)和自然的紋理,并且不產(chǎn)生新的偽影,邊緣清晰,對不平滑的邊緣也有一定的理解能力,具有較高的對比度和清晰度。定量和定性分析證明了本文算法架構(gòu)在MRI 去偽影重建的特征表示方面是高效的。

3 結(jié)語

本文提出一種利用自注意力連接模塊替換UNet 原有跳連接的網(wǎng)絡(luò)結(jié)構(gòu),采用了自蒸餾方法進行訓(xùn)練,應(yīng)用于MRI去除吉布斯偽影的重建任務(wù)。通過UNet 編碼結(jié)構(gòu)完成對特征的提取,自注意力連接模塊將編碼端不同深度輸出特征進行注意力機制的計算。完成自注意力建模的特征與解碼器輸出特征進行融合,在解碼階段幫助圖像的重建。在圖像恢復(fù)過程中,自蒸餾訓(xùn)練利用深層精細(xì)化特征指導(dǎo)淺層網(wǎng)絡(luò)的訓(xùn)練,提升了訓(xùn)練效果。通過實驗對比表明,本文算法在去除吉布斯偽影的同時,能夠保留圖像的細(xì)節(jié),網(wǎng)絡(luò)結(jié)構(gòu)比較簡單,沒有采用復(fù)雜的嵌套結(jié)構(gòu)對不同尺度的特征進行融合和分配,保留了同分辨率特征的細(xì)節(jié)信息。與傳統(tǒng)圖像處理方法相比,深度學(xué)習(xí)算法運行速度快,不需要復(fù)雜的先驗知識和邊緣檢測等技術(shù),具有更高的魯棒性,在臨床大規(guī)模應(yīng)用也有很大優(yōu)勢,可以幫助醫(yī)生輔助診斷。具有一定的研究意義和臨床應(yīng)用價值。

本文算法仍然需要進一步優(yōu)化,通過改變注意力機制的運算方法,減小計算量,在目前UNet 與Transformer 相結(jié)合的研究熱點中,進一步挖掘其融合的可行性。對于卷積神經(jīng)網(wǎng)絡(luò)的處理可以考慮與注意力機制相結(jié)合,實時調(diào)整網(wǎng)絡(luò)節(jié)點權(quán)重,以便在UNet 特征提取階段,在獲取更高級語義特征的同時保留更多的細(xì)節(jié)傳遞到解碼器,進一步優(yōu)化重建圖像細(xì)節(jié)。在子塊融合時,可以考慮多分辨率信息的交互,或者基于注意力機制建立新型的特征融合方式,關(guān)注在特征融合方式上的多樣化。

猜你喜歡
吉布斯偽影解碼
《解碼萬噸站》
解碼eUCP2.0
中國外匯(2019年19期)2019-11-26 00:57:32
核磁共振臨床應(yīng)用中常見偽影分析及應(yīng)對措施
NAD C368解碼/放大器一體機
Quad(國都)Vena解碼/放大器一體機
基于MR衰減校正出現(xiàn)的PET/MR常見偽影類型
鐵粉與氯氣反應(yīng)能生成二氯化鐵嗎?
減少頭部運動偽影及磁敏感偽影的propller技術(shù)應(yīng)用價值評價
一種無偽影小動物頭部成像固定裝置的設(shè)計
吉布斯(Gibbs)自由能概念辨析
學(xué)園(2015年5期)2015-10-21 19:57:08
五常市| 漠河县| 成武县| 盐边县| 丰顺县| 南昌市| 花莲县| 海口市| 黄浦区| 盐池县| 禹城市| 岳普湖县| 芦溪县| 得荣县| 吉林省| 射洪县| 手游| 永丰县| 南漳县| 思南县| 阿勒泰市| 沭阳县| 晋江市| 泗水县| 冷水江市| 渝北区| 云霄县| 邢台市| 五台县| 泸西县| 蒙阴县| 大兴区| 襄城县| 峨边| 休宁县| 麦盖提县| 江陵县| 云南省| 隆化县| 尉氏县| 海阳市|