国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于Transformer的脊椎CT圖像分割

2023-11-22 01:20:02盧玲漆為民
中國圖象圖形學報 2023年11期
關鍵詞:解碼器脊椎編碼器

盧玲,漆為民

江漢大學人工智能學院,武漢 430056

0 引言

脊椎疾病已成為當代高發(fā)疾病且呈年輕化發(fā)展趨勢,因此其診斷和治療尤為關鍵。隨著人工智能技術的不斷發(fā)展,智能化診斷的需求不斷提高。在計算機輔助診斷下,使用分割算法分割出脊椎CT(computed tomography)影像中的感興趣區(qū)域,結合三維重建技術,可使醫(yī)生直觀清晰地觀察和剖析病灶區(qū)域,為模擬手術路徑及外科手術方案制定提供理論支撐,提高診斷效率和正確率。然而由于脊椎結構復雜,脊椎CT 影像中存在噪音干擾,脊椎邊緣模糊,分界不清等問題,加劇了脊椎分割的難度。

隨著人工智能技術和深度學習方法的迅猛發(fā)展,基于卷積神經網絡(convolutional neural network,CNN)的深度學習算法在醫(yī)學圖像分割領域上取得了顯著成效。Long 等人(2015)提出了首個端對端的針對像素級預測的全卷積神經網絡(full convolutional networks,FCN),解決了語義級別的圖像分割問題。但FCN 對細節(jié)信息不敏感,分割不夠精細,針對此問題,Ronneberger 等人(2015)提出了一種基于FCN 的U-Net 圖像分割模型,采用編碼器—解碼器結構及跳躍連接的設計模式,將淺層特征和深層特征進行融合,實現更精細的分割。由于U-Net 結構自身特點及醫(yī)學圖像結構固定、具有多模態(tài)等特點,使得U-Net 在醫(yī)學圖像分割上表現良好,成為醫(yī)學圖像分割的基準。由于卷積運算固有的局限性,導致基于CNN 的分割模型如U-Net存在長距離交互受限等問題。Transformer(Vaswani 等,2017)集成全局自注意力機制,可捕獲長距離的特征依賴,在自然語言處理(natural language processing,NLP)取得了廣泛的成功。Dosovitskiy 等人(2021)基于此提出了ViT(vision Transformer)模型,在圖像識別任務中獲得了更高的性能。此后,Transformer 便更廣泛地運用到計算機視覺領域,并表現出巨大的優(yōu)勢。由于Transformer的計算量很大且不能有效地捕獲區(qū)域特征,考慮到CNN 獲取局部特征及Transformer 捕獲全局特征的優(yōu)勢,許多研究人員將U-Net和Transformer進行結合并應用到語義分割任務(Chen 等,2021;Guo 和Terzopoulos,2021;Azad 等,2022)中,以捕獲局部和全局特征,獲得更好的分割性能。

基于深度學習的分割方法已在脊椎圖像的分割問題上有了成功應用。劉忠利等人(2018)基于FCN提出卷積、反卷積神經網絡模型對椎骨進行全自動分割。李賢和何潔(2018)使用3D 全卷積網絡分割椎骨,縮短了分割時間,分割效果較好。Kola?ík 等人(2019)使用3D Dense U-Net 分割胸椎和腰椎。田豐源等人(2020)使用AttentionNet(Sekuboyina 等,2017)定位脊椎,再使用改進的Dense-UNet(Li 等,2018))分割脊椎,分割精度優(yōu)于傳統(tǒng)Dense-UNet。金順楠等人(2021)將尺度殘差模塊及通道注意模塊引入到U-Net 網絡中分割脊椎椎骨,獲得了較高的分割精度及分割效率?;谏疃葘W習的方法在醫(yī)學圖像分割上效果顯著,但對分割精度有了更高的要求。

由于大多數對脊椎圖像的研究工作是基于CNN 模型開展的,存在一定的局限性,分割精度還有待提升。Transformer近年來才被應用到計算機視覺領域中且取得了一定的成功,但在脊椎CT圖像的分割任務上研究甚少。故本文以脊椎CT 圖像作為研究對象,旨在提出一種基于Transformer 的分割算法,結合CNN 與Transformer 的優(yōu)勢,實現對脊椎CT圖像的高效自動化分割,提高脊椎分割精度。主要研究內容包括:1)結合Transformer、注意力門控機制(attention gate,AG)(Oktay 等,2018)及U-Net 網絡,提出一種CNN 與Transformer 的混合分割模型TransAGUNet(Transformer attention gate U-Net),實現脊椎CT 圖像的自動化分割,以解決U-Net 遠距離傳輸受限、Transformer局部特征識別不足等問題,進一步提升脊椎分割精度。TransAGUNet 為編碼器—解碼器結構,編碼器采用CNN 和Transformer 混合架構,獲取豐富的局部與全局信息,其結構類似于TransUNet 的編碼結構。解碼器由CNN 架構組成,在跳躍連接中融入AG,將得到的注意力圖與解碼器上采樣獲得的特征圖進行拼接,融合低層與高層特征從而實現更精細的分割。將經過跳躍連接后拼接的特征圖進行兩次卷積操作,增強網絡對脊椎的特征提取能力,再進行一次1 × 1 卷積降維,減少網絡參數量;2)設計對比實驗和消融實驗,驗證模型的有效性。實驗使用Dice Loss 與帶權重的交叉熵之和作為損失函數,以解決正負樣本分布不均的問題。將提出的模型在VerSe2020(vertebrae segmentation)數據集上測試,分割結果在其余6 種CNN 分割模型及Transformer與CNN混合分割模型中最佳。

1 基于深度學習的醫(yī)學圖像分割模型

1.1 CNN分割模型

基于卷積神經網絡(CNN)的分割模型已成功地應用在眾多醫(yī)學圖像分割任務中,如腦腫瘤分割(趙奕名 等,2020)、胸部多器官分割(吉淑瀅和肖志勇,2021)、淋巴結分割(劉羽 等,2022)等。由于U-Net(Ronneberger 等,2015)在醫(yī)學圖像分割上取得了很好的效果,一系列U-Net 的變型網絡模型被相繼提出。Oktay 等人(2018)提出Attention U-Net,將提出的注意力門控機制(AG)與U-Net 相結合,首次在醫(yī)學圖像的CNN 中使用soft attention,增加了模型對前景像素的敏感度,基于網格的AG 使注意力系數更關注局部區(qū)域特征,抑制無關區(qū)域。之后,Xiao等人(2018)針對視網膜血管成像限制及光源干擾等分割任務的難點提出了Res-UNet(residual U-Net),該模型將殘差網絡ResNet(residual neural network)(He等,2016)和U-Net 進行了融合,增加了網絡的深度,防止過擬合,提高了模型的準確度。Zhou 等人(2018)基 于DenseNet(dense network)(Huang 等,2017)思想提出U-Net++,使用密集的跳躍連接,通過特征疊加的方式整合不同的特征,是一種深度監(jiān)督的編碼器—解碼器網絡。Jha 等人(2019)提出Res-UNet++,在Res-UNet 的基礎上對圖像的后處理部分使用了條件隨機場(conditional random filed,CRF)及測試時數據增強(test time augmentation,TTA),使用空洞空間卷積池化金字塔模塊(atrous spatial pyramid pooling,ASPP)代替Res-UNet 中的橋接部分,分割性能優(yōu)于Res-UNet,在難以分辨的息肉問題上表現優(yōu)異。Huang 等人(2020)提出U-Net3+,表示U-Net++雖然使用了密集的跳躍連接,但未充分利用多尺度提取足夠信息,因此在U-Net3+中提出了全尺度跳躍連接(full-scale skip connections),精度較U-Net++有一定的提升。雖然這些方法可在一定程度上提高醫(yī)學圖像的分割精度,但仍存在長距離交互受限、全局信息提取不足等問題。

1.2 Transformer分割模型

Transformer(Vaswani 等,2017)最初應用于自然語言處理并在很多任務中獲得了巨大的成功,如釋義短語生成(Egonmwan 和Chali,2019)、語音識別(Shi 等,2021)及語音合成(Chen 和Rudnicky,2022)等。受此啟發(fā),研究人員將其運用到計算機視覺領域,在圖像分類(Dosovitskiy 等,2021)、語義分割(Strudel 等,2021)等計算機視覺(computer vision,CV)任務中應用廣泛。Dosovitskiy 等(2021)提出的ViT 模型較傳統(tǒng)的CNN 有更高的性能。ViT 模型將輸入圖像分成固定大小的圖像塊Patches,然后通過線性變換得到Patch embedding,并使用Position embedding 編碼位置信息,再將經過以上處理的Patches 輸入到Transformer 的編碼器中進行特征提取,最后通過多層感知機(multi-layer perceptron,MLP)完成分類。Segmenter(Transformer for semantic segmentation)(Strudel 等,2021)是基于ViT 改進的純Transformer 圖像語義分割模型,是一種完全基于Transformer的編碼器—解碼器架構,編碼器采用ViT類似結構,解碼器使用逐點線性映射或mask Transformer,可以很好地捕獲全局上下文信息,提高了圖像分割性能。

1.3 CNN 與Transfomer混合分割模型

對于醫(yī)學圖像分割問題,大部分的研究工作是基于CNN 分割模型展開的,近年來由于Transformer在計算機視覺領域取得了重大的突破,研究者將CNN 與Transformer 相結合,提出的混合分割模型較僅有的CNN 模型更具全局特征提取能力,在醫(yī)學圖像分割問題上取得了進一步成功。Chen 等人(2021)提出的TransUNet 分割模型首先利用 CNN(ResNet50)提取低級特征,然后使用ViT 進行編碼,對全局交互進行建模,并結合跳躍連接,在Synapse多器官分割數據集上分割性能優(yōu)于U-Net、Attention U-Net,成為醫(yī)學圖像分割的強大替代方案。隨后,一系列基于CNN 與Transformer 的混合分割模型相繼提出,如TransBTS(Transformer brain tumor segmentation)(Wang 等,2021)、nnFormer(not-another Transformer)(Zhou 等,2022)、TransNorm(Transformer spatial normalization)(Azad 等,2022)等。TransBTS 首次使用3D CNN中的Transformer分割MRI(magnetic resonance imaging)腦腫瘤,編碼器首先使用3D CNN 提取空間特征圖,然后將特征圖映射并改進后的tokens 傳入Transformer 中進行全局建模,解碼器采用漸進式上采樣得到預測的分割圖,在BraTS2019(brain tumor segmentation)數據集上進行測試,分割性能優(yōu)于最先進的3D MRI腦腫瘤分割方法。TransNorm 從Transformer 模塊中推導出一個空間歸一化模塊,與跳躍連接后的特征圖進行拼接,自適應校準跳躍連接路徑,在Synapse、ISIC2017(international skin imaging collaboration)、ISIC2018 這3 個經典的醫(yī)學圖像分割數據集上均取得了較好的分割性能,分割精度高于TransUNet。

2 本文方法

針對脊椎CT 圖像分割,本文結合Transformer、AG 和U-Net,提出一種CNN 與Transformer 混合分割模型TransAGUNet(Transformer attention gate U-Net),構成編碼—解碼結構,其模型結構如圖1 所示。編碼結構采用 CNN 與Transfomer 混合架構,具體由ResNet50 與ViT 模型(Dosovitskiy,2021)組合構成,與TransUNet(Chen 等,2021)的編碼結構類似。對于輸入的脊椎圖像,首先通過ResNet50 提取低級特征,保留3 次下采樣對應的特征圖,然后進行塊編碼(Patch embedding)與位置編碼(Position embedding),將得到的patches 輸入到Transformer 編碼器中,學習長期上下文依賴關系,提取全局特征。在解碼部分前3 層的跳躍連接中融入AG,得到下采樣特征圖對應的注意力圖(attention map),再與下一層經過上采樣后的特征圖進行拼接,然后進行兩次普通卷積及一次1 × 1 卷積進行解碼。最后一層將上一層上采樣后的特征圖通過兩次普通卷積與一次1 × 1卷積,最后進入二分類器,逐像素區(qū)分前景和背景,得到脊椎分割預測圖。

2.1 編碼器

2.1.1 Embedding

模型編碼器中的Embedding 部分包括Patch embedding 和Position embedding。用H、W表示圖像的高、寬,C表示圖像通道數。對于輸入維度為H×W×C的圖像,Patch embedding 操作將 圖像重 塑(reshape)成維度為N×P2×C的patchesxp。其中,N=HW∕P2,每個patch 的大小為P×P,通道數為C,分別用表示,然后使用線性投影E將patches 映射到D維空間。為了保留patches 的空間信息,對其疊加Position embedding,用Epos表示。整個過程可表示為

式中,z0表示經過Embedding 層后得到的特征圖,E∈,Epos∈RN×D。

2.1.2 Transformer編碼器

Transformer 編碼器將圖像經過Embedding 得到的patches作為輸入,其整體結構如圖1(b)所示,由n層構成,本文采用的n為12。每一層由多頭自注意力(multi-head self-attention,MSA)和多層感知機(MLP)模塊組成。其中MLP 由兩層線性層組成,兩層均使用GELU(Gaussian error linear unit)作為激活函數。Transformer encoder第n層的輸出可表示為

式中,LN代表層標準化操作(layer normalization)(Ba等,2016),zn表示經過編碼后的圖像表示。

2.2 解碼器

2.2.1 注意力門控機制

CNN 在對形變程度較大的醫(yī)學圖像進行分割時,通常采取的做法是先定位,確定感興趣區(qū)域(region of interest,ROI),再進行分割。注意力門控機制AG 參數計算量小,很容易與CNN 模型進行整合,將CNN 與AG 進行結合,也可達到此效果。AG自動學習目標的外形和尺寸,突出顯著特征,抑制無關區(qū)域的特征響應,通過基于概率的soft attention 替代定位模塊,無需劃分ROI,通過少量計算量來提高模型的敏感度與準確率。AG 的具體結構圖如圖2所示。

圖2 AG結構圖Fig.2 AG structure diagram

首先將經過上采樣后維度為H×W×C的特征圖xu與經過CNN提取的維度為H×W×C的特征圖xs進行并行處理,分別使用3 × 3的卷積及批歸一化(batch normalization,BN)操作得到維度為H×W×(C∕2)的和,再將與對應元素相加,然后進行ReLU(rectified linear unit)操作,隨后進行1 × 1 輸出通道數為1的卷積操作,再使用BN、sigmoid激活函數得到維度為H×W× 1的注意力系數權重α,最后使用xs乘以α,得到維度為H×W×C的注意力特征圖xr。

2.2.2 解碼結構

解碼器采用的是CNN 架構,使用二維雙線性上采樣2 倍率逐層恢復圖像尺寸。在跳躍連接自下而上的3層中融入AG 結構,將淺層特征與高層特征進行融合,實現精細分割。以第3 層結構為例,首先將CNN 提取的特征圖xs∈RH′×W′×C′經過AG 得到注意力特征圖xr,再將xr與下一層經過上采樣后的特征圖xu在通道維度上進行拼接,得到特征圖x1∈RH′×W′×2C′;然后進行兩次3 × 3輸出通道數為C′的卷積操作,使用ReLU 激活函數,得到特征圖x2∈RH′×W′×C′;再使用1 × 1 輸出通道數為C′′的卷積操作降維,得到特征圖x3∈RH′×W′×C′′。本文4 次上采樣后設置的輸出通道數分別為[256,64,32,16],最后一次上采樣特征圖經過兩次3 × 3 及一次1 × 1 卷積操作后,得到特征圖x∈R2H′×2W′×16,解碼器具體結構如圖1(a)所示。

2.3 損失函數

2.3.1 帶權重的交叉熵損失函數

交叉熵損失(cross entropy loss,CE Loss)是基于分布的損失函數,網絡訓練過程中梯度下降更新快,常作為分類器的損失函數,對每個類別的權重相同,計算式為

式中,N表示樣本個數,m表示樣本分類數,yij表示真實值,pij表示預測值。

對于醫(yī)學圖像分割任務,往往是對CT切片后的圖像進行逐像素分類,劃分前景和背景區(qū)域。通常伴隨前景和背景分布不均的問題,即背景像素偏多,前景像素偏少的情況,導致模型訓練更易于學習背景特征,而很難學習前景特征,從而降低模型對前景區(qū)域的分割精度。因此對CE Loss進行改進,從而得到帶權重的交叉熵損失(weighted cross entropy loss,WCE Loss),對較少類別進行加權,計算式為

式中,wj為每個類別的權重。

2.3.2 Dice Loss

Dice Loss 由Milletari 等人(2016)為應對語義分割任務中正負樣本不平衡問題而提出。來源于用來評估樣本相似度的度量函數Dice 相似系數,計算式為

式中,X和Y分別表示真實和預測輪廓區(qū)域所包含的點集。

Dice Loss 是一個區(qū)域相關的損失函數,即當前像素點的損失及梯度值與該點及其他像素點的預測值及真實結果(ground truth)相關。Dice Loss 對于固定大小的正樣本區(qū)域計算的損失是相同的,且在訓練過程中更傾向于挖掘前景區(qū)域,從而在一定程度上解決正負樣本不均的問題。

本文主要分割出脊椎與非脊椎部分,即逐像素區(qū)分前景和背景兩類。為解決脊椎圖像前景和背景像素不平衡問題,且考慮到Dice Loss 訓練不穩(wěn)定,在極端情況下會出現梯度飽和現象,因此結合WCE Loss 進行改進,在模型訓練中采用Dice Loss+WCE Loss作為損失函數,從而提高模型的分割精度。

3 實驗

3.1 數據集及預處理

實驗使用的CT 數據集來自于國際醫(yī)學圖像計算和計算機輔助干預協(xié)會(Medical Image Computing and Computer Assisted Intervention Society,MICCAI)2020 年舉辦的脊椎分割挑戰(zhàn)賽數據集VerSe2020(L?ffler 等,2020)。VerSe2020 包含訓練集和測試集各100 例,包括頸椎(C1-C7)、胸椎(T1-T12)和腰椎(L1-L5),是目前為止最大的脊椎分割數據集,其分割真實圖像由專業(yè)醫(yī)生手工標注。從100 例數據集中分別篩選出72例、8例作為本次實驗的訓練集、驗證集,然后在測試集中隨機選取16 例作為本次實驗的測試集。

首先將選取的CT 數據統(tǒng)一調整為RAI(right anterior inferior)方向,再進行切片處理。由于相鄰片非常相似,防止產生過多冗余數據,本次實驗采取間隔2 片進行切片操作,將3D 體素數據轉化為2D圖像,并舍棄只含有背景部分的圖像,最終得到訓練集圖像3 168 幅,驗證集圖像403 幅,測試集圖像774 幅。為了減少網絡訓練計算量,將所有圖像均裁剪為256 × 256 像素,并轉化為對應數據集的npy(numpy)文件,以提高數據讀取速度。

3.2 實驗環(huán)境

實驗基于Ubuntu16.04操作系統(tǒng),使用4塊顯存為8 GB 的NVIDIA GeForce GTX 1070Ti 顯卡,分布式數據并行(distributed data parallel,DDL)模式進行多卡并行訓練,使用Python3.8 作為開發(fā)語言,開發(fā)框架為PyTorch1.11。實驗batch size 設為8,epochs為100,使用梯度下降法(stochastic gradient descent,SGD)優(yōu)化器,初始學習率設為0.04、動量為0.9、權重衰減率為0.000 1。學習率采用動態(tài)更新策略,在每一次迭代中根據學習輪次線性降低。使用正態(tài)分布對數據進行初始化,在編碼和解碼階段加入BN層以加速網絡收斂。

3.3 評價指標

本文主要采用Dice 相似系數(Dice similarity coefficient,DSC)、均交并比(mean intersection over union,mIoU)、召回率(recall)、精確率(precision)和像素準確率(pixel accuracy,PA)作為評價指標來評估模型對脊椎CT 圖像的分割性能。其中,使用mIoU 和PA 作為評價指標,不僅考慮到對脊椎的分割,同時考慮到對背景的精確識別,通過混淆矩陣(confusion matrix)來實現。

3.4 對比實驗

為客觀評估提出方法的分割性能,在相同實驗環(huán)境及數據集下,將提出的CNN 與Transformer 混合分割模型TransAGUNet 與優(yōu)秀的CNN 分割模型U-Net、Attention U-Net、U-Net++、U-Net3+及CNN 與Transformer 混合分割模型TransUNet、TransNorm 的測試結果進行對比,實驗結果如表1所示。

表1 不同模型在VerSe2020數據集上的分割結果對比Table 1 Comparison of segmentation results of different models on the VerSe2020 dataset

由表1 可見,U-Net模型脊椎分割的Dice 系數為0.743 1,其余各模型較此均有一定的提升。其中,Attention U-Net 在CNN 架構的對比分割模型中Dice系數提升最為顯著,提升了2.38%,可見Attention U-Net 在U-Net 的基礎上融入AG 后,模型的性能得到了顯著地提升,因而本文在模型設計過程中考慮到了AG 的融入。提出的TransAGUNet 模型在Dice系數、mIoU 及召回率這3 個評價指標上都取得了最好的結果。TransAGUNet所得的Dice系數為0.787 8,較CNN 分割模型U-Net、Attention U-Net、U-Net++、U-Net3+分別提升了4.47%、2.09%、2.44%,2.23%,較Transformer 與CNN 混合分割模型TransUNet、TransNorm 分別提升了2.25%、1.08%;mIoU 達到了0.895 2,與以上6 種分割模型相比,分別提高了0.78%、0.42%、0.06%、0.32%、0.93%和1.14%,反映了TransAGUNet分割結果與真實值的高相似度;召回率達到了0.848 7,表明模型能較準確地識別前景部分;PA達到了0.994 0,由于背景部分占比較大,PA值主要反映了對模型對背景的精確識別能力。綜上可知,本文提出的模型分割結果與真實值相似度較高,能較好地識別前景與背景,分割性能優(yōu)于其余6種模型,有效地提升了脊椎CT圖像的分割精度。

3.5 消融實驗

3.5.1 提出的解碼結構及AG對模型性能的影響

TransUNet是目前較新的、分割性能較優(yōu)的CNN與Transformer 混合分割模型,從表1可知,其Dice 系數與mIoU 均高于U-Net。由于提出的模型與TransUNet 的Backbone 部分類似,較TransUNet 相比,主要體現在解碼結構及跳躍連接部分的不同,為了更好地反映提出的CNN 解碼結構及在跳躍連接部分融入AG 對模型性能的影響,以TransUNet 作為基準,設置相應的消融實驗,實驗結果如表2 所示。其中,Model1 與TransUNet 相比改變了解碼結構,Model2 在Model1 的基礎上在跳躍連接部分加入了AG,即本文提出的TransAGUNet模型。

表2 提出的解碼結構及AG對模型性能的影響Table 2 The influence of proposed decoding structure and AG on model performance

從表2 可見,TransUNet 的Dice 系數為0.765 3,mIoU 為0.885 9,召回率為0.825 0。Model1 與TransUNet 相比,性能有了一定的提升,Dice 系數、mIoU及召回率分別提升了0.75%、0.45%和2.34%。由此可見,本文設計的解碼結構可有效地融合編碼結構提取的特征,恢復圖像大小。Model2 在Model1 的基礎上Dice 系數提升較大,提升了1.5%,可知加入AG 后,增強了對顯著特征的提取能力,分割性能得到了明顯提升。

3.5.2 AG連接數量對模型性能的影響

為了進一步探究AG 在跳躍連接中的連接數量對模型性能的影響,在模型結構中的跳躍連接中使用不同數量的AG 進行實驗,實驗結果如表3 所示。其中,AG=0 表示在跳躍連接中不加入AG,即為上文中的Model1,AG=3 即為本文所提出的TransAGUNet 模型。從表3 可見,Dice 系數隨跳躍連接中AG 數量的增加而增加,不加入AG 所得到的Dice 系數最小,在1∕2、1∕4、1∕8 分辨率尺度上的3 個跳躍連接中加入AG,所得的模型性能最優(yōu)。

表3 AG連接數量對模型性能的影響Table 3 The Influence of the number of AG connections on the model performance

3.6 分割結果可視化對比

為了將本文模型與TransUNet 模型的分割結果進行更直觀的展示與對比,在測試集上將兩者的分割預測圖均轉化為灰度圖,并選取部分數據,其結果同輸入圖像及標簽的對比如圖3所示。其中,第1幅測試圖的分割部位為C1-C7 和T1-T2;第2 幅測試圖的分割部位為T10-T12 和L1-L5;第3 幅測試圖的分割部位為T2-T12和L1-L5。

圖3 分割結果可視化對比圖Fig.3 Comparative visualization of segmentation results((a)input images;(b)ground truth;(c)TransUNet;(d)ours)

從圖3(c)中可見TransUNet 在第1 幅分割圖中對脊椎分割細節(jié)上缺乏一定的敏感度,存在誤分割現象,錯將背景預測為頸椎椎骨;在第2 幅分割圖中存在欠分割現象,未能完整分割出最后一節(jié)的腰椎椎骨結構;在第3 幅分割圖上既錯將背景預測為胸椎椎骨,又缺乏對腰椎的完整分割。圖3(d)中即提出的模型中在跳躍連接加入了AG 結構后,加強了對椎體結構的識別能力,語義信息丟失問題也得到了改進,欠分割問題大大減少,分割結果更接近標簽值,分割性能更好。

4 結論

本文結合Transformer、AG 和U-Net,提出一種CNN 與Transformer 混合分割模型TransAGUNet,實現對脊椎CT 圖像的全自動分割。TransAGUNet 使用Transformer 和CNN 混合架構作為編碼器,提取語義和遠程上下文特征;使用CNN 結構作為解碼器,在跳躍連接部分加入注意力門控機制AG,加強對顯著目標區(qū)域的特征提取,抑制無關區(qū)域;使用Dice Loss與帶權重的交叉熵之和作為損失函數以解決正負樣本不均衡的問題。實驗結果表明,本文模型與其余6 種對比網絡模型包括CNN 分割模型及Transformer 與CNN 混合分割模型在脊椎CT 圖像的自動分割任務上取得了最高的分割精度,同時表明在Transformer 與CNN 混合分割模型中加入注意力門控機制能有效地提高脊椎CT 圖像的分割精度。本文算法對使用深度學習算法分割脊椎CT 圖像的研究工作提供了重要參考,但仍存在分割細節(jié)不足的問題,如對于部分腰椎結構未能完整分割出來,模型設計仍有改進的地方,這也是今后要研究的重點。

猜你喜歡
解碼器脊椎編碼器
科學解碼器(一)
科學解碼器(二)
科學解碼器(三)
線圣AudioQuest 發(fā)布第三代Dragonfly Cobalt藍蜻蜓解碼器
基于FPGA的同步機軸角編碼器
基于機器學習和幾何變換的實時2D/3D脊椎配準
自動化學報(2018年7期)2018-08-20 02:58:46
你想不到的“椎”魁禍首:皮膚病可能與脊椎有關
華人時刊(2017年15期)2017-10-16 01:22:27
基于PRBS檢測的8B/IOB編碼器設計
JESD204B接口協(xié)議中的8B10B編碼器設計
電子器件(2015年5期)2015-12-29 08:42:24
多總線式光電編碼器的設計與應用
岫岩| 枣阳市| 井陉县| 盱眙县| 呼伦贝尔市| 汶上县| 洛浦县| 迁西县| 胶南市| 江北区| 扶沟县| 巴青县| 报价| 丰镇市| 灯塔市| 安图县| 广州市| 汝南县| 黑水县| 陕西省| 渭源县| 正宁县| 芷江| 大姚县| 牟定县| 象州县| 苍南县| 文化| 澜沧| 遂平县| 左云县| 普安县| 浮梁县| 屯昌县| 永清县| 宜都市| 富源县| 彭阳县| SHOW| 平山县| 都安|