国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進U2-Net網(wǎng)絡(luò)的多裂肌MRI圖像分割算法

2024-06-20 20:18:58王子民周悅關(guān)挺強郭欣胡巍王茂
關(guān)鍵詞:裂肌注意力特征

王子民 周悅 關(guān)挺強 郭欣 胡巍 王茂

摘要:針對腰間盤突出患者MRI圖像多裂肌病變部位分割精度較低的問題,提出一種改進的U2-Net網(wǎng)絡(luò)的新模型,目標(biāo)是使得編碼和解碼的子網(wǎng)絡(luò)通過一系列嵌套的跳躍路徑來相互連接.重新設(shè)計U2-Net模型中RSU-7、RSU-6、RSU-5、RSU-4中間的跳躍連接,RSU-4F部分不變,用來降低編碼解碼子網(wǎng)絡(luò)中特征圖的語義缺失.為了提取到高質(zhì)量的多裂肌特征,加入通道注意力模塊,通過學(xué)習(xí)每個通道的權(quán)重,使網(wǎng)絡(luò)能夠更好地關(guān)注對任務(wù)有貢獻的通道,從而提升模型的性能.為驗證模型的有效性,在多裂肌MRI圖像數(shù)據(jù)集上進行實驗,發(fā)現(xiàn)相較于U-Net、U2-Net、U-Net++網(wǎng)絡(luò)結(jié)構(gòu),骰子系數(shù)(Dice)、豪斯多夫距離(HD)以及均交并比(MIoU)3個指標(biāo)均有優(yōu)化.實驗結(jié)果表明,本文提出的算法對于多裂肌的MRI圖像分割有較好的效果,能夠輔助醫(yī)生對病情做出判斷.

關(guān)鍵詞磁共振成像(MRI);深度學(xué)習(xí);醫(yī)學(xué)圖像分割;多裂肌;注意力機制;稠密連接;U2-Net

中圖分類號TP391.4

文獻標(biāo)志碼A

0引言

腰椎間盤突出癥(LumbarDiscHerniation)是臨床常見病和多發(fā)病,好發(fā)于成年人.至少95%的腰椎間盤突出癥發(fā)生于L4-5和L5-S1[1].國外相關(guān)研究顯示腰椎間盤突出癥發(fā)病率大約2%~3%,而35歲以上的男性發(fā)病率約4.8%,35歲以上女性發(fā)病率約2.5%[2].既往研究表明,腰痛與多裂肌萎縮密切相關(guān)[3].腰椎間盤突出癥是一種以腰椎疼痛和腿部疼痛為特征的疾病,由于纖維環(huán)破裂后動脈粥樣硬化核突出導(dǎo)致神經(jīng)根部壓縮[4].由于腰骶部為人體主要承重部位,頻繁參與各種旋轉(zhuǎn)等大幅度動作,容易導(dǎo)致多裂肌疲勞和功能性下降[5],誘發(fā)腰椎間盤突出和復(fù)發(fā).肌肉萎縮在影像學(xué)上主要表現(xiàn)為肌肉體積縮小和肌內(nèi)脂肪浸潤增加[6].磁共振成像(MagneticResonanceImaging,MRI)是影像學(xué)診斷進入三維空間的標(biāo)志,對軟組織的分辨率高,可以準(zhǔn)確看到椎間盤的突出位置、突出方向和突出大小,可以提供更準(zhǔn)確的影像學(xué)診斷信息,在臨床上使用較多,是影像學(xué)中診斷腰間盤突出癥的首選方法[7].然而,由于MRI圖像的對比度較低,醫(yī)生需要手動描繪多裂肌的橫截面積和脂肪浸潤情況,而不同的醫(yī)生可能會導(dǎo)致閱片結(jié)果的差異.因此,運用深度學(xué)習(xí)技術(shù)對多裂肌病變區(qū)域,即多裂肌脂肪浸潤面積進行分割,可有效提升診斷準(zhǔn)確性,為醫(yī)生的診療工作提供更加便捷的條件.

目前,脊椎CT圖像分割方法主要有基于傳統(tǒng)方法和基于深度學(xué)習(xí)方法兩類.傳統(tǒng)脊椎CT圖像分割方法,例如:Aslan等[8]使用統(tǒng)計水平集方法分割脊椎,但該方法需要利用期望最大化算法進行初始化和參數(shù)估計;Rasoulian等[9]提出一種基于配準(zhǔn)的脊椎CT圖像分割技術(shù),并建立了相應(yīng)統(tǒng)計的多脊椎形狀+姿勢模型,該模型可以捕獲脊椎形狀和姿態(tài)的變化,同時減少配準(zhǔn)參數(shù)的數(shù)量;Lim等[10]提出一種改進水平集的脊椎分割框架,該框架通過Willmore流提取局部幾何形狀特征,并利用先驗形狀核密度估計器獲取所需的先驗知識,從而能夠處理因噪聲污染導(dǎo)致信息缺失的圖像.近年來,深度學(xué)習(xí)[11]應(yīng)用廣泛,基于深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)的方法[12-13]已成功地打破傳統(tǒng)手工提取特征方法的瓶頸,特別是全卷積神經(jīng)網(wǎng)絡(luò)[14](FullyConvolutionalNetwork,F(xiàn)CN)、金字塔場景解析網(wǎng)絡(luò)[15]、DeepLab[16]、U-Net[17]及U-Net的變體[18-20],這些基于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)因優(yōu)異的性能在醫(yī)學(xué)圖像處理中取得了不錯的成果[21-22].在針對脊椎圖像分割方法研究上,Zhang等[23]提出一種基于PointNet++的頸椎分割方法.該方法需對CT圖像進行預(yù)處理,以及對PointNet++分割結(jié)果做后處理,這雖然提高了分割的準(zhǔn)確度,但是僅使用了點云邊緣信息,強度信息利用率較低,導(dǎo)致對一些精細(xì)的結(jié)構(gòu)分割不全.Kuok等[24]提出一種基于全卷積密集網(wǎng)絡(luò)的胸腰椎分割方法.該方法將脊椎分割結(jié)果和椎間平面檢測結(jié)果相結(jié)合重建出了脊椎的三維模型,但是由于數(shù)據(jù)集較少,導(dǎo)致網(wǎng)絡(luò)泛化性能不夠.為獲取更多的細(xì)節(jié)信息,許多學(xué)者研究了不同形式的注意力模塊,例如:Ramachandran等[25]利用一種自注意模塊取代空間卷積,以提高性能并減少計算工作量;Hu等[26]提出采用壓縮和激勵注意力模塊構(gòu)建卷積特征通道之間的相互依賴性,用以提高網(wǎng)絡(luò)的特征表示能力;Oktay等[27]提出AttentionU-Net,該網(wǎng)絡(luò)設(shè)計了注意力門控機制(AttentionGate,AG),然后將AG模塊替換U-Net的跳躍連接,有效地抑制了網(wǎng)絡(luò)對無關(guān)區(qū)域的學(xué)習(xí),同時使網(wǎng)絡(luò)關(guān)注學(xué)習(xí)與任務(wù)有關(guān)區(qū)域;Zhou等[28]提出U-Net++,該網(wǎng)絡(luò)在U-Net基礎(chǔ)上設(shè)計了嵌套結(jié)構(gòu)和密集跳躍連接,解決了不同場景應(yīng)用對網(wǎng)絡(luò)深度的要求,同時使解碼器更好地融合多尺度信息;Huang等[29]提出U-Net3+,它采用全尺度跳躍連接將不同尺度特征圖的語義信息相結(jié)合,同時通過深度監(jiān)督從全尺度聚合的特征圖中學(xué)習(xí)層次表示;Qin等[30]提出的U2-Net網(wǎng)絡(luò)已經(jīng)在顯著性目標(biāo)檢測、人像分割、自然場景分割等任務(wù)上取得了顯著的成果,并成為圖像分割領(lǐng)域的重要參考模型之一.相比于以上介紹的網(wǎng)絡(luò),U2-Net[30]具有更深的網(wǎng)絡(luò)結(jié)構(gòu)和更多的卷積模塊,它能夠更好地處理復(fù)雜的圖像場景,提取更豐富的特征信息,并且性能更優(yōu).但上述模型普遍存在邊界預(yù)測不準(zhǔn)確、圖像細(xì)節(jié)分割不夠明確的問題.

本文主要工作包括:

1)基于U2-Net[30]網(wǎng)絡(luò),引入稠密連接模塊,重新設(shè)計RSU-7層、RSU-6層、RSU-5層、RSU-4層的跳躍連接,以此抓取不同層次的特征,獲得不同層次的感受野;

2)引入通道注意力機制模塊,每個特征賦予不同的權(quán)重,從而關(guān)注重要的特征并抑制不重要的特征,提高分割精度.

1本文方法

1.1實驗數(shù)據(jù)介紹

本研究的實驗數(shù)據(jù)由合作醫(yī)院提供.研究使用的初始數(shù)據(jù)集包括310幅腰椎間盤突出患者的多裂肌MRI圖像,這些圖像均呈現(xiàn)了多裂肌在腰椎間盤突出患者中的形態(tài).多裂肌的脂肪浸潤由兩名外科醫(yī)生使用labelme圖像標(biāo)注軟件標(biāo)注,并由一名脊柱專家進行檢查.在擴充數(shù)據(jù)并根據(jù)患者分配選擇數(shù)據(jù)集后,984個數(shù)據(jù)集被用作訓(xùn)練集、108個被用作驗證集、152個被用作測試集.

1.2數(shù)據(jù)預(yù)處理和數(shù)據(jù)擴增

在成像過程中,MRI圖像或多或少會受到設(shè)備電壓、信號強度和受試者衣著的影響.這些因素使得圖像信噪比下降,導(dǎo)致最終結(jié)果不理想.因此,選擇高斯濾波器來降低圖像噪聲.由于分割出的多發(fā)性畸形區(qū)域與其他區(qū)域的灰度差異較小,對分割的準(zhǔn)確性略有影響,因此,對圖像進行自適應(yīng)直方圖平滑處理,增加多發(fā)性畸形區(qū)域與其他區(qū)域的對比度,這樣可以減少無關(guān)區(qū)域?qū)δ繕?biāo)區(qū)域分割的影響.此外,由于數(shù)據(jù)集樣本量少,對數(shù)據(jù)進行數(shù)據(jù)擴增,具體的方法包括:旋轉(zhuǎn)操作設(shè)置為順時針、逆時針旋轉(zhuǎn)30°和60°;鏡像操作設(shè)置為水平翻轉(zhuǎn)、垂直旋轉(zhuǎn).?dāng)?shù)據(jù)預(yù)處理后的結(jié)果如圖1所示.

1.3SE-U2Net++算法

U2-Net網(wǎng)絡(luò)的結(jié)構(gòu)類似于U-Net網(wǎng)絡(luò),它是一種U型網(wǎng)絡(luò)結(jié)構(gòu),具有編碼和解碼的能力.U2-Net網(wǎng)絡(luò)模型具備多層特征提取的能力,且其網(wǎng)絡(luò)結(jié)構(gòu)更為復(fù)雜,能夠更加深入地挖掘圖像信息的多層次結(jié)構(gòu).由于采用了殘差結(jié)構(gòu),因此降低了對計算和內(nèi)存的需求,進而提高了系統(tǒng)的效率和可靠性.

本模型(SE-U2Net++)在U2-Net整體編解碼網(wǎng)絡(luò)結(jié)構(gòu)中還嵌套了編解碼的子網(wǎng)絡(luò),在此基礎(chǔ)上重新設(shè)計U2-Net模型中RSU-7、RSU-6、RSU-5、RSU-4中間的跳躍連接,RSU-4F部分不變.這些重新設(shè)計的跳躍連接部分即為稠密連接模塊,可以降低編碼和解碼過程中的語義缺失.此外,為了提取到高質(zhì)量的多裂肌特征,還加入了通道注意力模塊,通過使用注意機制來增加表現(xiàn)力、聚焦重要特征、抑制無關(guān)特征,有效地保持網(wǎng)絡(luò)信息的流動性,增強了表達(dá)能力.本文提出的分割模型如圖2所示.

1.3.1稠密連接模塊

在深度學(xué)習(xí)中,長連接(LongConnections)和短連接(ShortConnections)是兩種常見的連接方式.長連接可以幫助緩解梯度消失或梯度爆炸的問題,特別是在深層網(wǎng)絡(luò)中,由于信息可以跨層級傳播,梯度可以更輕松地通過網(wǎng)絡(luò)傳播到較淺的層,從而使得網(wǎng)絡(luò)更容易訓(xùn)練.此外,長連接可以促進特征的重用和信息的傳遞.通過將前面層的特征與后面層的特征相加或連接,可以使得網(wǎng)絡(luò)更加關(guān)注重要的特征,并避免信息丟失,這對于處理細(xì)節(jié)信息和保留上下文信息都是有益的.而短連接可以實現(xiàn)多層特征的融合,從而允許網(wǎng)絡(luò)同時利用不同層級的特征信息.這樣的融合機制可以提高網(wǎng)絡(luò)的表示能力,增強對不同尺度和抽象級別的特征的理解.同時,短連接可以傳遞低層特征的細(xì)節(jié)信息到高層,這對于任務(wù)中需要處理細(xì)粒度結(jié)構(gòu)或紋理的情況非常有用.通過保留和傳遞細(xì)節(jié)信息,網(wǎng)絡(luò)可以更好地還原原始輸入的細(xì)節(jié).因此,長連接和短連接共同作用可以提高網(wǎng)絡(luò)的性能和表達(dá)能力.

本文通過將嵌套的、密集的長短跳躍連接相結(jié)合的網(wǎng)絡(luò)結(jié)構(gòu)來構(gòu)建稠密連接模塊.因此,相較于U2-Net的樸素跳躍連接方式,本文所提出的稠密連接模塊能夠更加精準(zhǔn)地捕捉不同層次的特征,并且對于不同大小的目標(biāo)對象表現(xiàn)出了不同的敏感度.因此,通過特征疊加的方式,稠密連接模塊能夠?qū)⒉煌瑢哟蔚奶卣魅诤显谝黄穑贡疚木W(wǎng)絡(luò)擁有不同大小的感受野.RSU-7層、RSU-6層、RSU-5層、RSU-4層重新設(shè)計后的稠密連接如圖3所示:黑色部分呈現(xiàn)出U2-Net結(jié)構(gòu)的原始形態(tài),由編碼器下采樣、解碼器上采樣以及黑色連線的跳躍連接3個組成部分構(gòu)成;粉色部分表示在跳躍連接上的稠密卷積塊,包括卷積和上采樣2部分;淡藍(lán)色連線部分就是重新設(shè)計后的跳躍連接,為子網(wǎng)絡(luò)提供了跳躍連接.

1.3.2通道注意力模塊

通道注意力機制(ChannelAttentionMechanism)是一種用于增強深度學(xué)習(xí)模型對不同通道的關(guān)注程度的注意力機制.它通過自動學(xué)習(xí)每個通道的重要性,調(diào)整通道的特征表示,以提升模型在計算機視覺任務(wù)中的性能.在通道注意力模塊中,特征的每一個通道都代表著一個專門的檢測器,因此,通道注意力關(guān)注的是什么樣的特征是有意義的.

對于一張輸入的特征圖A,它的尺寸大小為xji.為匯總空間特征,采用全局平均池化和最大池化兩種方式來分別利用不同的信息,可以通過給每個特征賦予不同的權(quán)重,從而關(guān)注重要的特征而抑制不重要的特征.對于輸入的特征圖A通過式(1)得到通道注意力矩陣X,它的尺寸大小為C×C.其中xji表征的是通道i對通道j的影響.A重組后的特征矩陣與X進行相乘后,再進行重組并分配一個β權(quán)重,然后與原始的A進行相加得到最終輸出的通道注意力機制特征圖E,它的尺寸大小為C×H×W,即式(2).

通道注意力機制可以增強網(wǎng)絡(luò)對不同通道的表示能力,使網(wǎng)絡(luò)能夠自動學(xué)習(xí)到每個通道的重要性,從而增強對特定特征的關(guān)注能力.通過調(diào)整通道的特征表示,通道注意力可以幫助模型更好地區(qū)分和捕捉不同特征之間的信息,從而提升模型在計算機視覺任務(wù)中的性能.通道注意力還可以在一定程度上減少網(wǎng)絡(luò)參數(shù)和計算量,通過自適應(yīng)地調(diào)整通道的權(quán)重,使得模型更加緊湊,僅保留對任務(wù)有用的通道信息,減少冗余和不必要的計算,從而降低模型的存儲和計算成本.通道注意力流程如圖4所示.

2實驗結(jié)果分析

2.1參數(shù)設(shè)置

本文所采用的實驗環(huán)境為:深度學(xué)習(xí)框架PyTorch1.1,Python3.6,Windows10,處理器Intel(R)Core(TM)i7-6500UxCPU@3.80GHz,2.50GHz.使用Adam優(yōu)化算法,初始學(xué)習(xí)率為0.001,用于計算梯度以及梯度平方的運行平均值的系數(shù)分別為0.9、0.999.將多裂肌MRI圖像按照4∶1的比例分為訓(xùn)練集和測試集,BatchSize設(shè)為4,共計進行150個epoch.

2.2評價指標(biāo)

為了量化本模型的分割結(jié)果,本文將從骰子系數(shù)(Dice)、豪斯多夫距離(HausdorffDistance,HD)以及均交并比(MeanIntersectionoverUnion,MIoU)3個維度來評價分割結(jié)果的優(yōu)劣性.Dice系數(shù)是一個綜合性指標(biāo),可以從像素層面衡量分割結(jié)果中正確分割、錯誤分割以及欠分割程度,但是對于分割結(jié)果中的離群值無法表征,因此引入了HD,用于評價病灶標(biāo)簽和分割結(jié)果邊緣的差異性.與此同時,引入MIoU評價指標(biāo),來判斷預(yù)測像素的準(zhǔn)確率.Dice、MIoU數(shù)值越大,HD數(shù)值越小時,表示該模型性能越好.它們的計算公式如式(4)—(8)所示.其中,k為類別數(shù),i表示真實值,X和Y分別表示預(yù)測集和Ground-Truth像素集.TP、FN、FP、TN如表1所示.

2.3實驗結(jié)果與分析

為驗證實驗結(jié)果準(zhǔn)確性,共進行15次重復(fù)性實驗.所獲得的MIoU、HD、Dice評價指標(biāo)的均值、方差、中值已被記錄在表2中.根據(jù)表2所示:MIoU、Dice、HD的平均值分別為0.657、0.784和3.821;方差均小于0.01,表明模型具有較高的可靠性和穩(wěn)定性.通過綜合3項指標(biāo)的平均值和方差,可以得出結(jié)論:所提出的模型表現(xiàn)出較高的穩(wěn)定性和分割效果,能夠成功地完成多裂肌MRI圖像的分割任務(wù).

圖5為使用改進的U2-Net分割模型對多裂肌MRI圖像實現(xiàn)的分割效果.圖5中第1列為輸入到分割網(wǎng)絡(luò)的原始多裂肌MRI圖像,第2列為Ground-Truth(應(yīng)與分割結(jié)果進行對照的正確數(shù)據(jù)標(biāo)簽),第3列為本文模型的分割結(jié)果.對Ground-Truth和本文模型的分割結(jié)果進行對比可得,本文所提出的模型有較好的分割效果.

2.4多裂肌MRI數(shù)據(jù)集實驗結(jié)果

2.4.1本文模型與傳統(tǒng)機器學(xué)習(xí)方法對比

為了驗證本文所提出的模型相對于多裂肌MRI圖像分割的性能提升,將本文模型與全局閾值分割方法(GlobalThresholdSegmentationMethod)[31]、自適應(yīng)閾值分割方法(AdaptiveThresholdSegmentationMethod)[32]、邊緣檢測分割法(EdgeDetectionSegmentationMethod)[33]3種傳統(tǒng)機器學(xué)習(xí)方法進行對比研究,結(jié)果如圖6所示.

與深度學(xué)習(xí)方法相比,傳統(tǒng)機器學(xué)習(xí)方法在處理復(fù)雜圖像和分割任務(wù)時存在一定的限制.全局閾值分割方法和自適應(yīng)閾值分割方法適用于目標(biāo)灰度分布均勻、變化小,目標(biāo)和背景灰度差異較明顯的圖像,簡單易實現(xiàn)且效率高.然而,該類方法通常只考慮像素自身的灰度值,未考慮圖像的語義、空間等特征信息,且易受噪聲影響,對于復(fù)雜的MRI圖像,閾值分割的效果并不理想.基于邊緣的圖像分割方法對像素灰度值具有明顯突變的圖片處理效果較好,但該算法易受噪聲影響,同樣不適于分割復(fù)雜MRI圖像[34].鑒于MRI圖像中的病變區(qū)域往往呈現(xiàn)復(fù)雜多樣的形態(tài)和紋理,不同病例之間的病變特征可能存在多樣性.傳統(tǒng)機器學(xué)習(xí)算法通常依賴于手工設(shè)計的特征,而這在MRI圖像病變分割任務(wù)中是一項具有挑戰(zhàn)性的工作.手工設(shè)計的特征往往難以充分反映病變區(qū)域的復(fù)雜信息,難以捕捉其內(nèi)在的復(fù)雜性和多樣性,從而導(dǎo)致在不同病變的準(zhǔn)確分割上存在困難.

綜上,本文方法基于深度學(xué)習(xí),可以自動學(xué)習(xí)特征表示,具有更強大的表征能力,能夠從原始數(shù)據(jù)中學(xué)習(xí)高級抽象特征,在復(fù)雜圖像分割任務(wù)中表現(xiàn)更加優(yōu)越.

2.4.2本文模型與經(jīng)典網(wǎng)絡(luò)對比

為了驗證本文所提出的模型相對于多裂肌MRI圖像分割的性能提升,進行U2-Net[30]、U-Net[17]、U-Net++[28]、CE-Net[35]的對比研究,分割效果如表3所示.

相較于經(jīng)典網(wǎng)絡(luò)U2-Net、U-Net、U-Net++、CE-Net,本文算法加入的稠密連接模塊可以使模型在信息傳遞、梯度傳播、特征復(fù)用、改進細(xì)節(jié)預(yù)測方面取得優(yōu)勢[28,36],而通道注意力模塊則使本模型在減少參數(shù)和計算復(fù)雜性、抑制噪聲和冗余、增強對重要信息的關(guān)注方面取得優(yōu)勢[37].根據(jù)表3所示,本文所提出的模型在Dice、HD、MIoU3個指標(biāo)上均獲得了提升.其中:相較于U2-Net網(wǎng)絡(luò),本文模型的MIoU提高了5.89%,HD降低8.10%,Dice提高10.58%;相較于U-Net,本文模型的MIoU提高了16.16%,HD降低9.24%,Dice提高10.58%;相較于U-Net++,本文模型的MIoU提高了15.74%,HD降低13.18%,Dice提高10.42%;相較于CE-Net,本文模型的MIoU提高了15.33%,HD降低12.50%,Dice提高14.96%.實驗結(jié)果表明,本文所提出的模型在多裂肌MRI圖像的精準(zhǔn)分割和病灶定位方面,具備相當(dāng)?shù)膬?yōu)越性,其高效的診斷能力為醫(yī)生提供了有力支持.

為了更加直觀地展示各種預(yù)測方法的差異,將其可視化結(jié)果呈現(xiàn)于圖7中.Input表示原始圖像,而Ground-Truth則表示多裂肌中脂肪浸潤部分的特征,接著是U-Net、U2-Net、U-Net++以及本文所提出的模型方法對多裂肌脂肪浸潤部分進行的預(yù)測結(jié)果.

2.4.3消融實驗

為了衡量通道注意力機制與稠密連接模塊融合對實驗結(jié)果的影響,設(shè)計了模型消融實驗,實驗結(jié)果如表4所示.以U2-Net為基礎(chǔ)網(wǎng)絡(luò),進行了4項對比實驗:1)不添加任何模塊;2)添加稠密連接模塊,不添加通道注意力模塊;3)添加通道注意力模塊,不添加稠密連接模塊;4)添加稠密連接模塊和通道注意力模塊.結(jié)果表明:相較于原始的U2-Net網(wǎng)絡(luò),本文模型的MIoU提高了5.89%,HD降低8.10%,Dice提高10.58%;相較于只增添稠密連接模塊,本文模型在MIoU提高了4.69%,HD降低6.74%,Dice提高6.81%;相較于只增添通道注意力模塊,本文模型在MIoU提高了2.21%,HD降低2.88%,Dice提高0.77%.此結(jié)果表明,在U2-Net網(wǎng)絡(luò)基礎(chǔ)上添加通道注意力模塊,同時對RSU-7、RSU-6、RSU-5、RSU-4層添加稠密連接模塊可以提高網(wǎng)絡(luò)性能.

3結(jié)語

為擴大模型的感受野,本文設(shè)計了稠密連接模塊,它將長、短跳躍連接相結(jié)合,以捕捉不同層次的特征.同時,還引入了通道注意力模塊,以學(xué)習(xí)不同通道之間的關(guān)聯(lián)和重要性,從而增強對特定特征的關(guān)注能力.最終,將這種稠密連接與U2-Net網(wǎng)絡(luò)相結(jié)合,設(shè)計了RSU-7、RSU-6、RSU-5、RSU-4層的跳躍連接,并在每一層的Encoder和Decoder加入了通道注意力機制.實驗結(jié)果顯示,本文模型顯著提升了對腰間盤突出患者多裂肌脂肪浸潤部分的分割精度,同時在病灶的定位位置方面表現(xiàn)出較高的準(zhǔn)確性,為臨床醫(yī)生提供了客觀高效的決策支持,從而有助于對腰間盤突出患者的診斷、治療方案的制定以及預(yù)后等方面做出更加精準(zhǔn)的判斷.

數(shù)據(jù)可用性聲明可以向通信作者索取支持本研究結(jié)果的數(shù)據(jù).

參考文獻

References

[1]

DeyoRA,MirzaSK.Herniatedlumbarintervertebraldisk[J].NewEnglandJournalofMedicine,2016,374(18):1763-1772

[2]VialleLR,VialleEN,HenaoJES,etal.Lumbardischerniation[J].RevistaBrasileiradeOrtopedia,2015,45(1):17-22

[3]SchryverA,RivazH,RizkA,etal.UltrasonographyoflumbarmultifidusmuscleinuniversityAmericanfootballplayers[J].MedicineandScienceinSportsandExercise,2020,52(7):1495-1501

[4]陳齊齊,陳立平,金軍,等.多裂肌橫截面積與經(jīng)皮椎間孔鏡治療腰椎間盤突出癥患者預(yù)后的關(guān)系[J].實用醫(yī)學(xué)雜志,2021,37(9):1136-1140

CHENQiqi,CHENLiping,JINJun,etal.Relationshipbetweencross-sectionalareaofmultifidusmuscleandprognosisofpatientswithlumbardischerniationtreatedbypercutaneousendoscopictransforaminaldiscectomy[J].TheJournalofPracticalMedicine,2021,37(9):1136-1140

[5]WardSR,KimCW,EngCM,etal.Architecturalanalysisandintraoperativemeasurementsdemonstratetheuniquedesignofthemultifidusmuscleforlumbarspinestability[J].TheJournalofBoneandJointSurgeryAmericanVolume,2009,91(1):176-185

[6]鈄大雄,王君瑞,陳紹東,等.單側(cè)腰痛患者腰椎多裂肌萎縮相關(guān)因素研究[J].浙江醫(yī)學(xué),2014,36(10):847-849,853

DOUDaxiong,WANGJunrui,CHENShaodong,etal.Factorsrelatedtolumbarmultifidusmuscleatrophyinpatientswithunilaterallowbackpain[J].ZhejiangMedicalJournal,2014,36(10):847-849,853

[7]KalichmanL,HodgesP,LiL,etal.Changesinparaspinalmusclesandtheirassociationwithlowbackpainandspinaldegeneration:CTstudy[J].EuropeanSpineJournal,2010,19(7):1136-1144

[8]AslanMS,F(xiàn)aragAA,ArnoldB,etal.Segmentationofvertebraeusinglevelsetswithexpectationmaximizationalgorithm[C]//2011IEEEInternationalSymposiumonBiomedicalImaging:fromNanotoMacro.March30-April2,2011,Chicago,IL,USA.IEEE,2011:2010-2013

[9]RasoulianA,RohlingR,AbolmaesumiP.Lumbarspinesegmentationusingastatisticalmulti-vertebraeanatomicalshapeposemodel[J].IEEETransactionsonMedicalImaging,2013,32(10):1890-1900

[10]LimPH,BagciU,BaiL.Introducingwillmoreflowintolevelsetsegmentationofspinalvertebrae[J].IEEETransactionsonBiomedicalEngineering,2013,60(1):115-122

[11]HintonGE,SalakhutdinovRR.Reducingthedimensionalityofdatawithneuralnetworks[J].Science,2006,313(5786):504-507

[12]許美賢,鄭琰,周若蘭,等.基于BP神經(jīng)網(wǎng)絡(luò)和多元線性回歸的辛烷值預(yù)測[J].南京信息工程大學(xué)學(xué)報(自然科學(xué)版),2023,15(4):379-392

XUMeixian,ZHENGYan,ZHOURuolan,etal.OctanenumberpredictionbasedonBPneuralnetworkandmultiplelinearregression[J].JournalofNanjingUniversityofInformationScience&Technology(NaturalScienceEdition),2023,15(4):379-392

[13]李輝,閔巍慶,王致嶺,等.基于圖卷積網(wǎng)絡(luò)的多標(biāo)簽食品原材料識別[J].南京信息工程大學(xué)學(xué)報(自然科學(xué)版),2019,11(6):743-750

LIHui,MINWeiqing,WANGZhiling,etal.Multi-labelfoodingredientrecognitionviagraphconvolutionnetwork[J].JournalofNanjingUniversityofInformationScience&Technology(NaturalScienceEdition),2019,11(6):743-750

[14]ShelhamerE,LongJ,DarrellT.Fullyconvolutionalnetworksforsemanticsegmentation[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2017,39(4):640-651

[15]ZhaoHS,ShiJP,QiXJ,etal.Pyramidsceneparsingnetwork[C]//2017IEEEConferenceonComputerVisionandPatternRecognition(CVPR).July21-26,2017,Honolulu,HI,USA.IEEE,2017:6230-6239

[16]ZhouYP,ChangHY,LuXL,etal.DenseUNet:improvedimageclassificationmethodusingstandardconvolutionanddensetransposedconvolution[J].Knowledge-BasedSystems,2022,254:109658

[17]RonnebergerO,F(xiàn)ischerP,BroxT.U-net:convolutionalnetworksforbiomedicalimagesegmentation[C]//InternationalConferenceonMedicalImageComputingandComputer-AssistedIntervention.Cham:Springer,2015:234-241

[18]DiakogiannisFI,WaldnerF,CaccettaP,etal.ResUNet-a:adeeplearningframeworkforsemanticsegmentationofremotelysenseddata[J].ISPRSJournalofPhotogrammetryandRemoteSensing,2020,162:94-114

[19]ThomasE,PawanSJ,KumarS,etal.Multi-res-attentionUNet:aCNNmodelforthesegmentationoffocalcorticaldysplasialesionsfrommagneticresonanceimages[J].IEEEJournalofBiomedicalandHealthInformatics,2021,25(5):1724-1734

[20]ChenW,LiuB,PengS,etal.S3D-UNet:separable3DU-Netforbraintumorsegmentation[C]//Brainlesion:Glioma,MultipleSclerosis,StrokeandTraumaticBrainInjuries:4thInternationalWorkshop,BrainLes2018,HeldinConjunctionwithMICCAI2018.September16,2018,Granada,Spain.SpringerInternationalPublishing,2019:358-368

[21]何曉云,許江淳,陳文緒.基于改進U-Net網(wǎng)絡(luò)的眼底血管圖像分割研究[J].電子測量與儀器學(xué)報,2021,35(10):202-208

HEXiaoyun,XUJiangchun,CHENWenxu.ResearchonfundusbloodvesselimagesegmentationbasedonimprovedU-Netnetwork[J].JournalofElectronicMeasurementandInstrumentation,2021,35(10):202-208

[22]趙其杰,周安穩(wěn),朱俊豪,等.基于PE-Vnet網(wǎng)絡(luò)的三維骨骼圖像分割方法[J].儀器儀表學(xué)報,2020,41(7):243-251

ZHAOQijie,ZHOUAnwen,ZHUJunhao,etal.Segmentationmethodofthree-dimensionalboneimagebasedonPE-Vnetnetwork[J].ChineseJournalofScientificInstrument,2020,41(7):243-251

[23]ZhangL,WangH.AnovelsegmentationmethodforcervicalvertebraebasedonPointNet++andconvergesegmentation[J].ComputerMethodsandProgramsinBiomedicine,2021,200:105798

[24]KuokCP,HsueJY,ShenTL,etal.AneffectiveCNNapproachforvertebraesegmentationfrom3DCTimages[C]//2018PacificNeighborhoodConsortiumAnnualConferenceandJointMeetings(PNC).October27-30,2018,SanFrancisco,CA,USA.IEEE,2018:1-6

[25]RamachandranP,ParmarN,VaswaniA,etal.Stand-aloneself-attentioninvisionmodels[C]//Proceedingsofthe33rdInternationalConferenceonNeuralInformationProcessingSystems,2019:68-80

[26]HuJ,ShenL,SunG.Squeeze-and-excitationnetworks[C]//2018IEEE/CVFConferenceonComputerVisionandPatternRecognition.June18-23,2018,SaltLakeCity,UT,USA.IEEE,2018:7132-7141

[27]OktayO,SchlemperJ,F(xiàn)olgocLL,etal.AttentionU-Net:learningwheretolookforthepancreas[J].arXive-print,2018,arXiv:1804.03999

[28]ZhouZW,SiddiqueeMMR,TajbakhshN,etal.U-Net++:anestedU-Netarchitectureformedicalimagesegmentation[C]//4thInternationalWorkshoponDeepLearninginMedicalImageAnalysisandMultimodalLearningforClinicalDecisionSupport.September20,2018,Granada,Spain.SpringerInternationalPublishing,2018:3-11

[29]HuangHM,LinLF,TongRF,etal.U-Net3:afull-scaleconnectedUNetformedicalimagesegmentation[C]//2020IEEEInternationalConferenceonAcoustics,SpeechandSignalProcessing(ICASSP).May4-8,2020,Barcelona,Spain.IEEE,2020:1055-1059

[30]QinXB,ZhangZC,HuangCY,etal.U2-Net:goingdeeperwithnestedu-structureforsalientobjectdetection[J].PatternRecognition,2020,106:107404

[31]PunT.Anewmethodforgrey-levelpicturethresholdingusingtheentropyofthehistogram[J].SignalProcessing,1980,2(3):223-237

[32]NiblackW.Anintroductiontodigitalimageprocessing[M].London:StrandbergPublishingCompany,1985

[33]KhanJF,BhuiyanSMA,AdhamiRR.Imagesegmentationandshapeanalysisforroad-signdetection[J].IEEETransactionsonIntelligentTransportationSystems,2011,12(1):83-96

[34]黃鵬,鄭淇,梁超.圖像分割方法綜述[J].武漢大學(xué)學(xué)報(理學(xué)版),2020,66(6):519-531

HUANGPeng,ZHENGQi,LIANGChao.Overviewofimagesegmentationmethods[J].JournalofWuhanUniversity(NaturalScienceEdition),2020,66(6):519-531

[35]GuZW,ChengJ,F(xiàn)uHZ,etal.CE-net:contextencodernetworkfor2Dmedicalimagesegmentation[J].IEEETransactionsonMedicalImaging,2019,38(10):2281-2292

[36]SinghD,KumarV,KaurM.Denselyconnectedconvolutionalnetworks-basedCOVID-19screeningmodel[J].AppliedIntelligence,2021,51(5):3044-3051

[37]WooS,ParkJ,LeeJY,etal.CBAM:convolutionalblockattentionmodule[C]//EuropeanConferenceonComputerVision.Cham:Springer,2018:3-19

SegmentationofmultifidusmuscleMRIimagesviaimprovedU2-Net

WANGZimin1ZHOUYue1GUANTingqiang1GUOXin1HUWei2WANGMaofa1

1SchoolofComputerScienceandInformationSecurity,GuilinUniversityofElectronicTechnology,Guilin541004,China

2LiuzhouPeoplesHospital,Liuzhou545006,China

AbstractToaddressthelowsegmentationaccuracyofmultifidusmusclelesionsitesinMRIimagesofpatientswithlumbardischerniation,thispaperproposesanewmodeltoimprovetheU2-Netnetworkwiththegoalthattheencodinganddecodingsubnetworksareinterconnectedbyaseriesofnestedjumppaths.Toreducethesemanticmissingoffeaturemapsintheencodinganddecodingsubnetworks,thejumpconnectionsinthemiddleofRSU-7,RSU-6,RSU-5,andRSU-4intheU2-Netmodelareredesigned,whiletheRSU-4Fpartremainsunchanged.Inaddition,thechannelattentionmoduleisaddedtoenablethenettofocusonchannelsofhighercontributiontotask,thusextracthighqualitymultifractalmusclefeatures.TheexperimentsonthemultifidusmuscleMRIimagedatasetshowthattheimprovedU2-NetoutperformsU-Net,U2-NetandU-Net++networkinindicatorsofDice,HDandMIoU.ItcanbeconcludedthattheproposedapproachhasgoodperformanceonMRIimagesegmentationofmultifidusmuscle,whichcanassistdoctorstomakediagnosis.

Keywordsmagneticresonanceimaging(MRI);deeplearning;medicalimagesegmentation;multifidusmuscle;attentionmechanism;thicklink;U2-Net

猜你喜歡
裂肌注意力特征
伴有同側(cè)下腰痛的單側(cè)腰椎間盤突出癥患者多裂肌形態(tài)觀察
基于腰部多裂肌的生物力學(xué)和病理形態(tài)學(xué)研究探討腰部疾患的診治
讓注意力“飛”回來
IDEAL-IQ序列對多裂肌的定量分析
如何表達(dá)“特征”
不忠誠的四個特征
抓住特征巧觀察
“揚眼”APP:讓注意力“變現(xiàn)”
傳媒評論(2017年3期)2017-06-13 09:18:10
A Beautiful Way Of Looking At Things
腰骶段多裂肌解剖及傳統(tǒng)腰椎后路手術(shù)對其損傷的研究進展
临猗县| 嘉定区| 高雄县| 诏安县| 嵊州市| 陵水| 三台县| 光山县| 永嘉县| 永寿县| 孟津县| 石泉县| 宿州市| 宜良县| 青铜峡市| 黔江区| 绥棱县| 太湖县| 武鸣县| 阿拉尔市| 抚宁县| 乐陵市| 无棣县| 清流县| 咸丰县| 苏尼特左旗| 齐齐哈尔市| 密山市| 时尚| 台北市| 离岛区| 沙坪坝区| 沂南县| 吴忠市| 江安县| 健康| 区。| 长子县| 闽侯县| 福鼎市| 姜堰市|