国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于ResNet模型的甲狀腺SPECT影像診斷

2020-07-14 04:57王珂張根耀
關(guān)鍵詞:醫(yī)學(xué)影像圖像識(shí)別

王珂 張根耀

摘 要:為了降低醫(yī)生利用SPECT影像對(duì)甲狀腺疾病進(jìn)行臨床診斷時(shí)的誤診率,提高深度學(xué)習(xí)算法在核醫(yī)學(xué)影像輔助診斷中識(shí)別交叉影像特征的準(zhǔn)確率,提出了基于ResNet模型的甲狀腺SPECT影像診斷方法。利用深度卷積生成對(duì)抗網(wǎng)絡(luò)(DCGAN)和高分辨率生成對(duì)抗網(wǎng)絡(luò)(SRGAN)生成影像并提高分辨率,彌補(bǔ)訓(xùn)練數(shù)據(jù)的不足。同時(shí),將殘差塊輸出信息加上具有交叉特征影像信息的xi,在保留已學(xué)習(xí)影像特征的基礎(chǔ)上增加對(duì)交叉特征的學(xué)習(xí),改進(jìn)了模型。對(duì)于交叉影像特征,使用交叉訓(xùn)練集對(duì)經(jīng)過單一特征影像訓(xùn)練完成的改進(jìn)ResNet神經(jīng)網(wǎng)絡(luò)模型進(jìn)行再訓(xùn)練。實(shí)驗(yàn)結(jié)果表明,經(jīng)過100輪迭代,交叉訓(xùn)練集訓(xùn)練的改進(jìn)ResNet神經(jīng)網(wǎng)絡(luò)模型驗(yàn)證精度高達(dá)0.963 3,驗(yàn)證損失降到

0.118 7,并趨于穩(wěn)定;識(shí)別結(jié)果,召回率、精確率、特異度和F1分?jǐn)?shù)都在93.8%以上。經(jīng)過改進(jìn)的神經(jīng)網(wǎng)絡(luò)模型和新的訓(xùn)練方法對(duì)甲狀腺SPECT影像表現(xiàn)出的典型癥狀識(shí)別率較高,優(yōu)于其他基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的方法,對(duì)臨床影像診斷具有參考價(jià)值。

關(guān)鍵詞:計(jì)算機(jī)神經(jīng)網(wǎng)絡(luò);圖像識(shí)別;SPECT;交叉訓(xùn)練集;醫(yī)學(xué)影像;核醫(yī)學(xué)

中圖分類號(hào):TP393;R318.6 文獻(xiàn)標(biāo)識(shí)碼:A

doi:10.7535/hbkd.2020yx03006

Diagnosis of thyroid SPECT image based on ResNet model

WANG Ke1,2, ZHANG Genyao1

(1. School of Mathematics and Computer Science, Yan′an University, Yan′an, Shaanxi 716000, China; 2. Affiliated Hospital of Yan′an University, Yan′an, Shaanxi 716000, China)

Abstract:

In order to reduce the clinical misdiagnosis rate of of thyroid disease by using SPECT images, and improve the accuracy of deep learning algorithm in recognizing the features of cross images in nuclear medical image-assisted diagnosis, a thyroid SPECT image diagnosis method based on ResNet model was proposed. Deep Convolution Generative Adversarial Network (DCGAN) and Super-Resolution Generative Adversarial Network (SRGAN) were used to generate images and improve the resolution to make up for the deficiency of training data. At the same time, xi with the cross-feature image information was added to the residual block output information, and the learning of the cross-feature on the basis of retaining the learned image features, so as to improve the model. As for cross-image features, a cross-training set was proposed to retrain the improved ResNet neural network model that had been trained with a single feature image. The experimental results show that after 100 rounds of iteration, the verification accuracy of the improved residual neural network model trained by the cross-training set is as high as 0.963 3, and the verification loss is reduced to 0.118 7, which tends to be stable. The recall rate, precision rate, specificity and F1 score are all above 93.8% in the recognition results. The improved neural network model and the new training method show higher typical symptom recognition rate for thyroid SPECT images than other methods based on convolutional neural network (CNN), and have reference value for clinical image diagnosis.

Keywords:

computer neural network; image recognition; SPECT; cross-training sets; medical image; nuclear medicine

甲狀腺是人體重要的內(nèi)分泌器官,中國甲狀腺癌的平均發(fā)病率以14.5%的速度逐年上升,同時(shí)該病死亡率以1.4%的速度逐年上升。2015年新發(fā)癌癥患者統(tǒng)計(jì)數(shù)據(jù)分析顯示,每年中國新發(fā)甲狀腺癌患者將近90 000例,其中男性患者占24.6%,女性患者占75.4%,甲狀腺癌死亡患者每年平均6 800例,其中男性患者占36.8%,女性患者占63.2%,平均年齡小于30歲的年輕女性中,甲狀腺癌發(fā)病率一直位居惡性腫瘤首位[1]。因此,提高對(duì)甲狀腺疾病的早期準(zhǔn)確診斷至關(guān)重要。在實(shí)際臨床實(shí)踐中,許多方法可用于甲狀腺疾病的診斷,如臨床評(píng)估、血液檢查、甲狀腺激素(TSH)檢測、影像學(xué)檢查和病理學(xué)檢查。其中,病理學(xué)檢查一般作為疾病診斷,特別是惡性腫瘤診斷的金標(biāo)準(zhǔn)。但到目前為止,病理學(xué)診斷仍沒有一種或幾種可靠的客觀指標(biāo),尤其是在早期癌的診斷上,不同的病理學(xué)家之間很難達(dá)成一致,并且,其作為有創(chuàng)檢查,在獲取病理組織時(shí)可能存在癌癥細(xì)胞種植的風(fēng)險(xiǎn)。而核醫(yī)學(xué)影像檢查避免傷害患者身體,在準(zhǔn)確提供甲狀腺器官解剖形態(tài)基礎(chǔ)上,還可以顯示甲狀腺器官物質(zhì)代謝功能情況,直接準(zhǔn)確反映患者甲狀腺疾病,在準(zhǔn)確診斷、治療甲狀腺各類疾病方面發(fā)揮著重要指導(dǎo)作用[2]。與此同時(shí),計(jì)算機(jī)輔助診斷系統(tǒng)(CAD)在臨床診斷中的應(yīng)用越來越多[3]。一方面,這些CAD系統(tǒng)可以減少醫(yī)生的工作量;另一方面,可以避免診斷過程中可能出現(xiàn)的一些錯(cuò)誤。核醫(yī)學(xué)影像檢查患者逐年增多,不同資歷的診斷醫(yī)師對(duì)同一影像的醫(yī)學(xué)診斷結(jié)果有所差別,利用CAD系統(tǒng)進(jìn)行輔助診斷能為臨床診斷提供參考,并能提高低資歷醫(yī)生的診斷水平。

此前的研究集中于從甲狀腺影像中提取不同人為設(shè)計(jì)的特征,然后將提取出的特征通過已有的機(jī)器學(xué)習(xí)分類器進(jìn)行有效監(jiān)督分類。例如CHEN等[4]提出了將紋理特征與病理學(xué)特征相結(jié)合,采用遺傳支持向量機(jī)對(duì)甲狀腺結(jié)節(jié)進(jìn)行分類。CHANG等[5]利用小波系數(shù)、同質(zhì)性、直方圖以及多尺度灰度差作為特征對(duì)甲狀腺影像進(jìn)行分類以檢測甲亢等疾病。KATSIGIANNIS等[6]采用基于影像輪廓小波變換的特征對(duì)甲狀腺紋理進(jìn)行分類。ACHARYA等[7]對(duì)甲狀腺三維超聲影像使用復(fù)小波變換濾波器提取特征以分類甲狀腺腫瘤。SAVELONAS等[8]提出采用隨機(jī)場中的特征來表述甲狀腺影像中的方向模式并采用有監(jiān)督分類器對(duì)甲狀腺結(jié)節(jié)進(jìn)行分類。IA-KOVIDIS等[9]采用模糊局部二值模式(LBP)特征對(duì)甲狀腺超聲影像中的紋理進(jìn)行分類識(shí)別。傳統(tǒng)的機(jī)器學(xué)習(xí)方法需針對(duì)病變精心設(shè)計(jì)病變影像特征,準(zhǔn)確度較低,設(shè)計(jì)復(fù)雜。近幾年興起的深度學(xué)習(xí)方法可根據(jù)大量數(shù)據(jù)自動(dòng)學(xué)習(xí)影像特征,并能學(xué)習(xí)到人工所難以發(fā)現(xiàn)的深層影像特征,極大提高了影像識(shí)別準(zhǔn)確率。

目前,應(yīng)用卷積神經(jīng)網(wǎng)絡(luò)方法已經(jīng)開發(fā)了許多有效的模型,這些模型逐漸應(yīng)用于醫(yī)學(xué)影像診斷。稠密神經(jīng)網(wǎng)絡(luò)[10]是一種重要的神經(jīng)網(wǎng)絡(luò)架構(gòu),已被廣泛應(yīng)用于疾病診斷。例如,使用稠密網(wǎng)絡(luò)的心臟病分類器[11]。卷積神經(jīng)網(wǎng)絡(luò)的VGG結(jié)構(gòu)應(yīng)用于良性結(jié)節(jié)與肺癌的肺結(jié)節(jié)分類[12],采用VGG改進(jìn)結(jié)構(gòu)檢測乳腺癌[13]。GoogleNet是一種卷積神經(jīng)網(wǎng)絡(luò),具有一個(gè)或多個(gè)完全連接層的標(biāo)準(zhǔn)疊加卷積層,其在影像醫(yī)學(xué)診斷中有許多成功的應(yīng)用,如識(shí)別糖尿病視網(wǎng)膜病變的分期[14]、胸部X線攝影中肺結(jié)核的自動(dòng)匹配分類[15]、超聲影像中乳腺病變的分類[16]。研究表明,這些模型的應(yīng)用有助于卷積神經(jīng)網(wǎng)絡(luò)更好地發(fā)現(xiàn)不同影像特征,從而獲得更好的分類結(jié)果。

由于原始影像數(shù)據(jù)有限,以小的訓(xùn)練集對(duì)模型進(jìn)行訓(xùn)練不能達(dá)到較高的準(zhǔn)確率。本文利用生成對(duì)抗網(wǎng)絡(luò)來生成影像數(shù)據(jù)擴(kuò)充數(shù)據(jù)集,最后通過訓(xùn)練改進(jìn)的ResNet神經(jīng)網(wǎng)絡(luò)模型,實(shí)現(xiàn)端到端的甲狀腺SPECT影像診斷。

1 數(shù)據(jù)與方法

1.1 數(shù)據(jù)收集分類

醫(yī)學(xué)影像數(shù)據(jù)集收集于某醫(yī)院核醫(yī)學(xué)科,診斷儀器為美國通用產(chǎn)單光子發(fā)射計(jì)算機(jī)斷層成像系統(tǒng),型號(hào):Infinia。影像數(shù)據(jù)收集自2017-03-01到2019-12-31的641例甲狀腺SPECT影像檢查報(bào)告,從中直接獲取影像數(shù)據(jù),將這些影像數(shù)據(jù)分為6類,如圖1所示,包括:1)甲狀腺功能亢進(jìn),2)亞急性甲狀腺炎,3)攝取功能減低,4)甲狀腺部位有結(jié)節(jié),5)甲狀腺腫大,6)正常。有些影像中存在既腫大又?jǐn)z取功能減低的交叉特征情況,選取有此類交叉特征的影像數(shù)據(jù)50例。

1.2 數(shù)據(jù)處理

原始影像數(shù)據(jù)總量不足并且存在明顯非對(duì)稱性,其中甲狀腺功能亢進(jìn)影像數(shù)據(jù)200份,而甲狀腺正常影像數(shù)據(jù)只有37份。本文首先使用原有數(shù)據(jù)訓(xùn)練改進(jìn)的模型,發(fā)現(xiàn)典型癥狀的識(shí)別率僅在60%以下。為了更好地訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型,降低模型泛化誤差,本文采用深度卷積生成對(duì)抗網(wǎng)絡(luò)(deep convolutional generative adversarial networks,DCGAN)[17]來擴(kuò)充影像數(shù)據(jù)量。由于DCGAN生成的影像分辨率較低,進(jìn)而使用超分辨率生成對(duì)抗網(wǎng)絡(luò)(super-resolution generative adversarial networks,SRGAN)[18]來提高影像分辨率。傳統(tǒng)影像增強(qiáng)方法是通過改變視野和空間剛性變換等產(chǎn)生新數(shù)據(jù),但是這種方法不能學(xué)習(xí)醫(yī)學(xué)影像數(shù)據(jù)的生物學(xué)變化,并且可能生成物理不可信的醫(yī)學(xué)影像,DCGAN提供了理解影像數(shù)據(jù)基礎(chǔ)結(jié)構(gòu)的途徑,可以利用該網(wǎng)絡(luò)將噪聲影像生成新的模擬樣本[17]。最后將6類單一特征影像數(shù)據(jù)分別擴(kuò)充到1 000份,交叉特征影像擴(kuò)充到1 000份,總共7 000幅影像,并使用SRGAN提高分辨率。詳見圖2。

1.3 神經(jīng)網(wǎng)絡(luò)的構(gòu)建

本文使用Tensorflow2.0框架,建立生成對(duì)抗網(wǎng)絡(luò)擴(kuò)充影像數(shù)據(jù),利用擴(kuò)充后的影像數(shù)據(jù)訓(xùn)練改進(jìn)的ResNet神經(jīng)網(wǎng)絡(luò),最后識(shí)別實(shí)際檢查病人得到的SPECT影像。

1.3.1 生成對(duì)抗網(wǎng)絡(luò)

生成對(duì)抗網(wǎng)絡(luò)是同時(shí)訓(xùn)練2個(gè)模型,一個(gè)用來捕獲數(shù)據(jù)分布的生成器模型(generative,G),另一個(gè)用來估計(jì)樣本的判別模型(discriminative,D)。G和D在對(duì)抗的框架下進(jìn)行學(xué)習(xí),D對(duì)真實(shí)數(shù)據(jù)進(jìn)行建模,使得G避免了這些步驟,直接學(xué)習(xí)去逼近真實(shí)數(shù)據(jù),在任意函數(shù)G和D的空間中存在唯一的解,使最終生成數(shù)據(jù)達(dá)到D無法區(qū)分真?zhèn)蔚男Ч?。GAN是在優(yōu)化過程中,由 G和D構(gòu)成了一個(gè)動(dòng)態(tài)的“博弈過程”[19]。

DCGAN是在原始生成對(duì)抗網(wǎng)絡(luò)的基礎(chǔ)上結(jié)合了卷積神經(jīng)網(wǎng)絡(luò)的一種衍生模型,主要貢獻(xiàn)是將監(jiān)督學(xué)習(xí)中的卷積模型和非監(jiān)督學(xué)習(xí)生成的對(duì)抗網(wǎng)絡(luò)模型相結(jié)合,使樣本生成質(zhì)量得到提高,也提高了收斂速度。

SRGAN神經(jīng)網(wǎng)絡(luò)模型學(xué)習(xí)高、低分辨率影像對(duì)之間的映射,實(shí)現(xiàn)高分辨率影像的重建。

當(dāng)影像的放大倍數(shù)在4以上時(shí),訓(xùn)練SRGAN神經(jīng)網(wǎng)絡(luò)模型,使之生成影像中的高頻部分[20]。

1.3.2 ResNet神經(jīng)網(wǎng)絡(luò)

傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)或者全連接網(wǎng)絡(luò)在信息傳遞時(shí)或多或少會(huì)存在信息丟失、損耗等問題,同時(shí)還會(huì)引起梯度消失或者梯度爆炸,導(dǎo)致很深的網(wǎng)絡(luò)無法訓(xùn)練。ResNet神經(jīng)網(wǎng)絡(luò)模型在一定程度上解決了這個(gè)問題,直接將輸入信息繞道傳到輸出,保護(hù)信息的完整性,整個(gè)網(wǎng)絡(luò)只需要學(xué)習(xí)輸入、輸出差別的那一部分,簡化了學(xué)習(xí)目標(biāo)和難度[11]。

由于實(shí)際影像存在特征交叉,比如甲狀腺腫大部位可能存在攝取減低。為了解決具有交叉特征的影像識(shí)別問題,本文通過預(yù)訓(xùn)練ResNet神經(jīng)網(wǎng)絡(luò)模型,得到可以識(shí)別單一影像特征的ResNet神經(jīng)網(wǎng)絡(luò)模型,再用新的交叉特征影像訓(xùn)練集訓(xùn)練改進(jìn)后的ResNet神經(jīng)網(wǎng)絡(luò)模型。

訓(xùn)練過的神經(jīng)網(wǎng)絡(luò)對(duì)單一特征已形成參數(shù)矩陣,同時(shí)改進(jìn)殘差塊,將殘差塊輸出信息加上具有交叉特征影像信息的xi,在保留已學(xué)習(xí)影像特征的基礎(chǔ)上增加對(duì)交叉特征的學(xué)習(xí),增加模型魯棒性。使用有交叉特征的影像進(jìn)行數(shù)據(jù)擴(kuò)充,形成交叉特征影像訓(xùn)練集,訓(xùn)練改進(jìn)后的ResNet神經(jīng)網(wǎng)絡(luò)模型。結(jié)構(gòu)如圖3所示。

改進(jìn)的殘差塊的輸出可用式(1)表示。

y=F(x)+wxi,(1)

式中:y為調(diào)整輸出;xi為調(diào)整輸入;w為卷積中的操作,用來表示調(diào)整輸入xi的函數(shù)channel是多維度的。

考慮訓(xùn)練速度,本文采用101層ResNet神經(jīng)網(wǎng)絡(luò)模型。在卷積層加入?yún)?shù)初始化,初始化方式為均勻分布。為了提高模型泛化性能,訓(xùn)練模型時(shí),在全連接層之前加入dropout層,舍去概率50%,激活函數(shù)為drleakyrelu。

2 基于神經(jīng)網(wǎng)絡(luò)的甲狀腺影像識(shí)別

2.1 試驗(yàn)硬件及軟件

試驗(yàn)平臺(tái)為筆記本計(jì)算機(jī),影像處理器GPU型號(hào)NVIDIA GeForce GTX 950M,運(yùn)行環(huán)境為Windows10? 64位系統(tǒng),集成開發(fā)環(huán)境為Pycharm2019.3。

2.2 神經(jīng)網(wǎng)絡(luò)模型的試驗(yàn)方法

1)根據(jù)已有641例甲狀腺SPECT影像數(shù)據(jù),使用DCGAN神經(jīng)網(wǎng)絡(luò)模型生成新的類似影像,總共生成6類各1 000例,交叉特征影像1 000例,共7 000例影像。

2)由于DCGAN生成的甲狀腺SPECT影像分辨率相對(duì)較低,使用SRGAN來提高算法生成高分辨率影像。

3)將6類共6 000例甲狀腺SPECT影像分別進(jìn)行標(biāo)注:甲狀腺功能亢進(jìn),標(biāo)簽1;亞急性甲狀腺炎,標(biāo)簽2;攝取功能減低,標(biāo)簽3;甲狀腺部位有結(jié)節(jié),標(biāo)簽4;甲狀腺部位腫大,標(biāo)簽5;正常,標(biāo)簽6。由于人體甲狀腺細(xì)胞影像紋理數(shù)據(jù)的局部識(shí)別不僅需要準(zhǔn)確對(duì)比影像背景和識(shí)別前景,還要準(zhǔn)確識(shí)別各個(gè)局部影像紋理上的特征,故可以采用深度學(xué)習(xí)方法進(jìn)行端和端識(shí)別,沒有必要進(jìn)行影像局部分割。輸入影像的維度為(32,32,3),訓(xùn)練ResNet神經(jīng)網(wǎng)絡(luò)模型。

4)用擴(kuò)充后的交叉特征影像數(shù)據(jù)1 000例,其中800例作為訓(xùn)練集,200例作為驗(yàn)證集,訓(xùn)練上一步預(yù)訓(xùn)練的ResNet模型,采用改進(jìn)的殘差塊,最終訓(xùn)練得到能夠識(shí)別交叉影像特征的模型。

訓(xùn)練過程如圖4所示。

3 結(jié)果與分析

3.1 訓(xùn)練誤差率

設(shè)置ResNet訓(xùn)練參數(shù):優(yōu)化方法采用動(dòng)量法(moment),初始學(xué)習(xí)率為 0.1,訓(xùn)練600次后學(xué)習(xí)率變?yōu)?.001,共訓(xùn)練200輪,batch為200。對(duì)上述交叉訓(xùn)練集進(jìn)行200次迭代的訓(xùn)練,其變化曲線如圖 5 所示。

結(jié)果表明,隨著迭代次數(shù)不斷增加,驗(yàn)證損失逐漸降低,驗(yàn)證精度逐漸提高,當(dāng)訓(xùn)練迭代到第 100 次時(shí),神經(jīng)網(wǎng)絡(luò)驗(yàn)證精度達(dá)到0.963 3,驗(yàn)證損失降到0.118 7,之后趨于穩(wěn)定,表明卷積神經(jīng)網(wǎng)絡(luò)達(dá)到了預(yù)期的訓(xùn)練效果。

3.2 模型效果驗(yàn)證

為了驗(yàn)證神經(jīng)網(wǎng)絡(luò)模型的可靠性與穩(wěn)定性,對(duì)測試集的 700例甲狀腺SPECT影像(600例單一特征影像和100例交叉特征影像)進(jìn)行識(shí)別。本文將實(shí)際診斷報(bào)告結(jié)論設(shè)為準(zhǔn)確結(jié)論,神經(jīng)網(wǎng)絡(luò)模型識(shí)別結(jié)論設(shè)為實(shí)驗(yàn)結(jié)論。當(dāng)神經(jīng)網(wǎng)絡(luò)模型softmax分類函數(shù)中實(shí)驗(yàn)結(jié)論對(duì)應(yīng)準(zhǔn)確結(jié)論的概率大于90%時(shí),或者,過程中影像數(shù)據(jù)存在類別交叉的情況,當(dāng)既有腫大又有結(jié)節(jié)的情況出現(xiàn)時(shí),softmax分類函數(shù)輸出的概率值會(huì)提示兩類特征概率都大于45%,認(rèn)定為這兩類特征都具備,模型識(shí)別正確。識(shí)別結(jié)果如表1所示。

由表1可知,甲狀腺功能亢進(jìn)識(shí)別率最高(95.8%),其次是亞急性甲狀腺炎(93.3%),再次是攝取功能減低(91.7%),識(shí)別效果最差的是甲狀腺部位有結(jié)節(jié)(88.3%)。這是因?yàn)?,甲狀腺功能亢進(jìn)在影像中表現(xiàn)特征明顯,甲狀腺部位顏色較深,其他部位顏色較淺,對(duì)比明顯,癥狀易被識(shí)別。當(dāng)甲狀腺部位有結(jié)節(jié)時(shí),結(jié)節(jié)在影像中表現(xiàn)特征不一,實(shí)際臨床診斷中結(jié)節(jié)癥狀再次細(xì)分,并且每一種甲狀腺結(jié)節(jié)位置、大小、顏色、深度都有區(qū)別,已標(biāo)注訓(xùn)練數(shù)據(jù)不足,該癥狀不易識(shí)別或無法識(shí)別,影響識(shí)別精度。正常甲狀腺影像識(shí)別率不高主要原因是已標(biāo)注原始數(shù)據(jù)有限,收集到的數(shù)據(jù)存在嚴(yán)重不平衡性。

3.3 統(tǒng)計(jì)方法

為了評(píng)價(jià)本文所提出的方法,使用了分類召回率、精確率、特異度和F1分?jǐn)?shù)作為評(píng)價(jià)方法性能的指標(biāo)。根據(jù)神經(jīng)網(wǎng)絡(luò)的分類結(jié)果是否正確,以及樣本是否為每個(gè)類別的陽性、真陽性(TP)、真陰性(TN)、假陽性(FP)和假陰性(FN),可以確定召回率、精確率、特異度和F1分?jǐn)?shù)定義如式(1)—式(4)所示。

召回率=TPTP+FN,(1)

精確率=TPTP+FP,(2)

特異度=TNFP+TN,(3)

F1分?jǐn)?shù)=2TP2TP+FP+FN。(4)

召回率是類的正確預(yù)測樣本數(shù)量與類的總樣本數(shù)量的比率,也稱為靈敏度或命中率。精確率是指準(zhǔn)確預(yù)測的類別樣本數(shù)目與所有預(yù)測的類別樣本總數(shù)的比率。特異度是正確預(yù)測的陰性樣本與總陰性樣本的比率。F1分?jǐn)?shù)是分類精度和靈敏度的調(diào)和平均數(shù)。這些性能指標(biāo)越大,方法的性能就越好。具體數(shù)值如表2所示。

結(jié)果表明,訓(xùn)練好的改進(jìn)ResNet神經(jīng)網(wǎng)絡(luò)模型對(duì)SPECT甲狀腺影像癥狀有較好的識(shí)別率。

將其他卷積神經(jīng)網(wǎng)絡(luò)(CNN)方法,如DenseNet121[10],ResNet101[11],InceptionV3[20],VGG19[21-22],Modified VGG (MVGG)[23],GoogleNet[12],SDAE[24-25]等與本文提出的方法進(jìn)行比較,如表3所示。

由表3可知,本文提出的方法在甲狀腺典型癥狀識(shí)別方面優(yōu)于其他基于CNN的方法。

4 結(jié) 語

本文提出了一種利用卷積神經(jīng)網(wǎng)絡(luò)模型診斷甲狀腺疾病的有效方法——改進(jìn)的ResNet結(jié)構(gòu)和訓(xùn)練方法。實(shí)驗(yàn)結(jié)果表明,本方法訓(xùn)練的神經(jīng)網(wǎng)絡(luò)模型能較準(zhǔn)確識(shí)別6類甲狀腺SPECT影像,并且對(duì)具有交叉特征的影像也能正確識(shí)別出癥狀。將改進(jìn)的ResNet神經(jīng)網(wǎng)絡(luò)模型應(yīng)用于甲狀腺SPECT影像的診斷是可行的,具有很好的實(shí)際應(yīng)用價(jià)值。本方法在甲狀腺結(jié)節(jié)的細(xì)分癥狀輔助診斷方面還有待進(jìn)一步研究,未來需要建立和測試更大的數(shù)據(jù)集,例如增加甲狀腺結(jié)節(jié)各類別的數(shù)據(jù)集。

由于甲狀腺結(jié)節(jié)影像診斷對(duì)紋理特征要求較高,因此還需要研究更好的數(shù)據(jù)增強(qiáng)方法和更有效的深度學(xué)習(xí)模型。

參考文獻(xiàn)/References:

[1] 遲劍寧,于曉升,張藝菲.融合深度網(wǎng)絡(luò)和淺層紋理特征的甲狀腺結(jié)節(jié)癌變超聲影像診斷[J].中國圖象圖形學(xué)報(bào),2018,23(10):154-165.

CHI Jianning, YU Xiaosheng, ZHANG Yifei. Ultrasonographic diagnosis of thyroid nodule carcinoma combining deep network and superficial texture features [J].Chinese Journal of Image and Graphics, 2008,23(10):154-165.

[2] 劉剛,劉健.影像學(xué)檢查在甲狀腺良惡性結(jié)節(jié)鑒別診斷中的應(yīng)用價(jià)值[J].中國醫(yī)師雜志,2014,16(4):565-568.

LIU Gang, LIU Jian. Application value of imaging examination in differential diagnosis of benign and malignant thyroid nodules [J]. Chinese Journal of Physicians, 2014,16(4):565-568.

[3] MA J, WU F, JIANG T, et al. Cascade convolutional neural networks for automatic detection of thyroid nodules in ultrasound images[J]. Medical Physics, 2017, 44(5):1678-1691.

[4] CHEN S J, CHANG C Y, CHANG K Y, et al. Classification of the thyroid nodules based on characteristic sonographic textural feature and correlated histopathology using hierarchical support vector machines[J].Ultrasound in Medicine and Biology,2010,36(12): 2018-2026.

[5] CHANG C Y,LIU H Y,TSENG C H, et al. Computer-aided diagnosis for thyroid graves disease in ultrasound images[J].Biomedical Engineering: Applications, Basis and Communications,2010,22(2): 91-99.

[6] KATSIGIANNIS S,KERAMIDAS E G, MAROULIS D. A contourlet transform feature extraction scheme for ultrasound thyroid texture classification[J]. International Journal of Engineering Intelligent Systems for Electrical Engineering and Communications,2010,18(3/4):138-145.

[7] ACHARYA U R,SREE S V,SWAPNA G, et al. Effect of complex wave-let transform filter on thyroid tumor classification in three-dimensional ultrasound[J].Journal of Engineering in Medicine,2013,227(3): 284-292.

[8] ?SAVELONAS M A,IAKOVIDIS D K,DIMITROPOULOS N, et al. Computational characterization of thyroid tissue in the radon domain[C]// The Twentieth IEEE International Symposium on Computer-Based Medical Systems. Maribor: IEEE, 2007: 189-192.

[9] ?IA-KOVIDIS D K,KERAMIDAS E G,MAROULIS D. Fuzzy local binary patterns for ultrasound texture characterization[C]//Proceedings of the 5th International Conference on Image Analysis and?Recognition. Póvoa de Varzim: Springer,2008:750-759.

[10]HUANG G, LIU Z, MAATEN L, et al. Ensely connected convolutional networks[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu:[s.n.],2017: 2261-2269.

[11]HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas:[s.n.],2016:770-778.

[12]NISHIO M, SUGIYAMA O, YAKAMI M, et al. Computer-aided diagnosis of lung nodule classification between benign nodule, primary lung cancer, and metastatic lung cancer at different image size using deep convolutional neural network with transfer learning[J]. PLoS One, 2018, 13(7): e0200721.

[13]HAGOS Y B, MERIDA G, JONAS T. Improving breast cancer detection using symmetry information with deep learning[C]//Lecture Notes in Computer Science.[S.l.]:Springer, 2018: 90-97.

[14]TAKAHASHI H, TAMPO H, ARAI Y, et al. Applying artificial intelligence to disease staging: Deep learning for improved staging of diabetic retinopathy[J]. PLoS One, 2017, 12(6): e0179790.

[15]LAKHANI P, SUNDARAM B. Deep learning at chest radiography: Automated classification of pulmonary tuberculosis by using convolutional neural networks[J]. Radiology, 2017, 284(2):574-582.

[16]HAN S, KANG H K, JEONG J Y, et al. A deep learning framework for supporting the classification of breast lesions in ultrasound images[J]. Physics in Medicine & Biology, 2017, 62(19): 7714-7728.

[17]RADFORD A,METZ L, CHINTALA S. Unsupervised representation learning with deep convolutional generative adversarial networks[C]//Proc ICLR.San Juan:[s.n.],2016:1-15.

[18]潘丹,賈龍飛,曾安,等. 生成式對(duì)抗網(wǎng)絡(luò)在醫(yī)學(xué)影像處理中的應(yīng)用[J]. 生物醫(yī)學(xué)工程學(xué)雜志, 2018 ,35(6): 148-154.

PAN Dan, JIA Longfei, ZENG An, et al. The application of the application of the anti-network in medical imaging processing[J]. Journal of Biomedical Engineering, 2018, 35(6): 148-154.

[19]GOODFELLOW I J, POUGET-ABADIE J, MIRZA M, et al. Generative Adversarial Networks[Z]. [S.l.]: Cornell University Library, 2014: 1406.2661.

[20]LEDIG C, THEIS L, HUSZAR F, et al. Photo-realistic single image super-resolution using a generative adversarial network[C]//The IEEE Conference on Computer Vision and Pattern Recognition (CVPR). [S.l.]: [s.n.], 2017: 4681-4690.

[21]KHENED M, KOLLERATHU V, KRISHNAMURTHI G. Fully convolutional multi-scale residual DenseNets for cardiac segmentation and automated cardiac diagnosis using ensemble of classifiers[J].Medical Image Analysis, 2018, 51: 21-45.

[22]HAN S S, KIM M S, LIM W, et al. Classification of the clinical images for benign and malignant cutaneous tumors using a deep learning algorithm[J]. Journal of Investigative Dermatology,2018, 138(7): 1529-1538.

[23]YANG Hao, ZHANG Junran, LIU Qihong,et al. Multimodal MRI-based classi cation of

migraine: Using deep learning convolutional neural network[J]. Biomedical Engineering Online, 2018, 17(10).doi:10.1186/s12938-018-0587-0.

[24]ABD-ELLAH M K, AWAD A I, KHALAF A A M, et al. Two-phase multi-model automatic brain tumour diagnosis system from magnetic resonance images using convolutional neural networks[J]. EURASIP Journal on Image and Video Processing,2018(9).doi:10.1186/s13640-018-0332-4.

[25]CHEN Jiezhi, NI Dong, CHOU Yihong, et al. Computer-aided diagnosis with deep learning architecture: Applications to breast lesions in US images and pulmonary nodules in CT scans[J]. Scientific Reports, 2016, 6(4).doi:10.1038/srep24454.

收稿日期:2020-04-18;修回日期:2020-05-15;責(zé)任編輯:馮 民

基金項(xiàng)目:國家自然科學(xué)基金(71961030)

第一作者簡介:王 珂(1990—),男,陜西西安人,碩士研究生,主要從事計(jì)算機(jī)圖形圖像處理方面的研究。

通訊作者:張根耀教授。E-mail:ydzhanggenyao@163.com

王珂, 張根耀.

基于ResNet模型的甲狀腺SPECT影像診斷

[J].河北科技大學(xué)學(xué)報(bào),2020,41(3):242-248.

WANG Ke,ZHANG Genyao.

Diagnosis of thyroid SPECT image based on ResNet model

[J].Journal of Hebei University of Science and Technology,2020,41(3):242-248.

猜你喜歡
醫(yī)學(xué)影像圖像識(shí)別
多種醫(yī)學(xué)影像設(shè)備聯(lián)合應(yīng)用在突發(fā)事件衛(wèi)勤保障中的應(yīng)用價(jià)值研究
醫(yī)學(xué)影像技術(shù)在醫(yī)學(xué)影像診斷中的合理運(yùn)用
基于計(jì)算機(jī)視覺的圖像識(shí)別技術(shù)研究
AI醫(yī)學(xué)影像
圖像識(shí)別技術(shù)的應(yīng)用與發(fā)展
人工智能背景下圖像識(shí)別技術(shù)淺析
《圖像識(shí)別初探》教學(xué)案例
《醫(yī)學(xué)影像物理學(xué)》課程改革的探討
醫(yī)學(xué)影像物理學(xué)課程教學(xué)改革實(shí)踐
基于字典學(xué)習(xí)的正則化魯棒稀疏表示腫瘤細(xì)胞圖像識(shí)別
焉耆| 大足县| 昌黎县| 沧州市| 托克逊县| 塔城市| 大新县| 抚顺市| 遂平县| 阿拉善左旗| 盐津县| 板桥市| 邢台市| 额尔古纳市| 县级市| 台北市| 子洲县| 博客| 定西市| 石景山区| 滨海县| 尚志市| 柏乡县| 大英县| 将乐县| 长沙市| 姜堰市| 琼中| 河源市| 吉水县| 左权县| 英吉沙县| 淮滨县| 怀来县| 上杭县| 隆安县| 兴山县| 曲阜市| 南京市| 乌审旗| 蓝田县|