国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度學(xué)習(xí)的肺部腫瘤檢測方法

2018-04-13 01:07陳強銳謝世朋
計算機技術(shù)與發(fā)展 2018年4期
關(guān)鍵詞:特征提取卷積肺癌

陳強銳,謝世朋

(南京郵電大學(xué) 通信與信息工程學(xué)院,江蘇 南京 210003)

0 引 言

計算機輔助診斷(CAD)[1]是指運用計算機技術(shù)分析計算影像、病理等數(shù)據(jù),輔助發(fā)現(xiàn)病灶,從而提高診斷的準確率?,F(xiàn)代計算機技術(shù)的快速發(fā)展對其起到了極大的推進作用。目前CAD技術(shù)已經(jīng)廣泛應(yīng)用于各種疾病的診療過程中,被形象地稱之為醫(yī)生的“第三只眼”。肺癌檢測是最常見的CAD技術(shù)應(yīng)用之一。近年來國內(nèi)肺癌發(fā)病率呈逐年上升趨勢,年平均增長率為1.63%。而肺癌的發(fā)病率及死亡率已居所有惡性腫瘤之首。引入計算機輔助診斷技術(shù)對肺癌的早期發(fā)現(xiàn)與診療有著重要的積極作用,所以它在輔助醫(yī)生診療肺癌領(lǐng)域有著巨大的發(fā)展前景。

對于肺癌檢測的CAD技術(shù)關(guān)鍵在于腫瘤病灶的定位與分類。目前已經(jīng)有許多傳統(tǒng)機器學(xué)習(xí)的方法可以對腫瘤進行檢測。文獻[2]從灰度特征、紋理特征、形態(tài)特征等多個角度提取肺部CT圖像的特征,并利用支持向量機[3](SVM)對肺部CT圖像進行分類分析。文獻[4]針對肺結(jié)節(jié)的形態(tài)、位置、紋理、灰度等17個特征,利用主成分分析(PCA)方法,對特征集進行優(yōu)化選擇和降維處理,最后利用基于SVM的分類器對樣本進行分類檢測。文獻[5]開發(fā)了一種提取肺結(jié)節(jié)特征信息的轉(zhuǎn)換器,并結(jié)合隨機森林算法利用提取到的特征信息對模型進行訓(xùn)練和測試。這些方法較好地解決了分類問題,但實驗結(jié)果也并非十分完美,仍有提升的空間,尤其在復(fù)雜的特征提取方法和結(jié)節(jié)的位置預(yù)測方面。

深度學(xué)習(xí)[6]的概念于2006年由Hinton等提出,作為機器學(xué)習(xí)的一個分支,由于其善于發(fā)現(xiàn)高維數(shù)據(jù)的復(fù)雜結(jié)構(gòu),使用泛化目標的學(xué)習(xí)過程可以自動學(xué)習(xí)好的特征,所以近年來發(fā)展十分迅速。深度學(xué)習(xí)算法模仿人腦的機制來解釋并處理數(shù)據(jù),在語音識別、圖像識別、自然語言理解等領(lǐng)域取得了重大突破。卷積神經(jīng)網(wǎng)絡(luò)(CNN)則是深度學(xué)習(xí)在圖像領(lǐng)域的一個重要應(yīng)用,已成為眾多科學(xué)領(lǐng)域的研究熱點之一。卷積神經(jīng)網(wǎng)絡(luò)對圖像的特征提取十分方便,只需設(shè)置合理的網(wǎng)絡(luò)結(jié)構(gòu)與網(wǎng)絡(luò)參數(shù),每對圖像進行一次卷積操作就可以生成一個特征圖。通過加深網(wǎng)絡(luò)結(jié)構(gòu)可以學(xué)習(xí)到圖像更深層次的特征。相較于人工設(shè)計特征的方法,卷積神經(jīng)網(wǎng)絡(luò)的適用范圍更廣,對圖像的特征提取更加深刻全面。國內(nèi)知名學(xué)者也曾表明深度學(xué)習(xí)將取代人工特征加機器學(xué)習(xí)的方法而逐漸成為主流圖像識別方法[7]。文中采用深度學(xué)習(xí)的方法,將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用到肺部腫瘤圖像的特征提取中,結(jié)合區(qū)域生成網(wǎng)絡(luò)預(yù)測肺癌結(jié)節(jié)的位置,并通過實驗驗證該方法的有效性。

1 腫瘤檢測

腫瘤檢測的流程如圖1所示。首先讓整幅圖像經(jīng)過卷積神經(jīng)網(wǎng)絡(luò)進行特征提取,然后針對獲得的特征圖像生成腫瘤位置建議框,最后對各個建議框包圍的圖像進行分類并微調(diào)建議框的位置。

圖1 肺部腫瘤檢測流程

1.1 特征提取

對于圖像的特征提取方法有很多,它們大多依賴于人工的設(shè)計。例如算法HOG[8]和SIFT[9]。但是SIFT和HOG受限于圖像中梯度的方向直方圖[10],并不具備普適性。

1998年,LeCun提出的卷積神經(jīng)網(wǎng)絡(luò)是第一個真正多層結(jié)構(gòu)學(xué)習(xí)算法[11],并成功地將其應(yīng)用到手寫數(shù)字識別中,標志著卷積神經(jīng)網(wǎng)絡(luò)對圖像特征提取的第一次成功應(yīng)用。由于當(dāng)時的硬件計算條件不足以支撐更深層次的網(wǎng)絡(luò),只適合做小圖片的識別,因此對于大規(guī)模數(shù)據(jù)識別效果不佳。直至2012年ImageNet圖像分類競賽中,AlexNet憑借Top-5錯誤率低于上一年十個百分點的優(yōu)秀成績,使得CNN受到了研究者們的重視[12]。

卷積神經(jīng)網(wǎng)絡(luò)的再次流行主要得益于非線性激活函數(shù)Relu和防止過擬合方法Dropout的提出,當(dāng)然還有大數(shù)據(jù)訓(xùn)練以及GPU并行計算的發(fā)展。文中使用的特征提取網(wǎng)絡(luò)是基于Zeiler和Fergus提出的ZF[13]網(wǎng)絡(luò)。

網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

圖2 特征提取網(wǎng)絡(luò)結(jié)構(gòu)

網(wǎng)絡(luò)總共含有5層可共享特征的卷積層,每一卷積層都應(yīng)用了一個Relu激活函數(shù)。卷積層第一層與第二層的卷積核大小分別為7*7和5*5,卷積步長為2。卷積層后三層的卷積核大小為3*3,卷積步長為1。卷積層的第一層與第二層之后分別設(shè)置了一個最大值池化層。這種網(wǎng)絡(luò)結(jié)構(gòu)保證了神經(jīng)網(wǎng)絡(luò)既能充分學(xué)習(xí)到圖像特征,又能夠防止過擬合。

1.2 區(qū)域建議網(wǎng)絡(luò)

傳統(tǒng)生成區(qū)域建議框的方法如selective search[14],是將輸入圖像分割成許多相鄰的小區(qū)域,計算相鄰區(qū)域的相似度且合并相似度最高的相鄰區(qū)域然后重復(fù)迭代,并融合各種多樣化策略。雖然這種方法相較之前exhaustive search[15]方法提升很大,但是其不能通過GPU加速導(dǎo)致耗時很大?;蛘呤窍馳OLO[16]中將原始圖片分成S*S個網(wǎng)格,將生成建議框看成單一的回歸問題,雖然解決了耗時問題,但是這種方法對于處在網(wǎng)格邊緣或者尺寸較小的腫瘤,生成的建議框效果較差。

上述兩種方法的輸入都是原始圖像,并未充分利用CNN輸出的特征提取后的圖像。文中使用的區(qū)域建議網(wǎng)絡(luò)是RPN,結(jié)構(gòu)如圖3所示。其輸入是CNN網(wǎng)絡(luò)輸出的特征圖像。該方法在特征圖像上設(shè)計了一個滑動窗口,在每一個窗口的中心生成3種不同大小、3種不同寬縱比,總計9個固定的建議框。同時將每一個滑動窗口映射成為一個256維的向量,該向量輸出給兩個同級的全連接層cls layer與reg layer,分別用作建議框的回歸和分類。

圖3 區(qū)域建議網(wǎng)絡(luò)

文中方法利用目標區(qū)域與ground-truth面積的交并比(IOU)對建議框進行篩選,IOU定義為:

(1)

其中,A與B分別表示不同區(qū)域的面積。

選用IOU大于0.7的建議框作為目標建議框,將IOU小于0.3的建議框記為背景樣本,棄用其余以及跨越圖像邊界的建議框。每張圖片最后至多生成300個建議框,并利用其對應(yīng)的向量對建議框內(nèi)容進行分類且微調(diào)其位置。

2 實 驗

2.1 損失函數(shù)及訓(xùn)練

實驗采用的數(shù)據(jù)集來自于NLST以及Kaggle。從不同肺癌患者的CT中挑選出451張切片,并將DICOM文件格式轉(zhuǎn)換成512*512像素的JPG圖像。隨機挑選出361幅圖像并對這些圖像中肺癌特征區(qū)域進行標注,作為訓(xùn)練集,剩余的90幅圖像則作為測試集。文中采用的檢測框架為Faster RCNN[17],對每幅圖像的損失函數(shù)定義為:

(2)

分類損失函數(shù)Lcls定義為:

(3)

建議框回歸損失函數(shù)Lreg定義為:

(4)

其中,R是魯棒的損失函數(shù)smoothL1[18]定義為:

(5)

網(wǎng)絡(luò)訓(xùn)練時損失函數(shù)超參數(shù)λ設(shè)置為10,卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)學(xué)習(xí)速率設(shè)置為0.001,權(quán)重衰減設(shè)置為0.000 5,在配置為Intel Core i7-2600 3.4 GHz處理器,4 G內(nèi)存,8 G顯存,顯卡為GTX1070的服務(wù)器上訓(xùn)練總時長約4個小時。

2.2 實驗結(jié)果分析

經(jīng)過實驗,測試集共90幅CT圖像成功檢測出86幅,其中典型的檢測效果如圖4所示。

圖4 檢測結(jié)果

由圖4可見,肺部腫瘤可以被文中方法準確定位,并且具有較好的檢測效果。

文中準確率定義為:

(6)

其中,j為測試圖像的索引號;Idet為檢測結(jié)果標記,檢測成功為1,檢測失敗為0;Pr(j)為預(yù)測概率;N=90為參與檢測的圖像總數(shù)。

利用相同的數(shù)據(jù)集在YOLO_V2框架上進行了重復(fù)實驗,并將兩次的實驗結(jié)果進行了對比,結(jié)果如表1所示。

表1 不同框架檢測結(jié)果對比

由表1可以看出,文中方法的檢測效果更佳,準確率高達95.1%且高于YOLO_V2約15個百分點,并且訓(xùn)練時間也大大縮短。雖然每幅圖像的檢測用時略高于YOLO_V2,但是綜合考慮各方面因素,文中方法對于肺部腫瘤的檢測有著更好的性能。

將文中方法的檢測結(jié)果與利用傳統(tǒng)機器學(xué)習(xí)方法的檢測結(jié)果進行了對比,結(jié)果如表2所示。

表2 不同方法檢測結(jié)果對比

由表2可以看出,文中方法的檢測準確率可達95.1%,相較于其他檢測方法,具有更高的準確率,其準確率提升約6個百分點。由于文中方法可以對腫瘤圖像自動地進行特征提取,并且深層次的網(wǎng)絡(luò)結(jié)構(gòu)可以提取到更好的特征,所以檢測效果明顯有所提高。并且該方法還可以準確定位出腫瘤的具體位置,相較其他方法具有一定的優(yōu)勢。

3 結(jié)束語

提出了基于深度學(xué)習(xí)的肺部腫瘤的檢測方法,通過卷積神經(jīng)網(wǎng)絡(luò)對CT圖像進行特征提取,最終定位出圖像中腫瘤的位置。該方法在NLST以及Kaggle數(shù)據(jù)集上取得了較好的實驗效果,對于腫瘤檢測領(lǐng)域具有一定的積極意義。然而,該方法只考慮到腫瘤圖像的二維特征,若能夠?qū)δ[瘤進行三維特征提取,其檢測效果則會更好。接下來的工作將向此方面發(fā)展。

參考文獻:

[1] 舒榮寶,王成林.電子計算機輔助診斷(CAD)的原理及臨床應(yīng)用[J].中國CT和MRI雜志,2004,2(2):55-56.

[2] 馬楊林.基于SVM的肺部CT圖像特征提取及分類研究[D].成都:西華大學(xué),2012.

[3] SCH?LKOPF B,SMOLA A.Learning with kernels:support vector machines,regularization,optimization,and beyond[J].IEEE Transactions on Neural Networks,2005,16(3):781.

[4] 張 婧.基于SVM的肺結(jié)節(jié)自動識別方法研究[D].廣州:華南理工大學(xué),2011.

[5] KOUZANI A Z,LEE S L A,HU E J.Lung nodules detection by ensemble classification[C]//IEEE international conference on systems,man and cybernetics.[s.l.]:IEEE,2008:324-329.

[6] LECUN Y,BENGIO Y,HINTON G.Deep learning[J].Nature,2015,521(7553):436-444.

[7] 余 凱,賈 磊,陳雨強,等.深度學(xué)習(xí)的昨天、今天和明天[J].計算機研究與發(fā)展,2013,50(9):1799-1804.

[8] LOWE D G.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.

[9] DALAL N,TRIGGS B.Histograms of oriented gradients for human detection[C]//IEEE computer society conference on computer vision & pattern recognition.Washington DC,USA:IEEE Computer Society,2005:886-893.

[10] GIRSHICK R,DONAHUE J,DARRELL T,et al.Rich feature hierarchies for accurate object detection and semantic segmentation[C]//IEEE conference on computer vision and pattern recognition.Washington DC,USA:IEEE Computer Society,2014:580-587.

[11] 孫志軍,薛 磊,許陽明,等.深度學(xué)習(xí)研究綜述[J].計算機應(yīng)用研究,2012,29(8):2806-2810.

[12] 李彥冬,郝宗波,雷 航.卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J].計算機應(yīng)用,2016,36(9):2508-2515.

[13] ZEILER M D,FERGUS R.Visualizing and understanding convolutional networks[J].Lecture Notes in Computer Science,2013,8689:818-833.

[14] UIJLINGS J R,SANDE K E,GEVERS T,et al.Selective search for object recognition[J].International Journal of Computer Vision,2013,104(2):154-171.

[15] HARZALLAH H,JURIE F,SCHMID C.Combining efficient object localization and image classification[C]//International conference on computer vision.[s.l.]:[s.n.],2010:237-244.

[16] REDMON J,DIVVALA S,GIRSHICK R,et al.You only look once:unified,real-time object detection[C]//IEEE conference on computer vision and pattern recognition.Washington DC,USA:IEEE Computer Society,2016:779-788.

[17] REN S,HE K,GIRSHICK R,et al.Faster R-CNN:towards real-time object detection with region proposal networks[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2017,39(6):1137-1149.

[18] GIRSHICK R.Fast R-CNN[C]//International conference on computer vision.[s.l.]:[s.n.],2015:1440-1448.

猜你喜歡
特征提取卷積肺癌
氬氦刀冷凍治療肺癌80例的臨床觀察
基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
一種并行不對稱空洞卷積模塊①
長鏈非編碼RNA APTR、HEIH、FAS-ASA1、FAM83H-AS1、DICER1-AS1、PR-lncRNA在肺癌中的表達
CXCL-14在非小細胞肺癌中的表達水平及臨床意義
空間目標的ISAR成像及輪廓特征提取
基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
基于特征提取的繪本閱讀機器人設(shè)計方案
從濾波器理解卷積
微動目標雷達特征提取、成像與識別研究進展
驻马店市| 正安县| 蒙阴县| 建平县| 遵化市| 古浪县| 临城县| 淄博市| 巧家县| 南平市| 五原县| 龙州县| 外汇| 杭州市| 桃源县| 常宁市| 永城市| 横峰县| 壶关县| 福建省| 西宁市| 安塞县| 蓬溪县| 九龙坡区| 泽普县| 莫力| 石阡县| 上饶市| 康保县| 曲阜市| 满城县| 周至县| 抚松县| 鄂温| 赤水市| 嘉峪关市| 六安市| 登封市| 荣成市| 监利县| 绥宁县|