国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于SRD感受野自調(diào)節(jié)的肺炎病灶檢測

2021-01-09 01:10:32武昱忻
關(guān)鍵詞:先驗(yàn)特征提取預(yù)處理

李?鏘,武昱忻,關(guān)?欣,周?靜

基于SRD感受野自調(diào)節(jié)的肺炎病灶檢測

李?鏘1,武昱忻1,關(guān)?欣1,周?靜2

(1.天津大學(xué)微電子學(xué)院,天津 300072;2. 北京郵電大學(xué)國際學(xué)院,北京 100876)

隨著深度學(xué)習(xí)的發(fā)展,采用卷積神經(jīng)網(wǎng)絡(luò)診斷肺炎的方法受到廣泛關(guān)注,但對肺炎區(qū)域檢測的研究還十分欠缺.現(xiàn)有方法的特征提取網(wǎng)絡(luò)需要大量參數(shù)和計算,以及巨大的存儲資源和算能,同時因其無法自動調(diào)節(jié)感受野的大小,導(dǎo)致難以適用于胸部X光片(chest X-ray,CXR)中病灶區(qū)域大小不一的問題.為解決這些問題,本文提出一種基于自調(diào)節(jié)密集網(wǎng)絡(luò)(self-regulation DenseNet,SRD)的肺炎病灶檢測方法.首先,設(shè)計了一種突出病灶技術(shù)對圖像進(jìn)行預(yù)處理,通過抑制肋骨區(qū)域排除肋骨干擾,并采用拉普拉斯變換銳化圖像突出微弱病灶特征.其次,基于改進(jìn)的RetinaNet網(wǎng)絡(luò)對預(yù)處理后圖像進(jìn)行檢測,其中特征提取網(wǎng)絡(luò)采用本文提出的自調(diào)節(jié)密集網(wǎng)絡(luò)結(jié)構(gòu)SRD,來代替原RetinaNet中的特征提取網(wǎng)絡(luò)ResNet.SRD結(jié)合密集連接和選擇性核卷積的優(yōu)勢,具有參數(shù)量和計算量小、感受野可自適應(yīng)調(diào)節(jié)的特點(diǎn).最后,提出采用k-means++算法對數(shù)據(jù)集中的寬高信息進(jìn)行聚類,選出具有代表性的先驗(yàn)框?qū)捀弑?,代替RetinaNet中采取固定比例的先驗(yàn)框?qū)捀弑冗x取方法.在北美放射學(xué)會提供的CXR數(shù)據(jù)集上,與原RetinaNet算法相比,基于SRD-121的方法實(shí)現(xiàn)mAP提高0.4%,參數(shù)量減少52.2%,計算量減少51.8%.實(shí)驗(yàn)結(jié)果表明,本文提出的基于SRD感受野自調(diào)節(jié)的肺炎病灶檢測方法具有參數(shù)量和計算量的減少及mAP提高的雙重優(yōu)勢.

卷積神經(jīng)網(wǎng)絡(luò);肺炎病灶檢測;圖像銳化;感受野;k-means++

肺炎是由肺部感染引起的疾病,當(dāng)前放射科醫(yī)師主要通過觀察CXR來診斷肺炎,但隨著空氣污染的加劇,醫(yī)生的診斷任務(wù)量日益增加,且容易因過度疲勞導(dǎo)致誤診、漏診等問題.因此,對計算機(jī)輔助肺炎診斷的研究至關(guān)重要[1].

近幾年來,隨著深度學(xué)習(xí)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)在醫(yī)療圖像處理領(lǐng)域的應(yīng)用越來越廣泛,例如,分類、檢測和分割等.Jaiswal等[2]采用Mask R-CNN網(wǎng)絡(luò)框架,通過調(diào)整訓(xùn)練中的閾值以及融合預(yù)測結(jié)果,有效地識別并定位肺炎區(qū)域.然而,其訓(xùn)練圖像大小為512×512,需要巨大的計算資源,且訓(xùn)練階段需調(diào)整閾值,導(dǎo)致訓(xùn)練過程復(fù)雜.Liang等[3]提出一個用于診斷兒童肺炎的深度學(xué)習(xí)框架,采用殘差結(jié)構(gòu)克服了深度模型的過度擬合和退化等問題,并結(jié)合空洞卷積解決了因模型深度增加導(dǎo)致的特征空間信息丟失等問題.Kermany等[4]基于遷移學(xué)習(xí)開發(fā)的人工智能系統(tǒng),能在CXR上準(zhǔn)確區(qū)分細(xì)菌性和病毒性肺炎.Sirazitdinov等[5]在北美放射學(xué)會提供的CXR數(shù)據(jù)集上采用多種算法,例如RetinaNet[6]、YOLOv1[7]、YOLOv3[8]和Mask R-CNN[9]進(jìn)行對比實(shí)驗(yàn),結(jié)果表明,RetinaNet準(zhǔn)確率最高,其損失函數(shù)通過減小易分類樣本的權(quán)重,增加難分類樣本對梯度更新的影響,解決了類別不平衡的問題.

然而,當(dāng)前研究中卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)面臨參數(shù)量大,且無法自動調(diào)節(jié)感受野以適應(yīng)肺炎區(qū)域大小不一等問題.因此,本文提出一種基于SRD[10-11]的肺炎檢測方法,首先提出突出病灶策略(stress focus,SF),對圖像進(jìn)行預(yù)處理,其次設(shè)計了用于特征提取的SRD,實(shí)現(xiàn)參數(shù)量和計算量降低且感受野可自動調(diào)節(jié),最后采用k-means++算法聚類,選出合適的先驗(yàn)框?qū)捀弑龋畬?shí)驗(yàn)結(jié)果表明,與RetinaNet算法相比,本文提出的方法兼具了參數(shù)量和計算量降低及mAP提升的雙重優(yōu)勢.

1?目標(biāo)檢測

1.1?傳統(tǒng)的目標(biāo)檢測方法

傳統(tǒng)的目標(biāo)檢測方法大體分3個階段:選取候選區(qū)域、人工特征提取和分類器識別.然而,人工提取的特征質(zhì)量將直接影響檢測結(jié)果,因此,特征提取技術(shù)受到廣泛研究.

Papageorgiou等[12]提出一種適用于復(fù)雜場景中靜態(tài)圖像的通用目標(biāo)檢測框架,克服了類內(nèi)可變性的問題,并在無約束環(huán)境中得到較低的誤檢率.Ren?等[13]提出一種基于全局運(yùn)動估計和邊緣信息的移動目標(biāo)檢測方法,分別采用雙線性模型和直方圖縮放進(jìn)行空間和光照歸一化,結(jié)合Canny算子提取邊緣和形態(tài)學(xué)算子對邊緣濾波,得到閉合的目標(biāo)輪廓.

然而,傳統(tǒng)的目標(biāo)檢測方法有很多缺陷.人工提取特征方法因?qū)?yīng)的檢測目標(biāo)而異,算法魯棒性差;滑動窗口方法造成先驗(yàn)框冗余,耗費(fèi)計算資源,導(dǎo)致在實(shí)際工程中難以實(shí)現(xiàn).

1.2?深度學(xué)習(xí)的目標(biāo)檢測方法

Girshick等[14]于2014年首次將深度學(xué)習(xí)應(yīng)用于目標(biāo)檢測并提出R-CNN(Region-CNN)模型,采用PASCAL VOC數(shù)據(jù)集[15]訓(xùn)練,通過選擇性搜索[16]選取出2000個先驗(yàn)框,經(jīng)過剪裁和縮放后輸入CNN,然后用產(chǎn)生的一系列特征向量訓(xùn)練支持向量機(jī).然而,對2000個先驗(yàn)框都提取特征導(dǎo)致計算資源的巨大消耗,而且對先驗(yàn)框剪裁和放縮的操作容易導(dǎo)致特征丟失.2015年,Girshick[17]提出的Fast R-CNN只需對整張圖提取一次特征,并引入ROI pooling層,實(shí)現(xiàn)自動將特征圖縮放為固定尺寸.2015年Ren?等[18]提出的Faster R-CNN中引入?yún)^(qū)域生成網(wǎng)絡(luò)(region proposal networks,RPN)用于生成候選區(qū)域,再連接分類子網(wǎng)絡(luò)和回歸子網(wǎng)絡(luò)進(jìn)行檢測,準(zhǔn)確率得到提高,但兩階段的網(wǎng)絡(luò)算法復(fù)雜度高,無法達(dá)到實(shí)時性要求.2016年Liu等[19]提出SSD(single shot multibox detector)算法,應(yīng)用多尺度檢測方法,融合高、低層級的特征圖,并用困難樣本挖掘[20]來平衡正負(fù)樣本數(shù)量差距懸殊的問題,控制正負(fù)樣本比例為1∶3.2018年Redmon等[8]提出的YOLOv3模型,采用新的網(wǎng)絡(luò)結(jié)構(gòu)Darknet-53,分類損失函數(shù)由softmax改為logistic,實(shí)現(xiàn)多標(biāo)簽分類.

2?本文的算法

本文的算法基于RetinaNet進(jìn)行改進(jìn),是一種端到端的目標(biāo)檢測算法,實(shí)現(xiàn)對CXR圖像的肺炎病灶區(qū)域自動檢測,算法整體框架如圖1所示.首先基于本文提出的SF預(yù)處理策略,對原始圖像a執(zhí)行肋骨抑制和圖像銳化操作生成圖像b,作為CNN的輸入,進(jìn)而執(zhí)行后續(xù)特征提取.采用本文提出的SRD代替RetinaNet中的ResNet,并在其上建立特征金字塔網(wǎng)絡(luò)[21],輸出P3~P7 5個特征圖來提取特征.然后,分別以5個特征圖的每個特征點(diǎn)為中心,采用3種不同面積及3種不同寬高比的設(shè)置,從而產(chǎn)生9種先驗(yàn)框.進(jìn)一步采用k-means++算法代替RetinaNet中固定寬高比的選取方法.最后,將先驗(yàn)框輸入到后續(xù)的分類子分支和回歸子分支檢測,得到預(yù)測的肺炎病灶區(qū)域G.

圖1?算法整體框架

2.1?SF預(yù)處理策略

將原圖像和拉普拉斯變換后的結(jié)果進(jìn)行相加,如式(3)所示,產(chǎn)生一個邊緣突出的銳化圖像.

圖2(a)、(b)、(c)分別為原始CXR、肋骨抑制后的圖像和SF預(yù)處理策略處理后的圖像,圖2(d)、(e)、(f)分別為原始病灶區(qū)域、肋骨抑制后的病灶區(qū)域、SF預(yù)處理策略處理后的病灶區(qū)域.

從圖2可以看出,經(jīng)第1階段處理后,肋骨區(qū)域得到抑制,但病灶特征信息不明顯,導(dǎo)致難以提取到有效特征.經(jīng)第2階段銳化處理后,肺炎病灶特征更加突出.經(jīng)SF預(yù)處理策略預(yù)處理后的圖像達(dá)到了肋骨抑制和病灶特征突出的效果.

2.2?SRD結(jié)構(gòu)

RetinaNet的特征提取網(wǎng)絡(luò)為ResNet,不僅參數(shù)量大,且特征圖的感受野是固定的,無法根據(jù)檢測目標(biāo)面積大小自動調(diào)節(jié),影響檢測的準(zhǔn)確率.因此,本文提出自調(diào)節(jié)密集網(wǎng)絡(luò)SRD進(jìn)行特征提取,結(jié)構(gòu)為DenseNet[10]和選擇性核卷積(SK Conv)[11]的融合.

2.2.1?DenseNet

圖2?X光片預(yù)處理效果示意

DenseNet通過拼接特征圖來獲得上層的特征,而不需再次卷積,大大減少了參數(shù)量,而且梯度能直接傳到上層,緩解了梯度消失的問題.

2.2.2?SK Conv結(jié)構(gòu)

SK Conv結(jié)構(gòu)為參考文獻(xiàn)[11]中的選擇性核卷積,結(jié)構(gòu)示意如圖3所示,其中包括3個操作:切片、融合和選擇.

圖3?SK Conv結(jié)構(gòu)

式中卷積核大小均為3,并且卷積過程后帶有BN和ReLU.

在文獻(xiàn)[11]中第1個方向采用一個3×3的卷積核,第2個方向采用一個5×5的卷積核,以此得到不同的感受野.本文將第2個方向上的5×5的卷積核改為2個3×3的卷積核,因?yàn)?個3×3的卷積核和1個5×5的卷積核得到的感受野大小都為5×5,而且多個卷積層與非線性的激活層交替的結(jié)構(gòu)比單一卷積層的結(jié)構(gòu)更能提取出深層的特征,參數(shù)量也更小[26].

2.2.3?SRD結(jié)構(gòu)

本文提出的SRD結(jié)構(gòu)為DenseNet和SK Conv的融合.SRD-121和SRD-169(121和169表示卷積層數(shù))的結(jié)構(gòu)如表1所示.分辨率為224×224的輸入圖像經(jīng)過7×7卷積和3×3池化后,輸入到后續(xù)卷積塊.為了在建立特征金字塔前加入自動調(diào)節(jié)感受野的機(jī)制,卷積塊SRD2、SRD3、SRD4中前半部分結(jié)構(gòu)與DenseNet中卷積塊結(jié)構(gòu)相同,最后一層卷積采用SK Conv.卷積塊Dense1與DenseNet中卷積塊結(jié)構(gòu)相同,過渡層仍然采用DenseNet中過渡層的結(jié)構(gòu).經(jīng)過融合,新的網(wǎng)絡(luò)結(jié)構(gòu)結(jié)合了DenseNet和SK Conv兩者的優(yōu)點(diǎn),不僅參數(shù)量小,還可以自動調(diào)節(jié)感受野的大?。?/p>

表1?SRD結(jié)構(gòu)

Tab.1?Structure of SRD network

2.3?先驗(yàn)框的選取

RetinaNet結(jié)構(gòu)對先驗(yàn)框的選取過程中,每一個待檢測的特征層有9種不同的先驗(yàn)框,包括3種不同寬高比(0.5,1.0,2.0)和3種不同面積變化(20,21/3,22/3).文獻(xiàn)[28]寬高比的選取采用k-means算法,相比于固定寬高比的方法,k-means算法可以根據(jù)所檢測的數(shù)據(jù)集產(chǎn)生更合適的寬高比,從而使得預(yù)測框更加準(zhǔn)確.但k-means算法中初始聚類中心是隨機(jī)選取的,聚類結(jié)果受初始聚類中心影響很大,初始點(diǎn)的選取要足夠離散才能保證在迭代過程中各個簇都能聚類到數(shù)量相當(dāng)?shù)臄?shù)據(jù).

為了避免該不穩(wěn)定性因素,本文采用k-means++產(chǎn)生寬高比,如算法1所示.本文數(shù)據(jù)集得到的3個聚類中心為(271,538)、(223,315)和(168,169),因此得到的先驗(yàn)框?qū)捀弑葹?0.505、0.709、0.989).

算法1?k-means++聚類算法

dis(目標(biāo)框,聚類中心)=

1-IOU(目標(biāo)框,聚類中心) (12)

步驟3?計算剩余的目標(biāo)框和各個聚類中心的距離,和哪個聚類中心距離最小即成為它的簇.

步驟4?更新各個簇的聚類中心,更新方法為

步驟5?計算聚類中心變化量,即

3?實(shí)驗(yàn)及結(jié)果分析

3.1?實(shí)驗(yàn)平臺

3.2?評價標(biāo)準(zhǔn)

式中:TP表示正確檢測出的正樣本數(shù);FP表示漏檢數(shù);FN表示誤檢數(shù).當(dāng)某預(yù)測框和目標(biāo)框的交并比(intersection over union,IoU)大于設(shè)定的閾值時,即是TP.

一批CXR檢測完之后,預(yù)測框得分從大到小排列,從得分最大的預(yù)測框開始每多計算一個預(yù)測框更新一次精確率和召回率.從而,以精確率為縱軸、召回率為橫軸可得出P-R曲線,曲線下的面積即為AP值.本文AP50(%)是閾值為0.5時的AP值.mAP(%)是閾值分別為0.40~0.75、步長為0.05的結(jié)果取平均得到.1分?jǐn)?shù)(%)是精確率和召回率之間的一種調(diào)和平均,計算過程如式(17)所示.

3.3?實(shí)驗(yàn)結(jié)果

3.3.1?預(yù)處理策略

SF預(yù)處理策略處理后,減弱了肋骨干擾并突出了微弱病灶特征.為了驗(yàn)證SF預(yù)處理策略對檢測結(jié)果的影響,本文將RetinaNet中的特征提取網(wǎng)絡(luò)替換為DenseNet,并將原圖像和經(jīng)SF預(yù)處理策略處理過的圖像分別輸入模型中進(jìn)行訓(xùn)練和測試,實(shí)驗(yàn)結(jié)果如表2所示.

表2?SF預(yù)處理策略結(jié)果對比

Tab.2?Comparison of preprocessing strategy results %

實(shí)驗(yàn)結(jié)果表明,與未經(jīng)預(yù)處理的結(jié)果相比,以DenseNet-121為特征提取網(wǎng)絡(luò)時,AP50、mAP和1分?jǐn)?shù)分別提高了1.8%、3.6%、2.7%,以DenseNet-169為特征提取網(wǎng)絡(luò)時,AP50、mAP和1分?jǐn)?shù)分別提高了0.6%、2.3%、1.5%,表明了SF預(yù)處理策略的有效性.

3.3.2?先驗(yàn)框選取策略

本文的實(shí)驗(yàn)以RetinaNet為框架,針對先驗(yàn)框的選取策略進(jìn)行了對比實(shí)驗(yàn).與固定的寬高比(0.5、1.0、2.0)相比,k-means++算法產(chǎn)生的寬高比(0.505、0.709、0.989)更符合肺炎目標(biāo)框的形狀特點(diǎn),因此預(yù)測框與目標(biāo)框的平均交并比更高.實(shí)驗(yàn)結(jié)果如表3所示,與固定的寬高比相比,采用k-means++算法后,特征提取網(wǎng)絡(luò)分別為DenseNet-121 和DenseNet-169時,預(yù)測框與目標(biāo)框的平均交并比分別高出0.013、0.038.

表3?k-means++對比實(shí)驗(yàn)

Tab.3?Comparison of experimental k-means++ results

3.3.3?參數(shù)量和計算量的比較

圖4?各算法參數(shù)量和計算量統(tǒng)計

3.3.4?SRD網(wǎng)絡(luò)的有效性

表4為各算法的檢測結(jié)果.在DenseNet-121和DenseNet-169的基礎(chǔ)上,加入自動調(diào)節(jié)感受野機(jī)制后(即特征提取網(wǎng)絡(luò)為SRD-121和SRD-169),AP50值分別提高了2.8%、1.4%,mAP分別提高了1.7%、0.8%,1分?jǐn)?shù)分別提高了2.3%、1.9%.

表4?各算法結(jié)果對比

Tab.4?Comparison of algorithm results %

加入SK Conv后,CNN可根據(jù)目標(biāo)大小自動調(diào)節(jié)感受野,從而產(chǎn)生相應(yīng)大小的預(yù)測框,進(jìn)而提高了檢測精度.否則,對肺炎病灶區(qū)域大小不同的CXR檢測時,無法產(chǎn)生準(zhǔn)確的預(yù)測框.如圖5所示,圖中綠色框和紅色框分別為目標(biāo)框和預(yù)測框,結(jié)果表明,以DenseNet-121為特征提取網(wǎng)絡(luò)時,容易對大目標(biāo)產(chǎn)生小預(yù)測結(jié)果,對小目標(biāo)產(chǎn)生大預(yù)測結(jié)果.然而,加入自動調(diào)節(jié)感受野機(jī)制后,即以SRD-121為特征提取網(wǎng)絡(luò)時,可對不同大小的目標(biāo)產(chǎn)生相應(yīng)的預(yù)測框.

圖5?X光片檢測結(jié)果示意

圖6為各類算法在閾值為0.5時產(chǎn)生的P-R曲線.從圖中可看出,特征提取網(wǎng)絡(luò)為SRD-121時,精確率隨召回率的升高下降最慢,曲線下面積最大,性能最好.

圖6?各類算法P-R曲線

4?結(jié)?語

本文提出一種基于SRD感受野自調(diào)節(jié)的肺炎病灶檢測方法,通過對RetinaNet網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn),提出SRD用于特征提取,該結(jié)構(gòu)將密集連接和選擇性核卷積融合,不僅參數(shù)量和計算量降低,而且能夠自動調(diào)節(jié)感受野大小.本文進(jìn)一步提出SF預(yù)處理策略,兼顧抑制肋骨干擾及突出病灶區(qū)域微弱紋理特征的特點(diǎn).最后采用k-means++算法選取先驗(yàn)框?qū)捀弑龋畬?shí)驗(yàn)結(jié)果表明,與原RetinaNet算法相比,本文算法在參數(shù)量及計算量降低的情況下mAP有所提高,因此,更利于將該檢測算法部署在資源受限的邊緣移動設(shè)備.

但目前的研究仍然有需要繼續(xù)深入研究的地方.經(jīng)實(shí)驗(yàn)表明,本文算法相比于原RetinaNet算法速度有所降低,原RetinaNet算法檢測速度為31.57張/s,本文算法以SRD-121為特征提取網(wǎng)絡(luò)時檢測速度為15.4張/s.雖然本文算法減少了參數(shù)量和計算量,但融入了DenseNet后內(nèi)存讀取操作增多,減慢了檢測速度.因此在今后的研究中,將會就速度方面進(jìn)行提升.

[1] Qin C L,Yao D M,Shi Y H,et al. Computer-aided detection in chest radiography based on artificial intelligence:A survey[J]. Biomedical Engineering Online,2018,17:1-23.

[2] Jaiswal A K,Tiwari P,Kumar S,et al. Identifying pneumonia in chest X-rays:A deep learning approach[J]. Measurement,2019,145:511-518.

[3] Liang G B,Zheng L X. A transfer learning method with deep residual network for pediatric pneumonia diagnosis[J]. Computer Methods and Programs in Biomedi-cine,2019(4):1-5.

[4] Kermany D S,Goldbaum M,Cai W J,et al. Identifying medical diagnoses and treatable diseases by image-based deep learning[J]. Cell,2018,172(5):1122-1131.

[5] Sirazitdinov I,Kholiavchenko M,Mustafaev T,et al. Deep neural network ensemble for pneumonia localiza-tion from a large-scale chest X-ray database[J]. Com-puters & Electrical Engineering,2019,78:388-399.

[6] Lin T Y,Goyal P,Girshick R,et al. Focal loss for dense object detection[J]. IEEE Transactions on Pat-tern Analysis & Machine Intelligence,2017,42(2):318-327.

[7] Redmon J,Divvala S,Girshick R,et al. You only look once:Unified,real-time object detection[C]// 2016 IEEE Conference on Computer Vision and Pattern Rec-ognition. Amsterdam,The Netherlands,2016:779-788.

[8] Redmon J,F(xiàn)arhadi A. YOLOv3:An incremental im-provement[EB/OL]. http://arxiv.org/abs/1804.02767,2018-04-08.

[9] He Kaiming,Gkioxari G,Dollar P,et al. Mask R-CNN[C]// 2017 IEEE International Conference on Com-puter Vision. Hawaii,USA,2017:2980-2988.

[10] Huang G,Liu Z,Maaten L V D,et al. Densely connected convolutions networks[C]// 2017 IEEE Conference on Computer Vision and Pattern Recognition. Hawaii,USA,2017:2261-2269.

[11] Li X,Wang W H,Hu X L. Selective kernel net-works[EB/OL]. http://arxiv.org/abs/1903.06586,2018-03-15.

[12] Papageorgiou C P,Oren M,Poggio T. A general framework for object detection[C]// 6th International Conference on Computer Vision. Bombay,India,1998:555-562.

[13] Ren J C,Astheimer P,F(xiàn)eng D. Real-time moving object detection under complex background[C]// Proceeding of the 3rd International Symposium on Image and Signal Processing and Analysis. Hong Kong,China. 2004:662-667.

[14] Girshick R,Donahue J,Darrell T,et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Colum-bus,OH,USA,2014:580-587.

[15] Everingham M,Van Gool L,Williams C K I,et al. The pascal visual object classes(VOC)challenge[J]. International Journal of Computer Vision,2010,88(2):303-338.

[16] Gu Chunhui,Lim Joseph J,Arbeláez P,et al. Recognition using regions[C]// 2009 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Miami,F(xiàn)L,USA,2009:1030-1037.

[17] Girshick R. Fast R-CNN[C]// Proceedings of the IEEE International Conference on Computer Vision. Santi-ago,Chile,2015:1440-1448.

[18] Ren S,He K,Girshick R,et al. Faster R-CNN:Towards real-time object detection with region proposal networks[C]// Advances in Neural Information Processing Systems. Montreal,Canada,2015:91-99.

[19] Liu W,Anguelov D,Erhan D,et al. SSD:Single shot multibox detector[C]// European Conference on Computer Vision. Amsterdam,The Netherlands,2016:21-37.

[20] Abhinav S,Abhinav G,Ross G,et al. Training region-based object detectors with online hard example mining[C]// 29th IEEE Conference on Computer Vision and Pattern Recognition. Long Beach,USA,2016:761-769.

[21] Lin T Y,Dollár P,Girshick R,et al. Feature pyramid networks for object detection[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Amsterdam,The Netherlands,2017:2117-2125.

[22] Gusarev M,Kuleev R,et al. Deep learning models for bone suppression in chest radiographs[C]// 2017 IEEE Conference on Computational Intelligence in Bioinformatics and Computational Biology. Manchester,UK,2017:1-7.

[23] Ioffe S,Szegedy C. Batch normalization:Accelerating deep network training by reducing internal covariate shift[C]// Proceeding of the 32nd International Conference on Machine Learning. Lille,F(xiàn)rance,2015:448-456.

[24] Glorot X,Bordes A,Bengio Y. Deep sparse recti?er neural networks[C]// 14th International Conference on Artificial Intelligence and Statistics. Lauderdale,F(xiàn)L,USA,2011:315-323.

[25] LeCun Y,Bottou L,Bengio Y,et al. Gradientbased learning applied to document recognition[J]. Proceedings of the IEEE,1998,86(11):2278-2324.

[26] Szegedy C,Vanhoucke V,Ioffe S,et al. Rethinking the inception architecture for computer vision[C]//Internaltional Conference on Computer Vision and Pattern Recogintion. Boston,MA,2015:1-10.

[27] Hu J,Shen L,Sun G. Squeeze-and-excitation networks[C]// Proceedings of the IEEE conference on computer vision and pattern recognition. Salt Lake City,UT,USA,2018:7132-7141.

[28] Redmon J,F(xiàn)arhadi A. YOLO9000:Better,faster,stronger[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Manchester,UK,2017:7263-7271.

[29] Kaggle. RSNA pneumonia detection challenge[EB/OL]. https://www.kaggle.com/c/rsna-pneumonia-detection-challenge,2019-04-23.

Pneumonia Focus Detection Based on SRD with Receptive Field Self-Regulation

Li Qiang1,Wu Yuxin1,Guan Xin1,Zhou Jing2

(1. School of Microelectronics,Tianjin University,Tianjin 300072,China;2. International School,Beijing University of Post and Telecommunications,Beijing 100876,China)

With the development of deep learning,the use of convolutional neural networks to diagnose pneumonia has attracted widespread attention,but research on the detection of pneumonia areas is lacking. The feature extraction networks of existing methods require a large number of parameters and calculations and huge storage resources and computing power. Because they cannot automatically adjust the size of the receptive field,it is difficult to determine differences in the sizes of the pneumonia areas in chest X-rays. To solve these problems,in this paper,we propose a method for detecting pneumonia areas based on a self-regulation DenseNet(SRD). First,we design a stress focus technique to preprocess the image,eliminate rib interference by suppressing the rib area,and use Laplacian transformation to sharpen the image and highlight the weak features of pneumonia areas. Next,the preprocessed image is detected using the improved RetinaNet. The feature extraction network uses the proposed SRD approach to replace the feature extraction network ResNet in the original RetinaNet. SRD combines the advantages of dense connections and selective kernel convolution. It requires fewer parameters and calculations and adaptively adjusts the receptive fields. Lastly,the k-means++ algorithm is used to cluster width and height information in the data set,and a representative anchor aspect ratio is selected instead of the fixed selection method in RetinaNet. On the CXR dataset provided by ?the North American Radiological Society,compared with the original RetinaNet algorithm,the SRD-121 ??method achieves a 0.4% increase in the mAP,a 52.2% reduction in the parameters,and a 51.8% reduction in the calculation operations. The experimental results show that the proposed method based on SRD for detecting pneumonia areas has the dual advantages of reducing the number of parameters and required calculations and increasing the mAP score.

convolutional neural network;pneumonia focus detection;image sharpening;receptive field;k-means++

TP391.4

A

0493-2137(2021)05-0508-09

10.11784/tdxbz202002034

2020-02-21;

2020-03-19.

李?鏘(1974—??),男,博士,教授.

李?鏘,liqiang@tju.edu.cn.

國家自然科學(xué)基金資助項(xiàng)目(61471263);天津市自然科學(xué)基金資助項(xiàng)目(16JCZDJC31100).

Supported by the National Natural Science Foundation of China(No.61471263),the Natural Science Foundation of Tianjin,China (No.16JCZDJC31100).

(責(zé)任編輯:王曉燕)

猜你喜歡
先驗(yàn)特征提取預(yù)處理
基于無噪圖像塊先驗(yàn)的MRI低秩分解去噪算法研究
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
基于預(yù)處理MUSIC算法的分布式陣列DOA估計
基于自適應(yīng)塊組割先驗(yàn)的噪聲圖像超分辨率重建
Bagging RCSP腦電特征提取算法
淺談PLC在預(yù)處理生產(chǎn)線自動化改造中的應(yīng)用
基于平滑先驗(yàn)法的被動聲信號趨勢項(xiàng)消除
絡(luò)合萃取法預(yù)處理H酸廢水
先驗(yàn)的廢話與功能的進(jìn)路
基于自適應(yīng)預(yù)處理的改進(jìn)CPF-GMRES算法
朝阳区| 上饶县| 和政县| 辽阳市| 墨脱县| 新建县| 伊宁市| 尤溪县| 山丹县| 淳安县| 东源县| 海原县| 鞍山市| 诸暨市| 六盘水市| 汪清县| 临泉县| 南靖县| 广灵县| 浦江县| 托克托县| 霍邱县| 清苑县| 石嘴山市| 清水县| 子洲县| 营山县| 开封县| 西丰县| 桂平市| 阿拉善左旗| 喀喇沁旗| 津市市| 湘西| 武穴市| 潜山县| 香格里拉县| 海宁市| 莱西市| 大丰市| 正镶白旗|