国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于雙層信息融合的乳腺切片癌細胞識別

2018-01-29 09:47劉景鑫張同舟鄭彩俠張磊超徐慧孔俊
中國醫(yī)療設(shè)備 2018年1期
關(guān)鍵詞:分類器癌細胞切片

劉景鑫,張同舟,鄭彩俠,張磊超,徐慧,孔俊

1.吉林大學中日聯(lián)誼醫(yī)院,吉林 長春 130033;2.東北師范大學 信息科學與技術(shù)學院,吉林 長春 130117

引言

乳腺癌是女性最常見的惡性腫瘤之一,其治療的關(guān)鍵是早期發(fā)現(xiàn)和診斷[1-5]。病理切片檢查是乳腺癌診斷的有效手段,但通常需要具有豐富醫(yī)學知識和臨床經(jīng)驗的醫(yī)生對其進行處理與分析,導(dǎo)致分析和診斷的過程耗費大量精力且診斷結(jié)果容易帶有主觀偏向性。因此,迫切需要研究基于計算機的分析與識別方法,來自動識別乳腺組織切片癌細胞,以提供客觀的、統(tǒng)一的診斷結(jié)果,為醫(yī)生的進一步處理提供大量有用信息。

近年來,模式分析與識別技術(shù)已被廣泛應(yīng)用于各種醫(yī)學圖像處理中,如腦磁共振圖像分割[6]、心臟序列圖像分割[7]、乳腺癌識別[2]、肝癌識別與診斷等[8-9]。2017年,Esteva等[10]提出了利用深度神經(jīng)網(wǎng)絡(luò)對皮膚癌圖像進行識別,識別結(jié)果的準確率與專業(yè)的人類醫(yī)生相當,相關(guān)研究論文被選為封面論文在Nature上發(fā)表。由此可見,利用計算機圖像處理、模式識別技術(shù)對醫(yī)學圖像進行分析與處理已經(jīng)引起了研究人員的廣泛關(guān)注,并已取得了很大的研究進展。利用深度學習技術(shù)可以取得良好的識別效果,但需要海量的數(shù)據(jù)訓(xùn)練神經(jīng)網(wǎng)絡(luò),以使其具有良好的性能。然而在實際問題中,海量數(shù)據(jù)的獲取通常非常耗費人力,有時甚至是無法完成的任務(wù)。因此,如何在僅有少量醫(yī)學圖像的情況下開發(fā)出具有較好性能的識別模型是一個重要的研究課題,具有深遠的研究意義與廣泛的應(yīng)用價值。

醫(yī)學圖像識別主要包含兩個關(guān)鍵步驟:圖像特征提取和分類模型構(gòu)建。特征提取的目的是從圖像中抽象出能表達圖像本質(zhì)內(nèi)容的特征,如紋理特征、顏色特征和形狀特征等[11-14]。給定一幅乳腺細胞切片圖像,可以通過單一特征或多種不同的特征來描述其包含的內(nèi)容。大量研究表明,同時融合多種特征可以增加特征描述的魯棒性和類別區(qū)別能力,從而有益于對圖像的分類與識別[15]。分類模型的構(gòu)建是指利用圖像特征學習一個分類準則,通過該準則可以對不同類別的圖像進行識別。在醫(yī)學圖像分析與處理領(lǐng)域中,常用的分類模型有神經(jīng)網(wǎng)絡(luò)和支持向量機(Support Vector Machine,SVM)等[2,8,16-17]。不同的分類器對圖像樣本的分類能力不同,對于某個分類器而言比較容易識別的樣本可能對于其他分類器而言是難以識別的樣本,因此,適當融合分類器的決策結(jié)果,可以有效提高乳腺切片癌細胞圖像的識別精度。

綜上,為了同時利用乳腺細胞切片圖像的多種特征信息,并且融合不同分類器的決策結(jié)果,本文提出一種基于雙層信息融合的乳腺切片癌細胞識別方法,該方法可利用少量的數(shù)據(jù)訓(xùn)練一個較好的分類模型,在乳腺癌細胞識別的任務(wù)上取得了較好的效果。

1 本文方法

本文提出的基于雙層信息融合的乳腺切片癌細胞識別方法的總體流程,見圖1,首先對細胞圖像提取紋理、顏色和邊緣形狀信息,然后將3種信息進行融合后分別輸入到3個不同的分類器(基于稀疏表示的分類器(Sparse Representation Based Classification,SRC)[18]、SVM[19]和K近鄰分類器(K-Nearest Neighbor,KNN)中,最后將3個分類器的決策結(jié)果進行融合,得到最終的識別結(jié)果。

圖1 方法流程圖

1.1 特征層信息融合

乳腺切片細胞圖像具有特殊性和復(fù)雜性,采用單一的特征很難精確的描述圖像內(nèi)容。因此,為了更好地抽象乳腺細胞切片圖像的本質(zhì)信息,本文對其同時提取局部二值模式(Local Binary Pattern,LBP)[20]、梯度直方圖和HSV空間顏色直方圖特征,分別挖掘圖像的紋理信息、邊緣形狀信息和顏色信息,并將3種信息進行融合作為乳腺切片細胞的特征描述子。

LBP特征是一種圖像紋理信息描述子,其基本思想是對圖像進行局部區(qū)域劃分,并將局部區(qū)域內(nèi)所有像素與區(qū)域中心像素分別進行比較,若周圍像素的灰度值小于中心像素的灰度值,則該像素點的位置被標記為0,否則被標記為1,最后將得到的0和1值按一定順序組成二進制數(shù),并將其轉(zhuǎn)換成十進制數(shù)(即LBP碼)作為該區(qū)域的紋理特征描述子,見圖2。在圖2中,將周圍像素點的灰度值2、8、9、8、7、4、1和4分別與中心像素點的灰度值5進行比較,得到二進制碼為01111000,轉(zhuǎn)化為十進制數(shù)為120,則該中心點的LBP值為120。

梯度直方圖可有效描述圖像邊緣和形狀信息,而顏色直方圖可以捕獲圖像的顏色信息。為了消除圖像形變、遮擋等因素對特征提取的影響,本文首先將細胞圖像規(guī)則地劃分為不重疊的若干局部區(qū)域,然后在每個區(qū)域中分別計算像素點的梯度值,并將其統(tǒng)計為梯度直方圖。對于顏色特征,在每個區(qū)域內(nèi)分別統(tǒng)計HSV顏色空間3個通道的顏色分量直方圖,并將3個顏色分量的直方圖聯(lián)合起來作為圖像顏色特征描述子。

圖2 LBP描述子示意圖

為了將提取的LBP、梯度直方圖和顏色直方圖特征進行有效融合,本文首先采用詞袋模型(Bag-of-Words,BOW)[21]分別對每種特征進行編碼,以得到更緊湊、更魯棒的特征向量,然后將編碼后的3種特征向量拼接為一個特征向量作為乳腺細胞切片圖像的特征描述子。

1.2 決策層信息融合

在臨床工作中,由于個人經(jīng)驗和水平不同,不同的醫(yī)生在診斷某一病癥時看法不同,因此可通過參考多個醫(yī)生的診斷結(jié)果來進一步確診病癥。類似地,在計算機視覺領(lǐng)域,不同分類器的學習能力與識別能力也具有一定的差異性,對于比較難以識別的樣本,不同分類器一般會給出不同的識別結(jié)果。因此,融合多種分類器的識別結(jié)果,可以有效減少信息的不確定性,提高算法識別率[22]。本文分別采用SRC、SVM和KNN分類器對細胞圖像進行分類,并將3種分類器的結(jié)果進行投票融合,進而得到最終的識別結(jié)果。

SRC分類器是由Wright等[18]在2009年提出,該分類器是基于模擬生物視覺的感知特性提出的,在圖像處理、模式識別和壓縮感知等領(lǐng)域得到了較好的應(yīng)用[23]。SRC的基本原理是利用全部有標簽的訓(xùn)練圖像作為字典原子,然后分別采用不同類別的字典原子對測試圖像進行重構(gòu),測試圖像的類別被歸為具有最小重構(gòu)誤差的那一類。給定含有C類樣本的訓(xùn)練樣本(圖像)集合A=[A1,…,Ac,…,Ac],Ac∈Rm×n代表來自第c類的樣本,y代表給定的待測試樣本,SRC的目標函數(shù)如下:

其中,x為樣本重構(gòu)系數(shù),||x||1代表對x求l1范數(shù),Ax=y代表用字典A對樣本y進行重構(gòu)。得到樣本重構(gòu)系數(shù)后,對于給定的測試樣本y,可以利用字典重構(gòu)誤差計算其標簽,如公式(2)所示:

其中,δi(·)為系數(shù)選擇函數(shù),它的作用是僅保留 x?1中第i類字典原子對應(yīng)的重構(gòu)系數(shù),其他類別的字典原子對應(yīng)的重構(gòu)系數(shù)置為0。

SVM[19]是一種基于統(tǒng)計學習理論的機器學習方法,該方法在小樣本、高維度的模式分類以及非線性圖像識別問題中均表現(xiàn)出了優(yōu)良的性能。SVM的基本原理是通過最小化結(jié)構(gòu)化風險來提高學習的泛化能力,使得置信范圍和經(jīng)驗風險最小化,從而實現(xiàn)在樣本量較少的情況下也能學習到較好的分類準則。SVM的尋優(yōu)過程即是分隔間距和誤差補償之間的平衡過程。KNN是一種簡單、計算復(fù)雜度非常低的分類方法,該方法根據(jù)待分類樣本的K個最鄰近樣本的類別來決策該樣本所屬的類別,即在樣本特征空間中,如果某個樣本的K個近鄰樣本中的大多數(shù)屬于某個類別,則該樣本也屬于這個類別。

SRC、SVM和KNN在處理圖像識別任務(wù)時各有優(yōu)勢,為了融合這3種分類器的優(yōu)勢以充分提高識別結(jié)果的準確性,本文將融合后的乳腺細胞切片圖像特征分別輸入到3個分類器中,并將得到的3個分類結(jié)果采取投票機制計算最終的識別結(jié)果。

2 實驗結(jié)果及分析

為了測試本文提出的基于雙層信息融合的乳腺切片癌細胞識別方法的有效性,我們在醫(yī)生提供的真實醫(yī)學數(shù)據(jù)上進行了實驗。

2.1 實驗數(shù)據(jù)

本文采用的實驗數(shù)據(jù)是乳腺非特殊型浸潤性癌組織切片圖像,所有實驗圖像均是由中日聯(lián)誼醫(yī)院病理醫(yī)生采用iScan Coreo數(shù)字病理切片掃描儀將乳腺癌組織掃描成數(shù)字圖像,然后截取40倍物鏡放大倍數(shù)圖像獲得。此外,醫(yī)生也對每幅圖像中的細胞為正常細胞還是癌細胞進行了預(yù)先標注。實驗數(shù)據(jù)共251幅圖像,其中100幅為癌細胞圖像,151幅為正常細胞圖像,圖像大小為80×80或50×50像素,每幅圖像中包含一個細胞核(癌細胞或正常細胞),見圖3。

2.2 實驗結(jié)果

在實驗中,我們分別從實驗數(shù)據(jù)中隨機選擇50%的樣本作為訓(xùn)練樣本,其余樣本作為測試樣本,隨機實驗重復(fù)10次,并計算10次結(jié)果的平均識別率和標準差。平均識別率和標準差的計算公式如(3)和公式(4)所示[24]:

為了說明本文的特征層融合機制是有效的,我們對比了僅采用單特征的識別結(jié)果和3個特征融合的識別結(jié)果(分類器統(tǒng)一采用SRC分類器),實驗結(jié)果見表1。從表1中可以看出,特征層信息融合可以有效提高識別準確率。

圖3 實驗數(shù)據(jù)庫中的部分圖像

表1 采用單特征和多特征融合的識別結(jié)果

為了進一步說明本文的決策層融合機制的有效性,我們對比了采用3個特征融合,但在決策層僅采用單個分類器的識別結(jié)果和本文的雙層(特征層和決策層)信息融合方法的識別結(jié)果,見表2。相比于僅采用單分類器進行識別,本文的方法有效地提高了識別準確率,且識別結(jié)果的標準差也相對較小,說明本文提出的方法具有較好的穩(wěn)定性。

表2 采用單分類器和本文方法的識別結(jié)果

3 結(jié)論

本文提出了一種基于雙層信息融合的乳腺切片癌細胞識別方法,該方法分別在特征層和決策層將多種信息進行融合,可以有效提高癌細胞和正常細胞的識別準確率,且適用于數(shù)據(jù)量較少的情況。我們在真實的乳腺癌細胞切片圖像數(shù)據(jù)庫上測試了本文算法的有效性。

根據(jù)《臨床技術(shù)操作規(guī)范》和《等級醫(yī)院評審標準》,病理科質(zhì)量控制指標有“常規(guī)切片優(yōu)良率≥98%”“術(shù)中快速病理診斷準確率≥95%”和“常規(guī)診斷報告準確率≥95%”等[25]??梢钥闯霰疚乃惴ㄔ趯嶒灁?shù)據(jù)上的識別準確率基本可以達到該標準,因此本文算法可以作為一種癌細胞輔助診斷手段,但不能完全取代病理醫(yī)生進行診斷,在實際問題中,可以通過人機結(jié)合的方式來減少誤診和漏診,以進一步提高診斷的正確率。

[1] Addeh J,Ebrahimzadeh A.Breast cancer recognition using a novel hybrid intelligent method[J].JMSS,2012,2(2):95-102.

[2] Senapati MR,Mohanty,et al.Local linear wavelet neural network for breast cancer recognition[J].Neural Comput Appl,2013,22(1):125-131.

[3] 安靜,夏玉軍.MRI、超聲及鉬靶在乳腺腫塊大小測量中的比較[J].中國醫(yī)療設(shè)備,2016,31(5):67-69.

[4] 付巖松,孫心平.彩超在早期乳腺癌診斷中的應(yīng)用價值[J].中國醫(yī)療設(shè)備,2014,29(8):173-174.

[5] 李彬,湯素瓊,黃華明,等.乳腺癌鈣化在數(shù)字化全景乳腺攝影中的特征性分析[J].中國醫(yī)療設(shè)備, 2015,30(2):63-64.

[6] Wang J,Kong J,Lu Y,et al.A modi?ed FCM algorithm for MRI brain image segmentation using both local and non-local spatial constraints[J].Comput Med Imag Grap,2008,32(8):685-698.

[7] 王蓓,張立明.利用圖像先驗知識與Snake結(jié)合對心臟序列圖像的分割[J].復(fù)旦學報:自然科學版,2003,42(1):81-86.

[8] 楊育彬,李寧,陳世福,等.基于圖像特征的智能肺癌識別[J].南京大學學報:自然科學版,2003,39(2):211-218.

[9] Zheng C,Li W,Wang S,et al.Hepatoma cells recognition based on matrix absolute gray relational degree of B-mode[J].OPTIK,2014,125(4):1579-1584.

[10] Esteva A,Kuprel B,Novoa RA,et al.Dermatologist-level classification of skin cancer with deep neural networks[J].Nature,2017,542(7639):115-118.

[11] Yang NC,Chang WH,Kuo C-M,et al.A fast MPEG-7 dominant color extraction with new similarity measure for image retrieval[J].J Vis Commun Image R,2008,19(2):92-105.

[12] Islam MM,Zhang D,Lu G.A geometric method to compute directionality features for texture images[A].Multimedia and Expo, 2008 IEEE International Conference on IEEE[C].New York:IEEE,2008:1521-1524.

[13] Leung WH,Chen T.Trademark retrieval using contour-skeleton stroke classification[A].Multimedia and Expo,2002 ICME’02 Proceedings 2002 IEEE International Conference on IEEE[C].New York:IEEE,2002:517-520.

[14] Liu Y,Zhang J,Tjondronegoro D,et al.A shape ontology framework for bird classi?cation[A].Digital Image Computing Techniques and Applications, 9thBiennial Conference of the Australian Pattern Recognition Society on IEEE[C].New York:IEEE,2007:478-484.

[15] Zheng C,Zhang F,Hou H,et al.Active discriminative dictionary learning for weather recognition[J].Math Probl in Eng,2016:1-12.

[16] 廖苗,趙于前,曾業(yè)戰(zhàn),等.基于支持向量機和橢圓擬合的細胞圖像自動分割[J].浙江大學學報:工學版,2017,51(4):722-728.

[17] 黃建燈,陳慶全.基于支持向量機的紅細胞彩色圖像分割[J].計算機系統(tǒng)應(yīng)用,2009,18(1):35-38.

[18] Wright J,Yang AY,Ganesh A,et al.Robust face recognition via sparse representation[J].IEEE Trans Anal Patt Mach Intel,2009,31(2):210-227.

[19] Vapnik VN,Vapnik V.Statistical Learning Theory[M].New York:Wiley,1998.

[20] Ojala T,Pietik?inen M,Harwood D.A comparative study of texture measures with classification based on featured distributions[J].Pattern Recogn,1996,29(1):51-59.

[21] Csurka G,Dance CR,Fan L,et al.Visual categorization with bags of keypoints[J].ECCV,2004,44(247):1-22.

[22] 劉安斐,李弼程,張先飛.基于數(shù)據(jù)融合的多特征遙感圖像分類[J].數(shù)據(jù)采集與處理,2006,21(4):463-467.

[23] 宋相法,焦李成.基于稀疏編碼和集成學習的多示例多標記圖像分類方法[J].電子與信息學報,2013,35(3):622-626.

[24] 錢能生.概率論、數(shù)理統(tǒng)計與隨機過程[M].廣州:華南理工大學出版社,2003.

[25] 馬恒輝,周曉軍.南京市臨床病理室間質(zhì)控評價標準介紹[J].臨床與實驗病理學雜志,2017,33(2):222-224.

猜你喜歡
分類器癌細胞切片
新局勢下5G網(wǎng)絡(luò)切片技術(shù)的強化思考
5G網(wǎng)絡(luò)切片技術(shù)增強研究
基于特征選擇的SVM選擇性集成學習方法
癌細胞最怕LOVE
網(wǎng)絡(luò)切片標準分析與發(fā)展現(xiàn)狀
假如吃下癌細胞
基于深度優(yōu)先隨機森林分類器的目標檢測
淺析5G網(wǎng)絡(luò)切片安全
基于差異性測度的遙感自適應(yīng)分類器選擇
癌細胞最怕Love
鸡泽县| 永年县| 民乐县| 稻城县| 乾安县| 红桥区| 百色市| 合江县| 五原县| 新干县| 河津市| 安丘市| 开远市| 高清| 耿马| 金昌市| 巫溪县| 毕节市| 双辽市| 兴隆县| 富川| 沾益县| 雷州市| 山西省| 库尔勒市| 高清| 会同县| 新绛县| 修文县| 枣强县| 邵武市| 宝兴县| 南宫市| 鸡东县| 沂源县| 聂荣县| 玉田县| 巍山| 麟游县| 衡阳市| 枣庄市|