近年來,人工智能利用深度學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)已經(jīng)成為一種突破性的計算機技術(shù)。目前已經(jīng)發(fā)表了大量學(xué)術(shù)報告,用人工智能來識別和區(qū)分皮膚病學(xué)、放射學(xué)、神經(jīng)學(xué)、骨科、病理學(xué)、眼科學(xué)、胃腸病學(xué)各個醫(yī)學(xué)領(lǐng)域的圖像
。其實,人工智能在20世紀50年代就已經(jīng)被提及。雖然人工智能在過去60年內(nèi)起伏不定,看起來似乎沒什么進步,但它不斷被應(yīng)用于醫(yī)學(xué)領(lǐng)域,使用各種機器學(xué)習(xí)模型,包括貝葉斯推理、決策樹、邏輯回歸、人工神經(jīng)網(wǎng)絡(luò)等
。
在大數(shù)據(jù)時代,海量的數(shù)字圖像和醫(yī)療記錄推動著對利用人工智能處理這些數(shù)據(jù)的需求,這些數(shù)據(jù)就是機器自我學(xué)習(xí)的基本資源。隨著圖形處理計算能力的提高,可以克服傳統(tǒng)機器學(xué)習(xí)的限制,特別是對輸入數(shù)據(jù)的過度擬合,導(dǎo)致人工智能的再次復(fù)興,特別是在使用深度學(xué)習(xí)時。深度學(xué)習(xí)是機器學(xué)習(xí)的一種新形式
。在幾種深度學(xué)習(xí)方法中,卷積神經(jīng)網(wǎng)絡(luò)由多層人工神經(jīng)網(wǎng)絡(luò)組成,經(jīng)過逐步最小處理,在圖像分析中表現(xiàn)出優(yōu)異的性能
。胃鏡、膠囊內(nèi)鏡、腸鏡、超聲等設(shè)備的人工智能已逐漸應(yīng)用于臨床
。人工智能的快速發(fā)展要求消化內(nèi)科醫(yī)師了解人工智能的優(yōu)勢和缺陷。以下就人工智能在胃疾病中的應(yīng)用作一綜述。
該竹栽培品種已于2017年12月通過了國際竹類栽培品種登錄權(quán)威的新品種國際登錄認證,國際登錄號:No. WB-001-2017-024;活體保存地:國際竹類栽培品種(中國·成都)登錄園;命名范式保存地:國際竹類栽培品種登錄中心(ICRCB)[5]。
國外Takiyama等
構(gòu)建了卷積網(wǎng)絡(luò)模型,可以識別胃鏡圖像的解剖學(xué)位置,胃和十二指腸的
為0.99,這個模型還能識別上胃、中胃、下胃的解剖學(xué)位置,
為0.99。國內(nèi)武漢大學(xué)消化內(nèi)科利用WISENSE系統(tǒng)
進行胃鏡檢查的盲區(qū)監(jiān)測,WISENSE系統(tǒng)是一個實時的質(zhì)量改進系統(tǒng),WISENSE組的盲點率低于對照組(5.86%
22
46
,
<0.001),有利于提醒內(nèi)鏡醫(yī)師進行全面細致的觀察。
由于晚期胃癌5年生存率較低,所以早期識別胃癌癌前病變很重要。浙江大學(xué)團隊使用卷積神經(jīng)網(wǎng)絡(luò)對胃癌癌前病變進行識別,并提出新的算法——迭代強化算法,使精度提高到88.9%
,幫助醫(yī)師更高效地識別胃癌癌前病變,降低漏診率。
2.2時間分布2011~2016年各月均有病例報告,發(fā)病數(shù)差異有統(tǒng)計學(xué)意義(c2=32.518,P<0.05)。發(fā)病有明顯的季節(jié)性,4月后病例逐漸增加,主要集中在5~10月,共報告病例3184例,占發(fā)病總數(shù)的68.59%;6、7、8月為發(fā)病高峰,共報告病例數(shù)1945例,占發(fā)病總數(shù)的41.90%,9月后發(fā)病數(shù)開始下降;1、2、3、12月發(fā)病數(shù)最低,共報告病例867例,占發(fā)病總數(shù)的18.68%。見圖2。
糖尿病對中樞神經(jīng)系統(tǒng)的損害也表現(xiàn)在神經(jīng)遞質(zhì)上。在糖尿病動物實驗?zāi)P椭?,神?jīng)遞質(zhì)特別是單胺類神經(jīng)遞質(zhì)的結(jié)合和代謝是異常的。大腦中多巴胺受體數(shù)量顯著增加,而多巴胺的親和力降低,遞質(zhì)傳遞受到抑制,導(dǎo)致多巴胺能神經(jīng)活動降低。而且在胰島素治療后,多巴胺受體數(shù)量盡管恢復(fù)正常,但多巴胺代謝仍不能完全恢復(fù)正常[9]。
幽門螺桿菌感染是消化性潰瘍和胃癌最重要的危險因素。目前有幾位研究人員測試了人工智能來幫助內(nèi)鏡診斷幽門螺桿菌感染。2004年,Huang等
利用內(nèi)鏡圖像中相關(guān)的胃組織學(xué)特征,通過神經(jīng)網(wǎng)絡(luò)精細化特征選擇,研究了幽門螺桿菌感染的可預(yù)測性。利用了30例患者的84個圖像參數(shù)對該模型進行訓(xùn)練和分析。檢測幽門螺桿菌感染的靈敏性為85.4%,特異性為90.9%。此外,該模型識別胃萎縮、腸化生和預(yù)測幽門螺桿菌相關(guān)性胃炎的嚴重程度的準確率高于80%。最近,兩名日本研究人員報道了應(yīng)用卷積神經(jīng)網(wǎng)絡(luò)診斷幽門螺桿菌感染
。Itoh等
開發(fā)了一種卷積神經(jīng)網(wǎng)絡(luò)模型,在對之前的149張圖像進行數(shù)據(jù)增強后,使用596張內(nèi)窺鏡圖像識別幽門螺桿菌感染。結(jié)果表明,該模型的靈敏性和特異性分別為86.7%和86.7%。Shichijo等
比較了卷積神經(jīng)網(wǎng)絡(luò)和23名內(nèi)窺鏡醫(yī)師使用內(nèi)窺鏡圖像診斷幽門螺桿菌感染的性能。卷積神經(jīng)網(wǎng)絡(luò)模型具有較高的靈敏性(88.9%
79
0
)、特異性(87
4
83
2
)、準確性(87
7
82.4%)和較短的診斷時間(194 s
230 s)。2018年,Nakashima等
進行了一項前瞻性的試點研究,使用圖像增強內(nèi)窺鏡(如藍激光成像-明亮彩色聯(lián)動成像)自動診斷幽門螺桿菌感染。所建立的人工智能模型在藍激光成像-明亮彩色聯(lián)動成像訓(xùn)練(
分別為0.96和0.95)下的表現(xiàn)明顯高于白光成像訓(xùn)練(0.66)。
盡管許多研究人員已經(jīng)調(diào)查了人工智能的效用并顯示了令人振奮的結(jié)果,但大多數(shù)研究都是以回顧性方式設(shè)計的:作為單中心的病例對照研究,或使用從許多機構(gòu)無法獲得的特定內(nèi)鏡模式中選擇的內(nèi)鏡圖像。在這種情況下,不能排除選擇偏差等固有偏差。因此,在人工智能應(yīng)用于實際臨床實踐之前,仔細驗證人工智能的性能至關(guān)重要。為了正確驗證人工智能的準確性,醫(yī)師應(yīng)該了解過度擬合和頻譜偏差(類別不平衡)對人工智能性能的影響,并試圖通過避免這些偏差來評估性能。雖然在深度學(xué)習(xí)模型的開發(fā)中使用了幾種方法來減少過擬合,但它們并不能保證這一問題的完美解決。此外,通過病例對照設(shè)計收集的數(shù)據(jù)集易受到光譜偏差的影響。當用于模型開發(fā)的數(shù)據(jù)集不能充分代表將應(yīng)用于臨床實踐(目標人群)的患者范圍時,就會出現(xiàn)光譜偏差
。由于過擬合和頻譜偏差可能導(dǎo)致對準確性和概括性的高估,因此,必須使用未使用的數(shù)據(jù)集進行外部驗證,以最小化頻譜偏差的方式收集數(shù)據(jù)集進行模型開發(fā)。為了獲得證據(jù)等級更高的臨床數(shù)據(jù),需設(shè)計完善的多種心前瞻性研究。此外,深度學(xué)習(xí)技術(shù)由于其“黑箱性質(zhì)”,導(dǎo)致決策機制沒法進行清楚的展示,即結(jié)果解釋性不足??山忉屝院苤匾?,因為它可以提供安全措施,有助于檢測偏見,并建立社會接受度,因此,應(yīng)該進行進一步的調(diào)查,來解決這個問題。目前,已經(jīng)有一些方法來補充“黑箱”特征,例如注意圖和顯著區(qū)域
。
Kubot等
開發(fā)了一種計算機輔助診斷系統(tǒng),自動診斷胃癌浸潤深度,用344例胃癌患者的902幅圖像進行學(xué)習(xí),并進行準確性測試,準確率為64.7%。Zhu等
應(yīng)用卷積神經(jīng)網(wǎng)絡(luò)來判斷胃腫瘤的浸潤深度。他們用790張圖片訓(xùn)練了一個卷積神經(jīng)網(wǎng)絡(luò)模型,并用另外203張圖片對其進行了測試。在判斷胃癌浸潤深度時,卷積神經(jīng)網(wǎng)絡(luò)模型具有較高的準確性(89.2%)和特異性(95.6%),這一結(jié)果明顯優(yōu)于有經(jīng)驗的內(nèi)窺鏡醫(yī)師。Hirasawa等
利用深度學(xué)習(xí)研制了胃鏡自動診斷系統(tǒng),使用了13 584張胃癌內(nèi)鏡圖像進行訓(xùn)練,69例患者進行測試分析了2 296張測試圖像,總靈敏性為92.2%,陽性預(yù)測值為30.6%,作者得出結(jié)論是他們的系統(tǒng)可以在短時間處理大量內(nèi)鏡圖像,并有診斷能力。Kanesaka等
研究了一種使用支持向量機的計算機輔助診斷系統(tǒng),以便于使用放大的NBI來區(qū)分早期胃癌。這項研究報道了在診斷性能(準確性96.3%,PPV 98.3%,靈敏性96.7%,特異性95%)和一致性(準確性73.8%,PPV 75.3%,靈敏性65.5%,特異性80.8%)方面的顯著潛力。
人工智能在胃腫瘤診斷中的應(yīng)用主要分為兩大類:檢測和定性。2012年,Kubota等
首次評估了一種計算機輔助模式識別系統(tǒng),該系統(tǒng)使用內(nèi)窺鏡圖像識別胃癌浸潤深度。他們使用了902張內(nèi)窺鏡圖像,并在10次交叉驗證后創(chuàng)建了反向傳播模型。結(jié)果:T
~T
分期診斷準確率分別為77.2%、49.1%、51.0%和55.3%。其中,T
(黏膜浸潤)和T
分期(黏膜下浸潤)的準確率分別為68.9%和63.6%。Hirasawa等
報道了一種基于卷積神經(jīng)網(wǎng)絡(luò)的診斷系統(tǒng)在內(nèi)窺鏡圖像中檢測胃癌的良好性能。作者用13 584張內(nèi)窺鏡圖像訓(xùn)練模型,并用2 296張圖像對其進行了測試。總靈敏性為92.2%。此外,直徑≥6 mm的檢出率為98.6%,所有浸潤性癌均被識別出來
。所有遺漏的病灶均是表面凹陷和分化型黏膜內(nèi)癌,即便是經(jīng)驗豐富的內(nèi)窺鏡醫(yī)師也很難與胃炎區(qū)分開來。然而,卷積神經(jīng)網(wǎng)絡(luò)診斷為胃癌的69.4%的病變是良性的,最常見的誤診原因是胃炎伴紅腫、萎縮和腸化生
。近期廣州中山大學(xué)徐瑞華教授團隊成功研發(fā)了上消化道腫瘤內(nèi)鏡人工智能輔助系統(tǒng),進行了6家醫(yī)院的多中心、病例對照、診斷性研究,對上消化道癌總體診斷率為90%以上
。
雖然機器學(xué)習(xí)模型的效率和準確性隨著數(shù)據(jù)量的增加而增加,然而,考慮到隱私問題且人工標記數(shù)據(jù)的量有限,開發(fā)有效的機器學(xué)習(xí)模型具有挑戰(zhàn)性。為了解決這個問題,已經(jīng)提出了數(shù)據(jù)增強策略(使用綜合修改的數(shù)據(jù))
。尖峰神經(jīng)網(wǎng)絡(luò)更接近真實的神經(jīng)元機制,盡管目前暫無有效的監(jiān)督學(xué)習(xí)方法,但它可能會以更強大的計算能力取代現(xiàn)有的人工神經(jīng)網(wǎng)絡(luò)模型
。
使用人工智能進行診斷的準確性高并不意味著其應(yīng)用于臨床實踐中的有效性好。臨床結(jié)果的實際效益,醫(yī)師的滿意度,以及超出學(xué)術(shù)表現(xiàn)的成本效益,必須通過調(diào)查來證明。此外,人工智能也不是完美的。這就是為什么“增強智能”的出現(xiàn)強調(diào)了這樣一個事實,即人工智能的設(shè)計初衷是為了提升人類的實踐,而不是取代人類。雖然在醫(yī)療實踐中應(yīng)用人工智能的目的是提高工作流程的精確度,減少無意錯誤的數(shù)量,但已建立的不準確或夸大性能的模型很可能會因誤診或錯誤分類而引起倫理問題。還有一點,我們不知道人工智能的應(yīng)用對醫(yī)患關(guān)系的影響,而醫(yī)患關(guān)系是醫(yī)療利用和醫(yī)療實踐的重要組成部分。目前國內(nèi)醫(yī)患關(guān)系相對緊張,因此,在人工智能研究開始增多的時期,應(yīng)該確立與人工智能模型發(fā)展相關(guān)的倫理原則。
人工智能自20世紀50年代問世以來,在胃腸病學(xué)領(lǐng)域一直受到統(tǒng)計學(xué)或圖像分析領(lǐng)域的挑戰(zhàn)。最近對大數(shù)據(jù)和計算機科學(xué)的評估推動了人工智能技術(shù)的快速發(fā)展,特別是深度學(xué)習(xí)算法,顯示出了良好的潛力?,F(xiàn)在,人工智能在胃腸病學(xué)領(lǐng)域的應(yīng)用中已取得較大進展。作為內(nèi)鏡醫(yī)師,要明智地利用人工智能,了解其可行性,并通過進一步的研究來改善其缺陷。
[1] Topol EJ.High-performance medicine: the convergence of human and artificial intelligence[J].Nat Med, 2019, 25(1): 44-56.DOI: 10.1038/s41591-018-0300-7.
[2] Konno M, Ishii H.AI for medical use[J].Oncotarget, 2019, 10(2): 86-87.DOI: 10.18632/oncotarget.26556.
[3] Park SH, Han K.Methodologic guide for evaluating clinical performance and effect of artificial intelligence technology for medical diagnosis and prediction[J].Radiology, 2018, 286(3): 800-809.DOI: 10.1148/radiol.2017171920.
[4] Lathuilière S, Mesejo P, Alameda-Pineda X, et al.A comprehensive analysis of deep regression[J].IEEE Trans Pattern Anal Mach Intell, 2019, 42(9): 2056-2081.DOI: 10.1109/TPAMI.2019.2910523.
[5] Ronneberger O, Fischer P, Brox T.U-net: Convolutional networks for biomedical image segmentation[C]//International Conference on medical image computing and computer-assisted intervention.Springer, Cham, 2015:234-241.
[6] LeCun Y, Bengio Y, Hinton G.Deep learning[J].Nature, 2015, 521(7553): 436-444.DOI: 10.1038/nature14539.
[7] Suzuki K, Yisong C.Artificial intelligence in decision support systems for diagnosis in medical imaging[M].New York: Springer, 2018, 31-58.
[8] Alagappan M, Brown JRG, Mori Y, et al.Artificial intelligence in gastrointestinal endoscopy: the future is almost here[J].World J Gastrointest Endosc, 2018, 10(10): 239-249.DOI: 10.4253/wjge.v10.i10.239.
[9] Rees CJ, Koo S.Artificial intelligence-upping the game in gastrointestinal endoscopy?[J].Nat Rev Gastroenterol Hepatol, 2019, 16(10): 584-585.DOI: 10.1038/s41575-019-0178-y.
[10] Takiyama H, Ozawa T, Ishihara S, et al.Automatic anatomical classification of esophagogastroduodenoscopy images using deep convolutional neural networks[J].Sci Rep, 2018, 8(1): 7497.DOI: 10.1038/s41598-018-25842-6.
[11] Wu L, Zhang J, Zhou W, et al.Randomised controlled trial of WISENSE, a real-time quality improving system for monitoring blind spots during esophagogastroduodenoscopy[J].Gut, 2019, 68(12): 2161-2169.DOI: 10.1136/gutjnl-2018-317366.
[12] Zhang X, Hu W, Chen F, et al.Gastric precancerous diseases classification using CNN with a concise model[J].PLoS One, 2017, 12(9): e0185508.DOI: 10.1371/journal.pone.0185508.
[13] Huang CR, Sheu BS, Chung PC, et al.Computerized diagnosis of Helicobacter pylori infection and associated gastric inflammation from endoscopic images by refined feature selection using a neural network[J].Endoscopy, 2004, 36(7): 601-608.DOI: 10.1055/s-2004-814519.
[14] Shichijo S, Nomura S, Aoyama K, et al.Application of convolutional neural networks in the diagnosis of Helicobacter pylori infection based on endoscopic images[J].EBioMedicine, 2017, 25: 106-111.DOI: 10.1016/j.ebiom.2017.10.014.
[15] Itoh T, Kawahira H, Nakashima H, et al.Deep learning analyzes Helicobacter pylori infection by upper gastrointestinal endoscopy images[J].Endosc Int Open, 2018, 6(2): E139-E144.DOI: 10.1055/s-0043-120830.
[16] Nakashima H, Kawahira H, Kawachi H, et al.Artificial intelligence diagnosis of Helicobacter pylori infection using blue laser imaging-bright and linked color imaging: a single-center prospective study[J].Ann Gastroenterol, 2018, 31(4): 462-468.DOI: 10.20524/aog.2018.0269.
[17] Kubota K, Kuroda J, Yoshida M, et al.Medical image analysis: computer-aided diagnosis of gastric cancer invasion on endoscopic images[J].Surg Endosc, 2012, 26(5): 1485-1489.DOI: 10.1007/s00464-011-2036-z.
[18] Hirasawa T, Aoyama K, Tanimoto T, et al.Application of artificial intelligence using a convolutional neural network for detecting gastric cancer in endoscopic images[J].Gastric Cancer, 2018, 21(4): 653-660.DOI: 10.1007/s10120-018-0793-2.
[19] Luo H, Xu G, Li C, et al.Real-time artificial intelligence for detection of upper gastrointestinal cancer by endoscopy: a multicentre, case-control, diagnostic study[J].Lancet Oncol, 2019, 20(12): 1645-1654.DOI: 10.1016/S1470-2045(19)30637-0.
[20] Zhu Y, Wang QC, Xu MD et al.Application of convolutional neural network in the diagnosis of the invasion depth of gastric cancer based on conventional endoscopy[J].Gastrointest Endosc, 2019, 89(4): 806-815.e1.DOI: 10.1016/j.gie.2018.11.011.
[21] Kanesaka T, Lee TC, Uedo N, et al.Computer-aided diagnosis for identifying and delineating early gastric cancers in magnifying narrow-band imaging[J].Gastrointest Endosc, 2018, 87(5): 1339-1344.DOI: 10.1016/j.gie.2017.11.029.
[23] Bae HJ, Kim CW, Kim N, et al.A perlin noise-based augmentation strategy for deep learning with small data samples of HRCT images[J].Sci Rep, 2018, 8(1): 17687.DOI: 10.1038/s41598-018-36047-2.
[24] Tavanaei A, Ghodrati M, Kheradpisheh SR, et al.Deep learning in spiking neural networks[J].Neural Netw, 2019, 111: 47-63.DOI: 10.1016/j.neunet.2018.12.002.