王婷 綜述 汪瑞昕 林浩添 審校
中山大學(xué)中山眼科中心 眼科學(xué)國家重點(diǎn)實(shí)驗(yàn)室,廣州 510060
白內(nèi)障是我國,乃至全世界人群視力受損和盲的主要原因,發(fā)展中國家白內(nèi)障致盲人數(shù)占總盲人數(shù)的50%以上[1]。白內(nèi)障的病因主要為年齡相關(guān)性晶狀體混濁,部分還與全身性疾病、眼部創(chuàng)傷及先天性因素等有關(guān)[2-5]。隨著全球人口老齡化的逐漸加快,白內(nèi)障患病率也呈現(xiàn)逐年升高的趨勢[6]。預(yù)計(jì)到2050年,中國因白內(nèi)障導(dǎo)致的視力低下,甚至“白內(nèi)障盲”的人數(shù)將達(dá)到2 000萬。白內(nèi)障的早期診斷和及時(shí)管理對于提高患者的生活質(zhì)量至關(guān)重要[7]。目前,據(jù)中華醫(yī)學(xué)會眼科學(xué)分會統(tǒng)計(jì),中國60~89歲人群白內(nèi)障的發(fā)病率為80%,而90歲以上人群白內(nèi)障的發(fā)病率為90%以上,而我國眼科醫(yī)生從業(yè)人員只有4.48萬人[8]。由此可見,醫(yī)患數(shù)量間的巨大差距嚴(yán)重影響白內(nèi)障患者的診斷和治療[6,9]。人工智能(artificial intelligence,AI)作為近年來發(fā)展迅猛的一門學(xué)科,是研究人類各種智能活動的基本理論、方法和技術(shù),進(jìn)而通過計(jì)算機(jī)的軟、硬件構(gòu)建一個智能系統(tǒng)來完成平時(shí)由人類施行的工作[10]。眾所周知,AI在圖像識別方面具有極大的優(yōu)勢,其能通過學(xué)習(xí)大量圖像數(shù)據(jù)特征進(jìn)行遷移學(xué)習(xí)并訓(xùn)練出自動識別的模型。將AI運(yùn)用于醫(yī)學(xué)領(lǐng)域是緩解醫(yī)療資源匱乏、提高診療效率、降低成本的良好方法[11]。隨著眼科檢查設(shè)備的發(fā)展,大多數(shù)眼前節(jié)及眼后節(jié)的基本情況特征能夠以圖片形式被記錄保存,使得AI在眼科領(lǐng)域具有極大的發(fā)展前景。在白內(nèi)障領(lǐng)域,目前,AI主要被應(yīng)用于白內(nèi)障的篩查診斷、術(shù)前評估、人工晶狀體屈光度的計(jì)算及白內(nèi)障手術(shù)步驟的分析。利用深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)構(gòu)建的智能化識別可以使白內(nèi)障分級更加客觀和標(biāo)準(zhǔn)化,這些都有利于白內(nèi)障診斷和治療水平的進(jìn)步。本文就AI在白內(nèi)障領(lǐng)域的最新研究進(jìn)展進(jìn)行綜述。
早發(fā)現(xiàn)、早診斷、早治療對提高白內(nèi)障患者的生活質(zhì)量及降低醫(yī)療成本具有重要意義。然而由于醫(yī)療資源匱乏,難以對高發(fā)人群進(jìn)行大范圍的篩查,因此基于裂隙燈照相和眼底照相等白內(nèi)障AI診斷系統(tǒng)應(yīng)運(yùn)而生。
Gao等[12]提出了一種可以從裂隙燈顯微鏡圖像中自動學(xué)習(xí)特征且對核性白內(nèi)障嚴(yán)重程度進(jìn)行分級的系統(tǒng),該系統(tǒng)首先通過局部濾波器對相同等級的晶狀體混濁圖像進(jìn)行聚類,濾波器濾過的特征先是被輸入卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN),然后輸入一組遞歸神經(jīng)網(wǎng)絡(luò),以進(jìn)一步提取高階特征,最后應(yīng)用支持向量機(jī)(support vector machine,SVM)來確定白內(nèi)障嚴(yán)重程度等級;該研究采用ACHIKO-NC數(shù)據(jù)庫里的5 378張裂隙燈顯微鏡照片(白內(nèi)障等級為1~5級)進(jìn)行模型訓(xùn)練,得到平均絕對誤差(ε)為0.304,精確積分一致性比(R0)為70.7%,十進(jìn)制分級誤差≤0.5(Re0.5)為88.4%和十進(jìn)制分級誤差≤1.0(Re1.0)為99.0的分級系統(tǒng)。Cheng[13]也報(bào)道了一種將新的稀疏矩陣約束學(xué)習(xí)(sparse range-constrained learning,SRCL)算法用于裂隙燈顯微鏡下晶狀體圖像自動分級系統(tǒng),與大多數(shù)現(xiàn)有的學(xué)習(xí)算法不同,SRCL集成了尋找稀疏表示和圖像分級功能,根據(jù)數(shù)據(jù)或特征以及醫(yī)學(xué)等級評分中最相似的原子,找到測試圖像的稀疏表示;該研究同樣采用ACHIKO-NC數(shù)據(jù)集,將白內(nèi)障分為5個等級,該白內(nèi)障分級系統(tǒng)的ε為0.322,R0為69.1%,Re0.5為78.0%,Re1.0為98.9%。為了進(jìn)一步提高白內(nèi)障AI系統(tǒng)的使用范圍,有研究提出了一種使用數(shù)碼相機(jī)拍攝的眼前節(jié)照片來診斷角膜潰瘍和白內(nèi)障的多類計(jì)算機(jī)輔助診斷系統(tǒng),該系統(tǒng)首先對輸入的眼前節(jié)照片進(jìn)行預(yù)處理以去除鏡面反射,并使用圓形霍夫變換方法對虹膜圓形區(qū)域進(jìn)行分割,從分割的虹膜圓形中提取一階統(tǒng)計(jì)特征和基于小波變換的特征,并將其用于SVM和最小順序優(yōu)化算法中進(jìn)行分類;該研究共采用228張眼前節(jié)照片(100張正常+128張異常)進(jìn)行模型訓(xùn)練,模型預(yù)測準(zhǔn)確度為96.96%,靈敏度為97%,特異度為99%[14]。
由于先天性白內(nèi)障的特殊性,其較年齡相關(guān)性白內(nèi)障的診斷更加依賴醫(yī)生對患兒裂隙燈顯微鏡下晶狀體情況的判別[15]。Liu等[16]利用886張不同嚴(yán)重程度先天性白內(nèi)障患兒和正常兒童的晶狀體裂隙燈顯微鏡圖像(476張正常兒童圖像,410張來自中國衛(wèi)生部兒童白內(nèi)障計(jì)劃),采用深度卷積神經(jīng)網(wǎng)絡(luò)(deep convolutional neural network,DCNN)來自動定位晶狀體區(qū)域和嚴(yán)重程度分級;為了驗(yàn)證CNN提取圖像深層特征的有效性,該研究結(jié)合了SVM和SoftMax分類器的特征,并將其與傳統(tǒng)的代表性方法進(jìn)行比較,定性和定量實(shí)驗(yàn)結(jié)果表明,該方法具有出色的性能,對白內(nèi)障判定的平均準(zhǔn)確度、靈敏度和特異度分別為97.07%、97.28%和96.83%,其在晶狀體混濁面積、混濁位置和密度分級中的準(zhǔn)確度分別為89.02%、92.68%和89.28%。Long等[17]建立AI輔助診斷平臺對健康兒童和白內(nèi)障患兒的眼前節(jié)裂隙燈顯微鏡圖像進(jìn)行二分類識別,該研究納入1 349張小兒眼前節(jié)裂隙燈顯微鏡照片進(jìn)行模型開發(fā)與驗(yàn)證,CNN根據(jù)晶狀體混濁的位置(中央或周圍)、密度(密集或非密集)和面積(廣泛或有限)評估疾病嚴(yán)重程度,并提供治療建議(手術(shù)或隨訪);通過與眼科專家給出的結(jié)果進(jìn)行比較發(fā)現(xiàn),AI算法識別出先天性白內(nèi)障患者的準(zhǔn)確率為98.87%,對晶狀體輕、中、重混濁程度判定的準(zhǔn)確率分別為93.98%、95.06%、95.12%,并對97.56%以上的先天性白內(nèi)障患者給出了正確的治療建議。
Wu等[18]報(bào)道了一個集成AI的遠(yuǎn)程醫(yī)療平臺,用于篩查和轉(zhuǎn)診白內(nèi)障患者,其中包括2個部分內(nèi)容:第一部分使用殘差網(wǎng)絡(luò)(ResNet)和37 638張裂隙燈照片開發(fā)AI系統(tǒng),該系統(tǒng)包含3個任務(wù),即白內(nèi)障圖像拍攝模式的識別、白內(nèi)障診斷和白內(nèi)障轉(zhuǎn)診與否;第二部分將這些AI算法集成到AI系統(tǒng)中用于現(xiàn)實(shí)世界操作的遠(yuǎn)程醫(yī)療平臺。該研究中將需要進(jìn)一步轉(zhuǎn)診治療的病例定義為:(1)根據(jù)晶狀體混濁分類系統(tǒng)Ⅲ(Lens Opacities Classification System Ⅲ,LOCSⅢ)[19]分級為3級和4級的核硬化性白內(nèi)障患者;(2)成年和小兒晶狀體視軸混濁。這一研究大大推動了AI在白內(nèi)障臨床診斷實(shí)際場景中的使用。
隨著技術(shù)的發(fā)展,眼底照片和OCT圖像等依賴屈光介質(zhì)透明的檢查結(jié)果逐漸成為白內(nèi)障分級的依據(jù)[20]。Zhang等[21]提出了一種基于眼底照片多特征融合智能識別六分類晶狀體核硬度的方法,該團(tuán)隊(duì)利用ResNet18和灰度共生矩陣從1 352張眼底相片中提取特征,采用2個SVM作為分類器得到了平均準(zhǔn)確度為92.66%的模型;同時(shí),該模型用于白內(nèi)障嚴(yán)重程度4級分類的準(zhǔn)確率達(dá)到94.75%。Yang等[22]提出一種基于整體學(xué)習(xí)的方法,以提高白內(nèi)障分級診斷的準(zhǔn)確性;該方法采用1 239張眼底照片對模型進(jìn)行訓(xùn)練,從每個眼底圖像中提取3個獨(dú)立的特征集,即基于小波變換、圖像輪廓和圖像紋理的特征,建立SVM和反向傳播神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)模型,然后采用多數(shù)表決和堆疊方法,結(jié)合多個基礎(chǔ)學(xué)習(xí)模型進(jìn)行眼底圖像分類,該集成分類器對白內(nèi)障檢測和分級任務(wù)的最佳性能分別為93.2%和84.5%。該研究結(jié)果表明,集成分類器明顯優(yōu)于單一學(xué)習(xí)模型。與先前針對具有預(yù)定義特征和基于全局特征的眼底圖像中自動白內(nèi)障分級的研究不同,Xu等[23]提出了一種深度學(xué)習(xí)方法來整合白內(nèi)障的全局和局部特征,對8 030張眼底照片(正常、輕度、中度、重度白內(nèi)障)進(jìn)行圖像預(yù)處理,通過DCNN提取特征并量化必要的點(diǎn)特征,構(gòu)建混合的全局—局部特征表示模型,平均準(zhǔn)確率為86.24%,同時(shí),該研究還利用反卷積網(wǎng)絡(luò)方法,研究CNN是如何通過中間層特征的逐層變換過程來判定白內(nèi)障,結(jié)果發(fā)現(xiàn)主血管和視盤并不是識別白內(nèi)障嚴(yán)重程度的最佳特征,眼底血管的細(xì)節(jié)信息在白內(nèi)障分級任務(wù)中起著更重要的作用。
Tian等[24]開發(fā)了基于視頻的智能識別與決策(VeBIRD)系統(tǒng),構(gòu)建了一個自動跟蹤超聲乳化過程并在白內(nèi)障超聲乳化手術(shù)視頻中對白內(nèi)障等級進(jìn)行分類的通用框架。VeBIRD能夠在超聲乳化這一步驟中進(jìn)行眼定位,追蹤眼內(nèi)超乳手柄的頭端,同時(shí)對晶狀體核硬度進(jìn)行分級(六分類);截取的10 000個手術(shù)畫面中,眼定位的準(zhǔn)確率為92.3%,采用SVM分類器對白內(nèi)障進(jìn)行分級的準(zhǔn)確率為96.3%。Caixinha等[25]提出應(yīng)用B型超聲圖像對白內(nèi)障進(jìn)行自動診斷和分級,利用SVM、貝葉斯、多層感知器和隨機(jī)森林分類器提取了27個時(shí)域和頻域特征進(jìn)行核性白內(nèi)障的檢測和分類,其中23個特征與核硬度之間存在中等至良好的相關(guān)性,結(jié)果顯示SVM分類器對白內(nèi)障嚴(yán)重程度的自動分類顯示出更高的性能,其精確度、靈敏度和特異度均為99.7%(相對絕對誤差為0.4%)。
白內(nèi)障手術(shù)不僅需要改善患者視力,獲得理想的術(shù)后屈光效果也至關(guān)重要。通過計(jì)算提高植入人工晶狀體(intraocular lens,IOL)屈光度準(zhǔn)確性并限制術(shù)后屈光不規(guī)則,以幫助患者達(dá)到期望的術(shù)后屈光效果。
手術(shù)仍是目前治療白內(nèi)障的有效方法[29],機(jī)器學(xué)習(xí)和深度學(xué)習(xí)技術(shù)可以有效地對白內(nèi)障手術(shù)視頻進(jìn)行智能識別與分割,以便進(jìn)行自動的技能評估及反饋。同時(shí),為了提高手術(shù)步驟的規(guī)范性、減少手術(shù)過程中可能發(fā)生的錯誤,許多研究者開展了一系列關(guān)于AI在白內(nèi)障手術(shù)中應(yīng)用的研究。
為了避免手術(shù)信息核對錯誤帶來的危害,Yoo等[30]開發(fā)了一項(xiàng)基于深度學(xué)習(xí)的智能語音播報(bào)技術(shù),用來幫助手術(shù)開始前醫(yī)務(wù)人員核對患者身份、手術(shù)眼別及手術(shù)類別,該模型在驗(yàn)證集和測試集中的識別準(zhǔn)確率分別達(dá)到了96.5%和93.5%。一項(xiàng)來自霍普金斯大學(xué)的橫斷面研究使用深度學(xué)習(xí)技術(shù)對白內(nèi)障手術(shù)視頻進(jìn)行分割,以便進(jìn)行自動化技能評估和反饋;該研究收集100例白內(nèi)障手術(shù)視頻,手動標(biāo)注了手術(shù)視頻中的10個階段標(biāo)簽及手術(shù)中使用的14種器械,同時(shí)采用5種具有不同輸入數(shù)據(jù)的算法:(1)使用器械標(biāo)簽的橫截面二進(jìn)制特征的SVM;(2)使用器械標(biāo)簽作為時(shí)間序列數(shù)據(jù)的循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN)算法;(3)使用圖像中的空間特征作為輸入的CNN算法;(4)利用CNN-RNN算法對圖像的時(shí)空特征進(jìn)行建模;(5)利用CNN-RNN算法對圖像中的時(shí)空特征進(jìn)行建模,并將器械標(biāo)簽作為時(shí)間序列數(shù)據(jù)。每種算法均經(jīng)過5倍交叉驗(yàn)證后得到的未加權(quán)準(zhǔn)確度為0.915~0.959[31]。Zisimopoulos等[32]采用生成式的對抗網(wǎng)絡(luò)及CNN算法對手術(shù)模擬裝置收集的白內(nèi)障手術(shù)數(shù)據(jù)中的3個手術(shù)步驟(患者準(zhǔn)備、晶狀體超聲乳化、IOL植入)共17 118個視野圖片來進(jìn)行手術(shù)器械識別訓(xùn)練,隨后選取25個真實(shí)的白內(nèi)障手術(shù)數(shù)據(jù)用于測試,結(jié)果表明模擬的白內(nèi)障手術(shù)視頻也可以作為深度學(xué)習(xí)算法的輸入數(shù)據(jù)來訓(xùn)練對手術(shù)器械的識別能力。14個團(tuán)隊(duì)共同參與的一項(xiàng)白內(nèi)障手術(shù)視頻標(biāo)注項(xiàng)目匯集了50個白內(nèi)障手術(shù)視頻,總時(shí)長超過9 h,共出現(xiàn)了21種手術(shù)器械,由2名專家手動標(biāo)注后運(yùn)用于深度學(xué)習(xí)算法中,AI對手術(shù)器械的識別任務(wù)中受試者工作特征(receiver operating characteristic,ROC)曲線下面積最高可達(dá)0.997 (95%CI=99.6%~99.8%)[33]。Kim等[34]通過AI對專家/新手白內(nèi)障手術(shù)技術(shù)的嫻熟程度進(jìn)行客觀評估,該研究包含99個不同白內(nèi)障手術(shù)的撕囊步驟視頻,采用時(shí)間卷積網(wǎng)絡(luò)并關(guān)注手術(shù)器械的軌跡及光流建立了準(zhǔn)確率為0.848、ROC曲線下面積為0.863的評估模型。Quellec等[35]介紹了一種在視頻流中實(shí)時(shí)識別手術(shù)任務(wù)的新算法,目的是在視頻監(jiān)控的手術(shù)過程中,在適當(dāng)?shù)臅r(shí)間將患者、手術(shù)工具或植入物的相關(guān)信息傳達(dá)給外科醫(yī)生。為了補(bǔ)償眼球運(yùn)動和變焦級別的變化,首先對白內(nèi)障手術(shù)視頻進(jìn)行歸一化,然后利用時(shí)空多項(xiàng)式對短視頻子序列的運(yùn)動內(nèi)容進(jìn)行刻畫,提出了一種基于自適應(yīng)時(shí)空多項(xiàng)式的多尺度運(yùn)動刻畫方法。該研究者收集了由10位不同水平眼科醫(yī)生操作的186個白內(nèi)障手術(shù)視頻,結(jié)果表明該算法在手術(shù)任務(wù)識別方面和手術(shù)任務(wù)的分割、識別方面均具有較高的性能,ROC曲線下面積分別為0.851和0.856。Lecuyer等[36]采用依賴深度學(xué)習(xí)的輔助系統(tǒng)對白內(nèi)障手術(shù)視頻的步驟進(jìn)行標(biāo)注并且劃分每個手術(shù)階段的時(shí)間,發(fā)現(xiàn)使用該輔助系統(tǒng)進(jìn)行標(biāo)注較人工標(biāo)注節(jié)省約10 min且準(zhǔn)確率較人工標(biāo)注高約7%。
為了預(yù)測白內(nèi)障術(shù)后疾病的進(jìn)展,Jiang等[37]提出了一種端到端的時(shí)間序列網(wǎng)絡(luò)(TempSeq-Net),包括使用CNN從連續(xù)的裂隙燈顯微鏡圖像中提取高層特征,并應(yīng)用長短期記憶方法挖掘特征之間的時(shí)間關(guān)系,得到了最優(yōu)的TempSeq-Net模型,定量結(jié)果表明該模型具有優(yōu)異的性能,其平均準(zhǔn)確度、靈敏度、特異度和ROC曲線下面積分別為92.22%、88.55%、94.31%和0.971 8。
為了檢測深度學(xué)習(xí)訓(xùn)練出來的先天性白內(nèi)障評估模型在真實(shí)世界中的性能,Lin等[38]對該模型進(jìn)行了Ⅰ期臨床試驗(yàn),該試驗(yàn)涉及中國不同地區(qū)的5個眼科門診,招募了700名志愿者,該模型對白內(nèi)障診斷和治療判斷的準(zhǔn)確率分別為87.4%和70.8%,明顯低于高年資眼科專家的99.1%和96.7%;但患者從模型處獲得診斷的平均時(shí)間為2.79 min,明顯低于在眼科專家處的就診時(shí)間8.53 min;問卷滿意度調(diào)查結(jié)果顯示患者對該模型提供的整體醫(yī)療服務(wù)質(zhì)量表示滿意。Wu等[18]還描述了一種遠(yuǎn)程醫(yī)療平臺,該平臺可實(shí)現(xiàn)家庭監(jiān)護(hù)(家庭成員使用手機(jī)拍攝的眼表圖像、視力和簡短的臨床病史),然后篩選出需轉(zhuǎn)診至社區(qū)醫(yī)療機(jī)構(gòu)的患者,使用裂隙燈顯微鏡獲取眼前節(jié)圖像,具有AI分析功能的遠(yuǎn)程醫(yī)療平臺結(jié)合診斷和可參考的資料進(jìn)行綜合評估,并將所有已獲得數(shù)據(jù)儲存到數(shù)據(jù)庫,確認(rèn)需轉(zhuǎn)診后將通過快速通道通知系統(tǒng)將患者信息發(fā)送至上級醫(yī)療機(jī)構(gòu)。此護(hù)理模式已在4個獨(dú)立的社區(qū)保健中心進(jìn)行了進(jìn)一步測試,并取得了良好的效果。該診療模型充分利用電信網(wǎng)絡(luò)、深度學(xué)習(xí)和AI分析的強(qiáng)大功能,能顯著提高眼科醫(yī)生的診療效率,使一位醫(yī)生每年診療患者數(shù)量從4 000名增加到40 806名,增加了9.2倍。
隨著人口老齡化趨勢的加劇,白內(nèi)障患者人數(shù)逐年增加,偏遠(yuǎn)地區(qū)專業(yè)醫(yī)療人員數(shù)量的不足及醫(yī)療設(shè)備的匱乏給原本緊張的醫(yī)療衛(wèi)生管理帶來了極大的挑戰(zhàn)。AI的出現(xiàn)及迅猛發(fā)展為偏遠(yuǎn)地區(qū)白內(nèi)障患者獲得更好的醫(yī)療服務(wù)提供了便利條件。研究者們將基于裂隙燈顯微鏡照片、眼底照片、超聲影像、白內(nèi)障手術(shù)視頻、健康檔案數(shù)據(jù)作為輸入數(shù)據(jù)訓(xùn)練,利用AI的遷移學(xué)習(xí)能力,構(gòu)建用以輔助臨床醫(yī)生對白內(nèi)障的診療模型。從白內(nèi)障的普查初篩、對混濁晶狀體的分級和白內(nèi)障分診建議,到對白內(nèi)障手術(shù)步驟的識別評估,AI都展現(xiàn)出其獨(dú)特的優(yōu)勢。
迄今已進(jìn)行的關(guān)于AI在白內(nèi)障領(lǐng)域的應(yīng)用研究多基于實(shí)驗(yàn)室條件,提前篩選出質(zhì)量合格的圖像、視頻數(shù)據(jù)以利于構(gòu)建出性能良好的算法模型。然而真實(shí)世界的情況復(fù)雜多樣,文字?jǐn)?shù)據(jù)的缺失、圖像質(zhì)量的參差不齊等因素都極大限制了AI的推廣應(yīng)用。截至目前,僅有一項(xiàng)臨床隨機(jī)對照試驗(yàn)報(bào)道了AI應(yīng)用于臨床白內(nèi)障診斷的可行性,結(jié)果證實(shí)了AI在真實(shí)世界的表現(xiàn)要比實(shí)驗(yàn)室條件下得到的準(zhǔn)確率低[38]。未來還需要更多相關(guān)的臨床研究來進(jìn)一步驗(yàn)證各類AI模型在真實(shí)世界中的性能。另一方面,從白內(nèi)障的診斷到治療以及預(yù)后的評估,各個階段都有單獨(dú)的AI研究在進(jìn)行,為了讓AI更好地協(xié)助臨床眼科醫(yī)生及服務(wù)白內(nèi)障患者,集成式AI或許是未來AI在白內(nèi)障領(lǐng)域的研究趨勢。
利益沖突所有作者均聲明不存在利益沖突