曾安, 鄒超, 潘丹
(1.廣東工業(yè)大學(xué)計算機學(xué)院, 廣州 510006;2.廣東大數(shù)據(jù)分析與處理重點實驗室,廣州 510006;3.廣州建設(shè)職業(yè)技術(shù)學(xué)院現(xiàn)代教育技術(shù)中心,廣州 510440)
阿爾茨海默癥(AD)是一種常見的神經(jīng)退行性疾病。輕度認知障礙(MCI)通常被認為是AD的早期階段,是從正常對照(NC)到AD的過渡狀態(tài)[1],尤其是晚期MCI很可能發(fā)展成AD[2],因此,一般將MCI分為轉(zhuǎn)化AD(MCIc)和未被轉(zhuǎn)化AD(MCInc)。據(jù)國際阿爾茨海默病組織(Alzheimer's Disease International)公布[3],2018年全球有5 000萬AD患者,到2050年,將增至1.52億。由于AD致病機理不明,因此,針對AD 的早期診斷對延緩病情惡化尤為重要。
磁共振影像(MRI)對腦萎縮、腦血管疾病和腫瘤等反映靈敏。事實上,在癥狀出現(xiàn)前期,結(jié)構(gòu)改變所反映的神經(jīng)功能障礙或損傷將變得尤為明顯[4-5]。有研究表明,sMRI影像的體積、皮層厚度、皮層表面積等大腦形態(tài)學(xué)指標特征可用于診斷AD[6]。Salvatore等[7]針對509張sMRI影像,對被試全腦影像體素采用主成分分析(principal components analysis,PCA)方法進行特征提取,然后將提取到的特征用支持向量機(SVM)進行訓(xùn)練。該方法在分類AD vs NC、MCIc vs NC和MCIc vs MCInc等人群時,分別達到76%、72%、66%,取得了一定的效果,但伴隨圖像而來的是上百萬的體素,而樣本的數(shù)量是有限的,很可能發(fā)生過擬合[8]。一般跟該疾病有關(guān)系的是部分腦區(qū),不是整個大腦,其他不相關(guān)腦區(qū)圖像會對分類結(jié)果造成影響,因此,可根據(jù)疾病特點選擇ROI腦區(qū)圖像作為樣本。
近年來,深度卷積神經(jīng)網(wǎng)絡(luò)(CNN),因其強大的提取有效特征的能力在醫(yī)學(xué)圖像分割、分類和配準任務(wù)中得到了廣泛運用。曾安等[9]提出了基于MRI影像三個維度的不同二維切片的基分類器集成模型,該模型通過簡單8層網(wǎng)絡(luò)[10]訓(xùn)練出基于sMRI的不同軸(X,Y,Z)切片的基分類器進行集成,該方法在分類AD vs NC、MCIc vs NC和MCIc vs MCInc等人群時,分別達到81%、79%、62%。Hosseini-Asl等[11]提出的深度監(jiān)督自適應(yīng)3D CNN (3D-A CNN)模型,通過自編碼器提取AD生物標志物,實現(xiàn)了病癥的分類。Spasov等[12]提出了一種基于三維可分離卷積的雙任務(wù)學(xué)習(xí)的深度學(xué)習(xí)體系結(jié)構(gòu),該研究以sMRI影像、人口統(tǒng)計學(xué)、神經(jīng)心理學(xué)和APOe4基因數(shù)據(jù)作為輸入,實現(xiàn)了MCI向AD轉(zhuǎn)化的預(yù)測。
為了充分利用sMRI影像的有效信息,降低模型訓(xùn)練難度,提升模型泛化能力,從而提高AD預(yù)測分類的準確率,本研究提出了一種基于感興趣區(qū)域(ROI)的3D CNN的AD診斷模型。首先,依據(jù)先驗知識提取sMRI影像中ROI的3D圖像,再利用3D CNN網(wǎng)絡(luò)對ROI圖像進行特征提取,以實現(xiàn)對AD的輔助診斷。
海馬體是AD患者大腦中最具鑒別的部分之一,AD的產(chǎn)生伴隨著顳葉和海馬體的萎縮,這些生物標識可以通過sMRI影像進行測量。有研究表明,AD影響最嚴重的區(qū)域主要分布在杏仁核、海馬、扣帶回、丘腦、顳葉、海馬旁回等[13-15]。因此,先考慮這些先驗知識,從sMRI影像中提取出引起大腦萎縮的ROI圖像。
圖1 ROI圖像的切片示意圖Fig.1 Slice of ROI images
受試的左海馬(L.Hippocampus)、左海馬旁回(L.Parahippocampus)、左杏仁核(L.Amygdala)、左內(nèi)嗅皮質(zhì)(L.Olfactory)等ROI圖像的切片,見圖1。預(yù)處理后的圖像在大小和坐標空間與AAL automated anatomical labeling)模板[16]一致后,根據(jù)模板劃分腦區(qū)的掩碼(Mask)提取特定的ROI圖像。依據(jù)文獻[13-15],對AD vs NC、MCIc vs NC和MCInc vs MCIc提取對應(yīng)的ROI圖像作為3D CNN-ROIs方法的輸入樣本。
研究表明,CNN通過加深網(wǎng)絡(luò)結(jié)構(gòu)可提高網(wǎng)絡(luò)的特征表示能力,使得圖像特征信息可以通過多層網(wǎng)絡(luò)傳到末端,從而提高分類效果[17]。但醫(yī)學(xué)圖像采集困難,標注成本高,無法滿足訓(xùn)練深度學(xué)習(xí)模型所需的大量標注樣本數(shù),因此,在監(jiān)督學(xué)習(xí)中,構(gòu)建基于小數(shù)據(jù)樣本進行分類的網(wǎng)絡(luò)結(jié)構(gòu)非常重要[18]。
基于文獻[11]模型結(jié)構(gòu)以及VGG16結(jié)構(gòu)在保證相同圖像感受野的條件下,增加了網(wǎng)絡(luò)深度,在一定程度上提升了網(wǎng)絡(luò)效果的啟發(fā),本研究構(gòu)建了圖2所示的3D CNN結(jié)構(gòu)。
圖2 網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 The structure of proposed network
整個模型包含三個卷積模塊和三個全連接層,所有卷積核大小均相同,不同模塊間通過Maxpooling沿空間維度通過下采樣feature-map來連接,最后經(jīng)Softmax層對分類任務(wù)進行優(yōu)化,輸出所屬類別概率。在保證VGG16結(jié)構(gòu)的同時,減少網(wǎng)絡(luò)層數(shù),并將濾波數(shù)固定,在一定程度上減少了計算量,網(wǎng)絡(luò)詳細參數(shù)見表1。
表1 3D CNN模型結(jié)構(gòu)Table 1 The architecture of 3D CNN model
使用的sMRI影像數(shù)據(jù)來自阿爾茨海默病神經(jīng)影像學(xué)倡議(Alzheimer′s disease neuroimaging initiative,ADNI)數(shù)據(jù)庫(www.loni.ucla.edu/adni)。將下載的sMRI影像數(shù)據(jù)劃分為正常對照類(NC)、重度認知障礙類(轉(zhuǎn)化為AD型,MCIc)、輕度認知障礙類(未轉(zhuǎn)化為AD型,MCInc)、阿爾茨海默病類(AD)等四類,共下載了787張T1加權(quán)的sMRI影像,包括262張NC影像,237張AD影像,173張MCInc影像和115張MCIc影像。數(shù)據(jù)在使用時分為兩部分,一部分用于本模型訓(xùn)練和測試,記作訓(xùn)練測試集(N=509);另一部分作為驗證(N=278),被試的詳細信息見表2和表3。
表2 509名被試的信息特征(均值±標準差)Table 2 Information on 509 subjects(mean± std)
表3 278名被試的信息特征(均值±標準差)Table 3 Information on 278 subjects(mean± std)
表2和表3中的3到6列分別代表年齡(Age),簡易精神狀態(tài)檢查量表(mini mental state examination,MMSE),臨床癡呆評定量表(clinical dementia rating,CDR),全面衰退量表(global deterioration scale,GDS),圖像采集協(xié)議程序和采集后預(yù)處理程序的詳細說明,參見http://www.adni-info.org。
由于從ADNI數(shù)據(jù)庫下載的影像均為.nii格式,實驗采用MATLAB的CAT12工具包進行圖像預(yù)處理,包括去頭骨,配準到蒙特利爾(Montreal Neurological Institute)標準空間中,圖像平滑(平滑核為2×2×2),參數(shù)使用CAT12工具包默認參數(shù)。隨后對sMRI影像進行灰度歸一化,預(yù)處理總體流程見圖3。
圖3 橫截面預(yù)處理流程Fig. 3 Processing process of axial plane
本研究對ADNI數(shù)據(jù)庫中787名被試的T1加權(quán)sMRI影像進行了分類測試。圖像處理過程見2.1節(jié),處理后的sMRI影像大小為121×145×121,分辨率為1.5 mm×1.5 mm×1.5 mm。
訓(xùn)練時,整個網(wǎng)絡(luò)的權(quán)重默認Xavier[19]初始化的方法。Batch_size為4,,Epoch為50,采用Adam[20]梯度下降方法進行參數(shù)的更新,學(xué)習(xí)率為0.001,Dropout為0.25,并且對參數(shù)進行了L2正則化來降低過擬合風(fēng)險。驗證集部分用于調(diào)整訓(xùn)練過程的迭代次數(shù),得到性能最優(yōu)的模型參數(shù)權(quán)重,以提高模型泛化能力。SVM核函數(shù)為高斯核,核函數(shù)系數(shù)為20,RF的弱學(xué)習(xí)器的最大迭代次數(shù)為20。實驗采用了5種分類性能指標進行評價,分別是分類準確率(accuracy,ACC)、召回率(recall,REC)、精確值(precision,PRE)、F1值(F1-score)、ROC曲線下面積(area under curve,AUC),相關(guān)的計算公式如下。
(1)
(2)
(3)
(4)
上式中的TP、TN、FP和FN見表4。
表4 二分類混淆矩陣Table 4 Two-class confusion matrix
所有實驗均在服務(wù)器上運行,服務(wù)器共有5個節(jié)點,每個節(jié)點分別配置2塊顯存為16 GB,最大功耗為250 W的NVIDIA Tesla P100顯卡。本研究實現(xiàn)以下模型的對比。
(1)3D CNN對被試全腦影像用本研究的3DCNN進行訓(xùn)練,分類器為Softmax。
(2)3D CNN+SVM 對被試全腦影像用本研究的3DCNN訓(xùn)練完成后,得到網(wǎng)絡(luò)全連接F1層的特征,再將其SVM進行訓(xùn)練。
(3)3D CNN+RF 與3D CNN+SVM模型一樣,最后將F1層的特征用RF進行訓(xùn)練。
(4)3D CNN+ROIs提取ROI圖像后,再用3DCNN進行訓(xùn)練。AD vs NC提取的ROI為海馬、海馬旁回、杏仁核、內(nèi)嗅皮質(zhì)、后扣帶回等區(qū)域;MCIc vs NC提取的ROI除上述腦區(qū)外,還有丘腦、蒼白球區(qū)域;MCIc vs MCInc提取的ROI為海馬、海馬旁回、頂下小葉、枕中回、梭狀回、顳下回等區(qū)域。為顯示ROI三維圖像,提取出的ROI圖像通過BrainNetViewer[21]進行三維可視化,見圖4。
圖4 腦區(qū):ROI三維圖像Fig.4 Brain regions: the 3D image of ROI
3組實驗的詳細對比結(jié)果見圖5、圖6和表5。
圖5 訓(xùn)練時間Fig.5 Train time
表5 實驗結(jié)果對比Table 5 Comparison of experimental results
圖6 5折交叉驗證的AUC值(a).AD vs NC的5折交叉驗證的AUC值;(b).MCIc vs NC的5折交叉驗證的AUC值;(c).MCInc vs MCIc 的5折交叉驗證的AUC值Fig.6 The AUC value for 5-fold cross-validation(a).AUC value for 5-fold cross-validation of AD vs NC;(b).AUC value for 5-fold cross-validation of MCIc vs NC;(c).AUC value for 5-fold cross-validation of MCInc vs MCIc
本研究使用5折分層交叉驗證的方法,以減少隨機因素的影響。即將訓(xùn)練測試集(見表2)分為5個子集,4個子集作為訓(xùn)練集用于3D CNN模型訓(xùn)練,另一個作為最終的測試集,同時驗證集部分用于調(diào)整訓(xùn)練過程的迭代次數(shù),將驗證集(見表3)的準確率不再提高作為訓(xùn)練的停機條件。重復(fù)執(zhí)行5次實驗,每種指標可得5次結(jié)果,分別取平均值作為分類的性能指標。實驗進行了3組兩兩分類實驗(AD vs NC,MCIc vs NC,MCInc vs MCIc),充分驗證了所選ROI對實驗結(jié)果造成的影響。圖5給出了在3D CNN和3D CNN-ROIs方法下訓(xùn)練花費時間,表4給出了所有方法在分類AD vs NC、MCIc vs NC和MCInc vs MCIc的5種指標結(jié)果以及對應(yīng)的標準差。圖6給出了這三組對比實驗在3D CNN和3D CNN-ROIs方法下的5折交叉驗證的AUC值。
本研究提出一種基于ROI的3D CNN網(wǎng)絡(luò)AD輔助診斷模型。該模型主要基于深度卷積神經(jīng)網(wǎng)絡(luò)方法,通過提取ROI圖像的有效特征為AD 的輔助診斷提供有效數(shù)據(jù)信息,從而來提高分類準確率,并通過5個對比實驗,來驗證選取ROI的有效性。首先,在不提取ROI圖像前提下,對3D CNN模型最后輸出層使用Softmax、SVM和RF等分類器進行最終分類。從表5可知,在不做ROI提取的前提下,3D CNN訓(xùn)練好的模型全連接層不管接何種分類器,其前2組取得的分類結(jié)果均比文獻[7]的PCA+SVM方法好,但略低于文獻[9]的切片集成方法。同時可以看出Softmax、SVM和RF等分類器的結(jié)果很接近,說明提高分類準確率不在于分類器的選擇,而在于特征的選擇。最后,本研究3D CNN-ROIs方法與文獻[9]相比,AD vs NC的ACC為85.2%,F(xiàn)1-score為85.1%;MCIc vs NC的ACC為83.9%,F(xiàn)1-score為80.4%;MCInc vs MCIc的ACC為68.5%,AUC為65.1%,F(xiàn)1-score為64.2%。實驗結(jié)果明顯高于其他5種方法,證明了所選ROI的有效性,以及有時特征的選擇比分類器的選擇更重要。從側(cè)面表明海馬、海馬旁回、頂下小葉、枕中回、梭狀回、顳下回等區(qū)域可能對MCInc 和MCIc的區(qū)分有重要幫助。由圖6可知,方法訓(xùn)練收斂時間具有優(yōu)勢。事實上,通過先驗知識選定特定ROI圖像,一方面可以排除其他無明顯差異腦區(qū)的影響;另一方面減少了模型訓(xùn)練的計算量,并且可以驗證所選的腦區(qū)對AD分類預(yù)測是否有效果,從而判斷該腦區(qū)是否為與AD疾病有關(guān)的生物標志物。
處于不同階段的MCI患者大腦局部呈現(xiàn)出不同程度的萎縮,但具體萎縮區(qū)域不明確,導(dǎo)致很多計算機輔助診斷方法準確率偏低,尤其是MCInc vs MCIc的分類結(jié)果,這對于AD的輔助診斷非常有意義。本研究提出的基于ROI的3D CNN的AD輔助診斷模型,首先從大腦sMRI中提取出ROI圖像,然后用3D CNN模型提取ROI圖像特征并進行自動分類診斷。實驗結(jié)果表明,在sMRI數(shù)據(jù)與文獻[7,9]完全一樣的情況下,在3D CNN-ROIs方法中,經(jīng)ROI提取后,運算量變小,收斂時間變短,并且AD vs NC的平均ACC為85.2%;MCIc vs NC的平均ACC為83.9%;MCInc vs MCIc的平均ACC為68.5%,三組實驗結(jié)果明顯高于文獻[7,9]。一方面說明所選取ROI的有效性,另一方面也說明有時特征的選擇比分類器的選擇更重要。在后續(xù)研究中,如何探索自動選取有效ROI而不依賴先驗知識的方法將成為下一步的工作。