宋鵬飛 吳云
摘 要:
糖尿病性視網(wǎng)膜病變(diabetic retinopathy,DR)是糖尿病在發(fā)病過程中影響視網(wǎng)膜的癥狀。針對模型下采樣過程中特征提取DR圖像微動脈瘤等病灶區(qū)域信息丟失問題,提出了一種DenseNet融合殘差結(jié)構(gòu)的模塊。該模塊首先連接兩個連續(xù)的dense block,然后利用殘差結(jié)構(gòu)對特征信息求和,并行融合處理特征圖像信息,以防止有效特征信息的丟失,最后殘差連接兩個含有dropout的卷積塊,抑制過擬合現(xiàn)象。針對以往卷積操作中未對病變區(qū)域的特征圖通道加權(quán)的問題,提出了一種SeNet融合殘差結(jié)構(gòu)的模塊。該模塊首先連接SeNet,把全局平均池化和全局最大池化的特征信息相加,以提高有效通道信息的利用率,然后通過Conv1×1的殘差方式來保證特征圖信息的完整性。基于以上兩個模塊的設計,提出了一種DenseNet和SeNet融合殘差結(jié)構(gòu)的DR分類方法。該模型在APTOS2019數(shù)據(jù)集上的精確度達到89.8%,特異性達到97.0%,在Messidor-2數(shù)據(jù)集上的精確度達到78.8%,特異性達到91.9%,能夠有效地提高視網(wǎng)膜圖像病變程度的分類能力。
關鍵詞:糖尿病性視網(wǎng)膜病變;DenseNet;SeNet;殘差結(jié)構(gòu)
中圖分類號:TP391?? 文獻標志碼:A??? 文章編號:1001-3695(2024)03-043-0928-05doi: 10.19734/j.issn.1001-3695.2023.06.0305
DR classification methods for DenseNet and SeNet fusion residue structures
Song Pengfeia,b, Wu Yuna,b
(a.State Key Laboratory of Public Big Data, b.College of Computer Science & Technology, Guizhou University, Guiyang 550025, China)
Abstract:
Diabetic retinopathy is the symptom of diabetes affecting the retina during the onset of diabetes. Aiming at the problem of information loss of lesion areas such as microimages during model downsampling, this paper proposed a module of DenseNet fusion residual structure. This module firstly connected two consecutive dense blocks, then sumed the feature information using the residual structure, and processed the feature image information in parallel to prevent the loss of effective feature information. Finally, the residual connected the two convolution blocks containing drop out to suppress the overfitting phenomenon. To solve the problem of the channel weighting of the feature graphs of lesion areas in previous convolution operations, this paper proposed a module of SeNet fusion residue structure. This module firstly connected SeNet, added the feature information of global average pooling and global maximum pooling to improve the utilization of effective channel information, and then ensured the integrity of feature graph information through the residual mode of conv1×1. Based on the design of the above two modules, this paper proposed a DR classification method of DenseNet and SeNet fusion residue structures. The model achieves 89.8% precision and 97.0% specificity on the APTOS2019 dataset, 78.8% accuracy and 91.9% specificity on the Messidor-2 dataset, which can effectively improve the classification ability of the degree of retinal lesions. Key words:diabetic retinopathy; DenseNet; SeNet; ResNet
0 引言
糖尿病性視網(wǎng)膜病變是糖尿病最常見的微血管并發(fā)癥之一,影響到約35%的糖尿病患者[1]。根據(jù)國際臨床糖尿病視網(wǎng)膜病變等級表(表1),DR的病變嚴重程度被分為了五個等級,分別是正常、輕微、中等、嚴重和增值,不同階段的DR等級[2]在醫(yī)學上具有不同的治療方式。
糖尿病視網(wǎng)膜病變在發(fā)展過程中具有不同的癥狀與等級。病變癥狀的嚴重程度決定了等級的大小。由于人工分級是一個很費力的過程,準確率也不高,所以實現(xiàn)對DR等級自動分類對眼部醫(yī)學領域具有重要意義。
早些年,隨著機器學習的興起,DR圖像自動分級的算法主要是基于手工特征進行分類的。
Acharya等人[3]先從眼底圖像提取血管、微動脈瘤、滲出和出血區(qū)域,之后統(tǒng)計不同區(qū)域面積,最后使用SVM進行分類。Sohini等人[4]直接對眼底圖像提取LBP特征,然后利用KNN算法進行分類。May等人[5]先從眼底圖像提取血管、滲出和微動脈瘤區(qū)域,然后對微動脈瘤計數(shù),計算滲出面積和血管周長,最后使用人工神經(jīng)網(wǎng)絡KNN進行分類。Qin等人[6]提出了一種改進的深森林模型,稱為MFgcForest(多類特征提取深森林),用于糖尿病視網(wǎng)膜的多分類。然而,手工特征需要對DR圖像的血管和視盤進行相關數(shù)據(jù)測量,存在大量誤差,并且特征提取過程中需要一定的經(jīng)驗知識。
近年來,DR圖像自動分類算法主要采用深度學習的算法。這種方法不需要手工特征提取,將大量的眼底圖像輸入到網(wǎng)絡中,根據(jù)標簽值和預測值之間的誤差進行反向傳播,自動更新權(quán)重參數(shù),實現(xiàn)端到端的分類。
在殘差結(jié)構(gòu)方面,徐常轉(zhuǎn)等人[7]通過融合特征圖原本的特征信息與注意力單元得到的通道信息,為微小特征增加了網(wǎng)絡的權(quán)重,再使用除操作去除特征圖中的冗余信息,得到注意力機制特征作為雙任務的輸入。殘差結(jié)構(gòu)通過短路連接引入剩余學習函數(shù),極大地提高了模型的DR圖像分類能力。
在注意力機制方面,包括空間注意力、通道注意力和自注意力等。孫福權(quán)等人[8]提出了一種基于注意力機制的糖尿病視網(wǎng)膜病變分類算法,實現(xiàn)對視網(wǎng)膜圖像病變程度的精確分類。Zerg等人[9]提出了一個具有多尺度自注意模塊的深度學習網(wǎng)絡,將全局上下文聚合到學習特征中,用于DR圖像檢索。注意力機制通過增加關注重要區(qū)域的權(quán)重且減少非重要區(qū)域的權(quán)重,來提高DR圖像分類能力。
在DenseNet模塊方面,Christian等人[10]提出了一種新的基于自動深度采集的基于單張彩色眼底照片的嚴重程度檢測方法。該文采用DenseNet169的編碼器來構(gòu)建一個可視化的嵌入結(jié)構(gòu)。DenseNet對于DR圖像分類領域具有良好的泛化性能,且計算量極少。
盡管上述各個方面對于DR圖像分類方法已取得一定的成果,但是由于DR圖像的特點,目前使用深度學習的DR分級診斷依舊面臨兩個重要問題:a)DR病灶區(qū)域細微丟失而且多種病變類型容易混淆,DR多分類模型評價指標表現(xiàn)不夠理想;b)DR通道信息處理過程中權(quán)重過大,不能高效地利用以體現(xiàn)病灶區(qū)域的通道信息。為了解決以上問題,本文提出了一種解決DR分類問題的模型方案。其主要貢獻點如下:
a)提出一個RDM(residual dense module)模塊,利用resi-dual結(jié)構(gòu)和dense block模塊思想,并行融合dense block和重構(gòu)的transition layer block,然后對特征信息進行residual block提取,在保證DR分類中每一層的空間特征信息融合的同時,防止微小病灶區(qū)域特征信息的丟失。
b)提出一個RSEM(residual squeeze excitation module)模塊,在SeNet基本模塊中利用最大以及平均池化,進行DR通道信息的壓縮與釋放,同時采用residual結(jié)構(gòu)把之前特征信息與之后特征信息有效融合,提高泛化能力的同時保證有效特征的信息。
c)在APTOS2019[11]和Messidor-2[12]兩個數(shù)據(jù)集上分別進行五分類,驗證本文模型的泛化能力和DR分類效果。
1 相關工作
1.1 通道注意力機制
通道注意力機制是一個基于通道的Attention模型,它通過建模各個特征通道的重要程度,然后針對不同的任務增強或者抑制不同的通道。SeNet通過網(wǎng)絡,根據(jù)loss學習特征權(quán)重,獲取到每個特征圖的重要程度,然后用這個重要程度給每一個特征通道賦予一個權(quán)重值,從而讓神經(jīng)網(wǎng)絡重點關注某些特征圖,使得有效的特征圖權(quán)重大,無效或效果小的特征圖權(quán)重小,使模型達到更好的效果。Al-Antary等人[13]為了增強特征表示的鑒別能力,在高級表示的基礎上采用多尺度注意機制。Fu等人[14]提出了一種新的端到端架構(gòu),利用ResNet50結(jié)合通道注意(SENet)提取特征,引入疾病注意模塊來補充DME的疾病特定信息,可以在不額外獲取中央凹和HEs的情況下獲得更高的分級結(jié)果,降低分級成本。Xu等人[15]提出的混合注意機制包括平行空間注意機制和通道注意機制,可以提取出視網(wǎng)膜病變圖像的通道維度和空間維度中的關鍵特征,并減少背景信息對分類結(jié)果的負面影響。Nagur等人[16]提出的模型由一個預先訓練的VGG16提取初始空間表示,從視網(wǎng)膜掃描圖像,空間注意自動編碼器學習病變特殊潛在表示空間維度和通道注意鉸鏈神經(jīng)網(wǎng)絡,識別基于類別的鑒別特征通道維度和分類視網(wǎng)膜病變的嚴重程度。Zhao等人[17]提出了一種新的魯棒DR分級深度學習架構(gòu),稱為SEA-Net,其中空間注意和通道注意交替進行并相互增強,提高了分類性能。DR圖像分類中,融合通道注意力機制可以增加病灶區(qū)域通道的權(quán)重而抑制普通非病灶區(qū)域通道權(quán)重,通過病灶區(qū)域的關鍵特征信息產(chǎn)生較好的DR分類效果。
1.2 DenseNet
DenseNet[18]不對特征圖求元素加操作,而是通過拼接將特征圖拼接在一起,DenseNet中的卷積層知道前面每一步卷積發(fā)生了什么。DenseNet的優(yōu)勢是良好的泛化性能和極少的計算量。Cheena等人[19]提出了兩種深度學習(DL)架構(gòu),一種結(jié)合VGG16和XGBoost類分類的混合網(wǎng)絡,以及DenseNet 121網(wǎng)絡,用于DR檢測和分類。深度學習模型的集成比任何單一貢獻模型都有更好的預測能力和性能。改進的DenseNet101和ResNeXt,這兩種深度學習模型被集成用于糖尿病視網(wǎng)膜病變的檢測。DenseNet具有很好的泛化性能和較少的計算量,非常適合解決DR數(shù)據(jù)集的數(shù)據(jù)量較少且病灶類別易混淆的問題。因此DenseNet在DR圖像分類領域有較大的應用空間。
2 本文方法
2.1 模型總體結(jié)構(gòu)
在設計DR分類模型的思想方面,本文綜合考慮到網(wǎng)絡結(jié)構(gòu)、參數(shù)數(shù)量、訓練速度和分類性能等因素,在不遷移大模型的基礎上,體現(xiàn)模型DR分類的高性能。模型總體結(jié)構(gòu)如圖1所示,本文用設計RSEM和RDM兩個模塊代替?zhèn)鹘y(tǒng)的卷積層,池化方式采用最大值池化。原始DR圖像經(jīng)過預處理后,圖像首先依次經(jīng)過4層RSEM模塊、RDM模塊和下采樣池化,然后再連接一層RSEM模塊、RDM模塊,連接GAP(global average pooling)層,最后連接一個5類的全連接層,在全連接層中添加 dropout(設置為0.2),為防止過擬合現(xiàn)象,激活函數(shù)采用softmax,得到DR分類結(jié)果。
DR圖像在模型中提取特征時,模型中的特征圖數(shù)量和大小如表2所示。
2.2 RDM模塊
糖尿病視網(wǎng)膜病灶圖像的特征信息在卷積操作過程中容易丟失特征信息,特別是微小病灶區(qū)域信息,對于DR圖像分類特別重要。尤其針對正常類型和輕微類別的DR圖像,人眼基本看不出區(qū)別。residual dense module(RDM)是一種基于DenseNet和ResNet[20]類型的神經(jīng)結(jié)構(gòu)的網(wǎng)絡結(jié)構(gòu)(圖2),同時從DR-VNet[21]分割模型中得到啟發(fā)。DenseNet讓網(wǎng)絡的每一層輸入變成所有前面層的疊加,然后把它的特征圖傳遞給所有接下來的網(wǎng)絡層,通過特征圖重用的方式來探索卷積層的潛能。DR病灶圖像的特征信息在卷積操作過程中容易丟失特征信息,特別是微小病灶區(qū)域信息,對于DR圖像分類特別重要。針對此問題,重新設計residual block和transition layer,主要的作用就是高效地提取特征和增加DR模型泛化能力,防止過擬合。由此,該模塊所提出的網(wǎng)絡塊由dense block、transition layer block和residual block組成。dense block采用兩個連續(xù)的子塊順序連接,每個子塊連接BN、ReLU、conv3×3、dropout,最后利用殘差結(jié)構(gòu)與輸入特征信息拼接。transition layer block采用conv1×1對輸入特征進行跨通道信息的交互,同時增加非線性映射次數(shù),連接順序為BN、ReLU、conv1×1、dropout。以上兩個并行分支特征信息相加的結(jié)果作為第二個子塊的輸入。residual block采用密集殘差方式,子塊中連續(xù)連接兩個conv3×3,進行特征信息交互,并以特征信息加操作的方式連接輸入特征圖,連接順序為conv3×3、dropout、BN、ReLU、conv3×3、dropout。最后連接ReLU激活函數(shù)、BN(批處理歸一化操作),得到RDM的輸出結(jié)果。為了防止過擬合現(xiàn)象的發(fā)生,在每個卷積層之后都加入dropout(drop rate設置為0.1),隨機部分特征信息,增加模型的泛化能力。
3.5 在APTOS2019數(shù)據(jù)集上的實驗
為了評估該方法的性能,本文使用了公開可用的APTOS2019數(shù)據(jù)集。遵循了在文獻[13,29]中提到的相同設置,將數(shù)據(jù)集劃分為訓練集和測試集。在第一個評估策略中,本文應用了提出的DR分類模型來對糖尿病視網(wǎng)膜病變圖像進行分類。
通過圖5混淆矩陣可看出,本文模型對APTOS2019 DR分類的五個級別都能以較高概率區(qū)分。對于級別0(NO DR)、級別1(Mild)和級別2(Moderate)能夠準確快速地區(qū)分且準確率較高,對于比較難區(qū)分且容易錯分的級別3(PDR)和級別4(Severe)也能夠基本區(qū)分。
通過圖6每一個類的ROC曲線及AUC面積,可以清晰地看出,本文模型在APTOS2019數(shù)據(jù)集上對于每一個類別的AUC面積都大于等于95%,每個類別分類準確率以及預測概率較高。
通過圖7和8可以看出,本文模型在100個epoch以內(nèi),模型的test loss從0.9左右伴隨train loss下滑,在0.4~0.5達到平穩(wěn)狀態(tài),test loss不再下降,模型的test acc從0.71伴隨train acc一直上升直到0.85~0.86達到平穩(wěn)狀態(tài),高達0.898的分類準確率。
由表5看出,本文模型對比最近的其他DR分類方法。以0a61bddab956.png圖像為例,本文方法在分類精度precision(81.6%)、準確率accuracy(89.8%)、特異性specificity(97.3%)、F1-score分數(shù)(77.6%)、AUC面積 (97.2%)及參數(shù)量(7.91 M)方面,在多項指標上都達到了不錯的表現(xiàn)。
3.6 在Messidor-2數(shù)據(jù)集上的實驗
為了驗證本文模型的泛化能力和對其他DR分類數(shù)據(jù)集的廣泛適用性,特別在Messidor-2數(shù)據(jù)集上再次驗證模型的高精度分類能力。模型的全部設置與在APTOS2019數(shù)據(jù)集實驗設置相同,在所用條件不變的情況下,更能直觀體現(xiàn)模型針對DR分類問題的完美表現(xiàn)。
通過圖9混淆矩陣可看出,本文模型對Messidor-2數(shù)據(jù)集DR分類的五個級別基本都能區(qū)分。對于級別0(NO DR)、級別3(PDR)和級別4(Severe)能夠準確快速地區(qū)分且準確率較高,對于比較難區(qū)分且容易錯分的級別1(Mild)和級別2(Moderate)也能夠基本區(qū)分。
通過圖10每一個類的ROC曲線及AUC面積,可以清晰地看出,本文模型在Messidor-2數(shù)據(jù)集對于每一個類別的AUC面積都大于等于85%,分類能力優(yōu)越。并且,除了在級別1(Mild)類型的較難區(qū)分且容易混淆的圖像AUC面積等于85%外,其他類別AUC面積都在93%以上。
通過圖11和12可以看出,本文模型在100個epoch以內(nèi),模型的test loss從1.1左右伴隨train loss下滑,在0.7左右達到平穩(wěn)狀態(tài),test loss不再下降,模型的test acc從0.57伴隨train acc一直上升直到0.75~0.76達到平穩(wěn)狀態(tài),最高達到0.788的分類準確率。由于測試集數(shù)據(jù)量較少,acc和loss曲線出現(xiàn)振蕩現(xiàn)象,但模型分類效果提升明顯。
Messidor-2數(shù)據(jù)集相較于APTOS2019數(shù)據(jù)集,其數(shù)據(jù)量更少,模型可以學習到的圖像特征更少,圖像分類難度更大。本文模型用Messidor-2數(shù)據(jù)集驗證模型DR分類能力,正如表6所示,分類結(jié)果也超過其他用Messidor-2數(shù)據(jù)集的模型方法。以IM002585.jpg圖像為例,本文方法在分類精度precision(81.9%)、準確率accuracy(78.8%)、特異性specificity (91.9%)、F1-score分數(shù) (71.8%)、AOC曲線及AUC面積 (93.0%)方面,都達到了很好的表現(xiàn)。
4 結(jié)束語
本文提出了一個解決DR多分類問題的模型方法,該模型集中了DenseNet、SeNet、ResNet結(jié)構(gòu)的優(yōu)點,在模型下采樣池化過程中每一層都融合壓縮激勵模塊和通道注意力機制,同時應用殘差多種連接方式,形成一種新型針對DR分類的模型結(jié)構(gòu)。模型在APTOS2019和Messidor-2數(shù)據(jù)集上表現(xiàn)在性能指標遠超其他DR分類模型結(jié)構(gòu)。本文模型能夠快速且準確地得到分類結(jié)果,增加模型實用性,在模型參數(shù)量方面始終保持最優(yōu)化。在未來工作中,筆者將會以提高模型敏感度為基準,同時保持模型其他性能指標最優(yōu)化,全面提高DR圖像分類能力。
參考文獻:
[1]Paul M T,Lin Chengmao,Keil J M,et al. Novel atypical PKC inhibitors prevent vascular endothelial growth factor-induced blood-retinal barrier dysfunction [J]. Biochemical Journal,2012,446(3): 455-467.
[2]Shion H,Hidetoshi Y. International clinical diabetic retinopathy disease severity scale [J]. Japanese Journal of Clinical Medicine,2010,68(Supply 9): 228-235.
[3]Acharya U R,Lim C M,Dennis P H,et al. Computer-based detection of diabetes retinopathy stages using digital fundus images [J]. Journal of Engineering in Medicine,2009,223(H5): 545-553.
[4]Sohini R,Dara D K,Keshab K P. DREAM: diabetic retinopathy analy-sis using machine learning [J]. IEEE Journal of Biomedical and Health Informatics,2014,18(5): 1717-1728.
[5]May P P,Somsak C,Rapeeporn Y M D. Detection of lesions and classification of diabetic retinopathy using fundus images [C]// Proc of International Conference on Biomedical Engineering. 2016: 1-5.
[6]Qin Xiwen,Chen Dongxue,Zhan Yichang,et al. Classification of diabetic retinopathy based on improved deep forest model [J]. Biome-dical Signal Processing and Control,2023,79(Part1): 104020.
[7]徐常轉(zhuǎn),吳云,藍林,等. 融合注意力機制與多任務學習的DR分級模型 [J]. 計算機工程與應用,2021,57(24): 212-218. (Xu Changzhuan,Wu Yun,Lan Lin,et al. DR classification model of fusing attention mechanism and multi-tasking learning [J]. Computer Engineering and Application,2021,57(24): 212-218.)
[8]孫福權(quán),鄒彭,崔志清,等. 基于注意力機制的糖尿病視網(wǎng)膜病變分類算法 [J]. 計算機科學,2022,49(S2): 377-381. (Sun Fuquan,Zou Peng,Cui Zhiqing,et al. Classification algorithm for diabetic retinopathy based on attention mechanism [J]. Computer Science,2022,49(S2): 377-381.)
[9]Zeng Ming,F(xiàn)ang Jiansheng,Miao Hanpei,et al. A multi-scale self-attention network for diabetic retinopathy retrieval [C]// Proc of the 4th International Conference on Control and Computer Vision. 2021: 101-106.
[10]Christian S,Sergey I,Vincent V. Inception-v4,Inception-ResNet and the impact of residual connections on learning [C]//Proc of AAAI Conference on Artificial Intelligence. 2017: 4278-4284.
[11]Aravind Eye Hospital. APTOS 2019 blindness detection Kaggle (EB/OL). (2020-07-20). https://www. aptos2019-blindness-detection.
[12]Michael D A,James C F,Han D P,et al. Automated analysis of retinal images for detection of referable diabetic retinopathy [J]. JAMA Ophthalmology,2013,131(3): 351-357.
[13]Al-Antary M T,Yasmine A. Multi-scale attention network for diabetic retinopathy classification[J]. IEEE Access,2021,9: 54190-54200.
[14]Fu Yinghua,Lu Xin,Zhang Ge,et al. Automatic grading of diabetic macular edema based on end-to-end network [J]. Expert Systems with Applications,2023,213(PartA): 118835.
[15]Xu Lianghui,Wang Liejun,Cheng Shuli,et al. MHANet: a hybrid attention mechanism for retinal diseases classification [J]. PLoS One,2021,16(12): e0261285.
[16]Nagur S S,Teja K C. Hinge attention network: a joint model for diabetic retinopathy severity grading [J]. Applied Intelligence,2022,52(13): 15105-15121.
[17]Zhao Ziyuan,Kartik C,Zeng Zeng,et al. Sea-Net: squeeze-and-excitation attention net for diabetic retinopathy grading [C]//Proc of IEEE International Conference on Image Processing. 2020: 2496-2500.
[18]Gao Huang,Zhuang Liu,Kilian Q W,et al. Densely connected convolutional networks [EB/OL]. (2018).https://arxiv.org/abs/1608. 06993.
[19]Cheena M,Sakuntala M,Biswaranjan A,et al. Using deep learning architectures for detection and classification of diabetic retinopathy [J]. Sensors (Basel),2023,23(12): 5726.
[20]He Kaiming,Zhang Xiangyu,Ren Shaoqing,et al. Deep residual learning for image recognition [C]//Proc of International Conference on Computer Vision and Pattern Recognition. 2016: 770-778.
[21]Ali K,Rozenn D,Donal J S. DR-VNet: retinal vessel segmentation via dense residual UNet [C]//Proc of International Conference on Pattern Recognition and Artificial Intelligence.2022: 198-210.
[22]Mark V G,Bram V G,Carel B H,et al. Fast convolutional neural network training using selective data sampling: application to hemorrhage detection in color fundus images [J]. IEEE Trans on Medical Imaging,2016,35(5): 1273-1284.
[23]José I O,Elena P,Mariana D F,et al. Learning to detect red lesions in fundus photographs: an ensemble approach based on deep learning [EB/OL]. (2017). https://arxiv.org/abs/1706. 03008.
[24]Christian S,Liu Wei,Jia Yangqing,et al. Going deeper with convolutions [C]//Proc of Computer Vision and Pattern Recognition. 2015: 1-9.
[25]Andrew G H,Zhu Menglong,Chen Bo,et al. MobileNets: efficient convolutional neural networks for mobile vision applications [EB/OL]. (2017). https://arxiv.org/abs/1704. 04861.
[26]Karen S,Andrew Z.Very deep convolutional networks for large-scale ima-ge recognition[EB/OL].(2014).https://arxiv.org/abs/1409.1556.
[27]Bodapati J D,Veeranjaneyulu N,Shareef S N,et al. Blended multi-modal deep convNet features for diabetic retinopathy severity prediction [J]. Electronics,2020,9(6): 914.
[28]Sara H K,Peyman H K,Reza K,et al. Diabetic retinopathy classification using a modified Xception architecture [C]//Proc of International Symposium on Signal Processing and Information Technology.2019:1-6.
[29]Islam M,Abdulrazak L F,Nahiduzzaman M,et al. Applying supervised contrastive learning for the detection of diabetic retinopathy and its severity levels from fundus images [J]. Computers in Biology and Medicine,2022,146: 105602.
[30]Mohammad D A. Texture attention network for diabetic retinopathy classification [J]. IEEE Access,2022,10: 55522-55532.
[31]Mohamed M F,Mariam F,Amr T A. Automatic severity classification of diabetic retinopathy based on DenseNet and convolutional block attention module [J]. IEEE Access,2022,10: 38299-38308.
[32]趙爽,穆鴿,趙文華,等. 基于特征融合網(wǎng)絡的糖尿病視網(wǎng)膜病變分類 [J]. 激光與光電子學進展,2023,60(14): 308-314. (Zhao Shuang,Mu Ge,Zhao Wenhua,et al. Classification of diabetic retinopathy based on a feature-fusion network [J]. Laser & Optoelectronics Progress,2023,60(14): 308-314.)
[33]Shankar K,Zhang Yizhuo,Liu Yiwei,et al. Hyperparameter tuning deep learning for diabetic retinopathy fundus image classification [J]. IEEE Access,2020,8: 118164-118173.
[34]Shanthi T,Sabeenian R S. Modified AlexNet architecture for classification of diabetic retinopathy images [J]. Computers & Electrical Engineering,2019,76: 56-64.