羅紹猛 文家燕 陳彬
摘? 要:瘢痕是皮膚傷口處真皮組織異常增生的疾病,其病理情況主要體現(xiàn)在色澤和血管分布程度,準確、客觀的瘢痕評估對其診治具有關鍵作用。針對傳統(tǒng)評估方式具有主觀性較大以及效率低下等問題,研究了一種基于卷積神經網(wǎng)絡的瘢痕色澤和血管分布評估算法。首先,收集大量各類型的瘢痕圖像制作數(shù)據(jù)集;其次,分析了GoogLeNet網(wǎng)絡模型的結構和優(yōu)勢,并結合瘢痕圖像的特點對原模型做出改進優(yōu)化;最后提出了基于改進網(wǎng)絡的雙模型評估算法。實驗結果表明:改進網(wǎng)絡模型較傳統(tǒng)GoogLeNet模型參數(shù)量減少了65%,但其瘢痕評估性能依然優(yōu)于后者,也優(yōu)于AlexNet和ResNet等經典深度學習網(wǎng)絡;同時,基于改進網(wǎng)絡設計的雙模型評估算法進一步提升了識別性能,縮小了誤判范圍,提高了評估準確性。本文方法可以為瘢痕輔助診斷系統(tǒng)的應用提供新的技術參考。
關鍵詞:瘢痕評估;圖像識別;遷移學習;深度學習;GoogLeNet改進模型
中圖分類號:R619.6;TP317.4? ? ? ? ? ?DOI:10.16375/j.cnki.cn45-1395/t.2022.03.006
0? ? 引言
瘢痕是皮膚創(chuàng)傷后真皮層纖維過度生長的一種現(xiàn)象,常出現(xiàn)在意外受傷、手術或燒傷等皮膚損傷后。瘢痕的臨床評估方式與治療一直是醫(yī)學研究的熱點和難點[1]。在病情診斷、針對性治療方案制定以及臨床療效判定和比較中,精準、客觀的瘢痕評估起著關鍵作用[2]。
目前的臨床瘢痕診斷或評估主要依賴醫(yī)生的個人經驗以及瘢痕評分量表,這兩種手段存在一定的主觀性,會受到診斷者的熟練程度和觀察時所處狀態(tài)的影響[3]。早期、增生期、消退期和成熟期的瘢痕會呈現(xiàn)各自階段性的狀態(tài)特點,臨床醫(yī)生主要根據(jù)病灶區(qū)域的色澤、厚度、血管分布、柔軟度和患者痛癢感等指標進行評估。國際上常用的評估量表有溫哥華瘢痕評估量表(Vancouver scar scale,VSS)、患者與觀察者瘢痕評估量表(the patient and observer scar assessment scale,POSAS)[4]。相較于POSAS,VSS是更為廣泛使用的瘢痕評量方法,其圍繞著病灶的色澤、血管分布、厚度和柔軟度等4個指標對瘢痕進行描述評估。使用VSS時,由診斷者對患者的病灶進行觀察和觸摸,并對各項指標分別進行評分。不同評估量表均從瘢痕的各項特征進行估量描述,但由于只依賴肉眼觀察和徒手觸診,同一處瘢痕的評估結果可能會存在差異[5]。
色澤和血管分布是評估量表中重點評價的指標,直接反映了瘢痕內組織的供血情況,與瘢痕所處的病理階段具有直接的關聯(lián)性。雖然瘢痕有著異于周圍皮膚的顏色,但肉眼觀察難以區(qū)分色澤的細微差異。在臨床研究中,利用一些測量儀器對瘢痕色澤和血管分布進行客觀采集與評估[6],如使用三刺激值色度計和窄譜反射分光光度計來客觀量化、測定瘢痕紅斑和黑色素沉淀情況[7]。盡管這種方法客觀準確,但專業(yè)儀器價格昂貴,使用者需要經過專業(yè)培訓,較為耗時費力。
隨著數(shù)字成像技術的進步,數(shù)碼照片能夠較為完整地還原拍攝物的特征,因此,出現(xiàn)了不少借助數(shù)字圖像對瘢痕進行分析的研究成果。如將RGB格式的數(shù)字照片轉換成L*a*b*顏色空間對瘢痕的顏色進行客觀定量評估[8],在Color Worker軟件上進行基于圖像的瘢痕色彩測量[9],以及使用ImageJ軟件對瘢痕的數(shù)字圖像進行血管性分布的評估測量[10]。研究表明,深度學習技術在皮膚病圖像識別方面有著優(yōu)良的性能,不僅處理高效,且診斷水平能與專業(yè)醫(yī)生媲美[11-13]?,F(xiàn)有文獻中的大量研究工作都是關于瘢痕圖像分析,而利用深度學習對瘢痕進行輔助評估的研究較為少見。本文探究了深度學習技術在瘢痕評估上的應用,提出了一個適應瘢痕圖像的改進GoogLeNet模型和一種基于改進模型的評估算法,為瘢痕診斷提供一種自動、準確和高效的評估方案。
1? ? 實驗材料與預處理
文中數(shù)據(jù)收集于柳州市某三甲醫(yī)院,照片拍攝于室內照明環(huán)境,原始圖片像素為6 000×4 000,瘢痕圖像數(shù)據(jù)涵蓋了人體四肢、前胸、后背和腹部等身體部位。樣本整理流程如圖1所示,首先排除病灶模糊、光線不足和反光等低質量照片,然后將原圖分塊為帶有病灶區(qū)域的小圖,得到不同階段的瘢痕圖像樣本數(shù)據(jù)1 360張。
依據(jù)VSS中色澤和血管分布的標準對每一張小圖進行分類標注。為簡潔起見,將VSS里色澤等級的“正?!薄皽\度”“深度”標記為P0、P1和P2。而血管分布程度的“正?!薄胺凵薄凹t色”和“紫色”分別標記為V0、V1、V2和V3,則一張色澤情況為“淺度”、血管分布程度為“粉色”的瘢痕圖像可以標記為P1V1。整理得到的各級別瘢痕樣本分布極不均勻,分別為:72張P0V0、85張P0V1、219張P1V1、260張P1V2、300張P2V2、424張P2V3。由于嚴重的數(shù)據(jù)不平衡會造成機器學習模型的預測結果偏向具有更多樣本的類別,所以對部分數(shù)量較少的類別進行數(shù)據(jù)擴充,擴充方式包括水平垂直翻轉、不同角度旋轉等[14]。最后將數(shù)據(jù)集隨機劃分為70%、15%和15%的訓練集、驗證集和測試集,用于訓練機器學習模型以及驗證測試模型的分類性能。各個類別的瘢痕數(shù)量如表1所示。
2? ? GoogLeNet模型及改進
2.1? ?GoogLeNet模型介紹
提升深度學習網(wǎng)絡性能的方法通常是增加網(wǎng)絡層次和神經元數(shù)量,但這會導致參數(shù)過多、計算復雜和梯度彌散等問題。GoogLeNet團隊提出了Inception模塊,以此構建一個既能保持網(wǎng)絡結構稀疏,又能利用密集矩陣的高計算性能的網(wǎng)絡模型[15]。Inception模塊的結構如圖2所示,由1*1、3*3、5*5等3個常用卷積以及3*3池化構成。因為所有的卷積核都對前一層的輸出特征圖進行計算,而3*3卷積和5*5卷積需要的計算量較大,經過多層堆疊后會造成特征圖厚度過大。為了避免該情況,分別在3*3、5*5卷積之前,以及3*3池化之后連接1*1卷積核。這一結構不僅能降低參數(shù)數(shù)量,還能增加網(wǎng)絡的非線性。基于Inception模塊的GoogLeNet網(wǎng)絡包含3個卷積層和9個Inception模塊,雖然22層網(wǎng)絡深度超過了16層的VGG網(wǎng)絡,但模型參數(shù)只有VGG網(wǎng)絡的1/36。因此,在計算資源有限的情況下,GoogLeNet網(wǎng)絡是比較好的 選擇。
2.2? ?模型改進
雖然GoogLeNet在分類性能上表現(xiàn)優(yōu)秀,但對于本文研究的瘢痕評估任務,原網(wǎng)絡顯得復雜冗余。因此,需要對網(wǎng)絡進行改進,讓其更好地適應瘢痕數(shù)據(jù)樣本。改進模型除了用到常規(guī)的卷積和Inception模塊,還在分類層之前引入批歸一化層(batch normalization,BN),分類層則繼續(xù)沿用全局平均池化代替全連接層來將特征圖轉換為特征向量,從而達到減少模型參量和防止過擬合等目的。
2.2.1? ? 全局平均池化層
在卷積神經網(wǎng)絡中,通常由若干個卷積層來提取圖像特征,得到一個多層的特征圖。在分類階段使用全連接層將所有的特征鋪展成一維的長向量,接著逐次降低這個長向量的維度,最后使用softmax進行分類。特征圖鋪開的長向量維度太低會造成特征丟失,而使用長向量又會造成全連接層的參數(shù)過多,使得網(wǎng)絡訓練速度緩慢。全局平均池化則使用特征圖的均值來代替該層的特征信息,原理如圖3所示。得到一個與卷積層輸出特征圖層數(shù)相同的特征向量后,把該向量輸入softmax層來得到各種類別的概率分布,從而實現(xiàn)分類。這個過程不需要調整參數(shù)權值,能顯著地減少網(wǎng)絡參數(shù)。
2.2.2? ? 批歸一化層
統(tǒng)一規(guī)整的數(shù)據(jù)更容易讓模型學習到數(shù)據(jù)之間的規(guī)律。BN層是深度學習中常用的網(wǎng)絡優(yōu)化方法,將BN層置于網(wǎng)絡的激活層之前能避免梯度爆炸或梯度消失問題,從而加快模型的收斂速度,穩(wěn)定訓練過程。該層進行的處理如下:
輸入數(shù)值集合[B={x1, x2, …, xm}],計算其均值[μB]和方差[σB]:
[μB=1mi=1mxi] ,? ? ? ? ? ? ? ? ? ? ? ? ? (1)
[σ2B=1mi=1m(xi-μB)2] .? ? ? ? ? ? ? ? ? ?(2)
正則化:
[xi=xi-μBσ2B+ε] .? ? ? ? ? ? ? ? ? ? ? ? ?(3)
式中:[ε]為偏置,設置為固定值。
輸出[yi=γxi+β],其中:[γ]和[β]是需要學習的 參數(shù)。
通過以上處理,能將輸入數(shù)據(jù)規(guī)整到統(tǒng)一區(qū)間,而通過參數(shù)[γ]和[β]還原,BN層能夠在歸一化之后保留原數(shù)據(jù)的分布,防止模型在訓練時產生過擬合現(xiàn)象[16]。
2.2.3? ? 瘢痕分類模型
GoogLeNet是針對大規(guī)模多類別數(shù)據(jù)集而設計的分類網(wǎng)絡,對多類別圖像分類性能顯著。本文結合瘢痕圖像的特點,在原始GoogLeNet的基礎上設計了一個適用于瘢痕色澤和血管分布程度的分類網(wǎng)絡結構。在大型數(shù)據(jù)集中對多種類別進行分類時,需要網(wǎng)絡能夠提取到更細致的特征來進行識別,因此,需要模型具有一定的深度來增加表達能力[17]。本文研究的是瘢痕色澤和血管分布的分類任務,在類別數(shù)量和特征層次上遠小于原始網(wǎng)絡解決的分類問題。為適應瘢痕圖像樣本,對原始GoogLeNet模型做了調整,改進前、后的網(wǎng)絡結構分別如圖4和圖5所示。原始模型中利用9個Inception模塊來增加網(wǎng)絡的深度和寬度,考慮到瘢痕圖像特征的復雜度較低,不需要很深的網(wǎng)絡來提取特征,因此,可以對模型進行適當精簡。改進模型中使用卷積和5個Inception模塊來提取瘢痕特征,在最后一個Inception模塊的輸出后使用1*1卷積進行特征映射和降維,在該1*1卷積和分類層之間增加BN層以加速網(wǎng)絡收斂。分類層則由全局平均池化和Dropout層構成。改進后的網(wǎng)絡結構從原模型深度的22層降至16層,將其命名為GoogLeNet-Scar,作為瘢痕評估算法的識別網(wǎng)絡。
2.3? ?基于改進模型的評估算法
使用VSS評估表的瘢痕評估是為了獲得描述患者病灶情況的等級分數(shù),該分數(shù)由各個子項目得分累加,分數(shù)高低對應著瘢痕總體情況的好壞。與多數(shù)深度學習識別應用一樣,可以利用單個識別網(wǎng)絡對瘢痕色澤和血管分布的總分進行預測評估。本文提出一種雙模型預測評估算法,首先,訓練瘢痕色澤和血管分布總分的評估網(wǎng)絡;隨后基于該總分評估模型使用遷移學習的方式分別訓練色澤評估模型和血管分布評估模型,聯(lián)合2個模型對同一張圖像進行分數(shù)評估;最后,將2個分數(shù)相加得到瘢痕色澤和血管分布的總分。方法的流程如圖6所示。
3? ? 實驗與結果分析
3.1? ?實驗環(huán)境與參數(shù)設置
評估算法實現(xiàn)的硬件環(huán)境為:Intel Core i5-7300HQ CPU @2.5GHz,16 GB運行內存,GPU為Nvidia GTX1050。軟件環(huán)境為:64位Windows10操作系統(tǒng),MATLAB2020b平臺。
訓練模型時采用隨機梯度下降算法(stochastic gradient descent,SGD)進行優(yōu)化。設置batchsize為32,初始學習率設為0.001 6,并加入學習率衰減策略,當驗證準確率在連續(xù)10個迭代輪次中都不上升時,將學習率降低一半。動量參數(shù)取0.9,最大迭代輪數(shù)(epoch)為150輪。
3.2? ?評價指標
由于數(shù)據(jù)集中瘢痕圖像樣本分布不均勻,單從準確率(accuracy,[A])評價模型和算法的性能難免存在一定偏差,因此,除了準確率,還使用查準率(precision,[P])、查全率(recall,[R])和[F1]值來評估和對比算法的性能,通過式(4)—式(7)進行計算。
[A=NTP+NTNNTP+NFP+NTN+NFN×100%] ,? ? (4)
[P=NTPNTP+NFP×100%] ,? ? ? ? ? ? (5)
[R=NTPNTP+NFN×100%] ,? ? ? ? ? ? ? ? ?(6)
[F1=2×P×RP+R×100%] .? ? ? ? ? ? ?(7)
其中:[NTP]表示真實類為正,算法預測也為正;[NTN]表示真實類為負,算法預測也為負;[NFN]表示實際為正,但算法預測為負;[NFP]表示實際為負,但算法預測為正。
3.3? ?結果與分析
模型訓練就是通過多輪迭代求解最佳的權重和偏置,使得模型預測值與真實值的差距最小,通常以損失函數(shù)描述該差距。本文采用交叉熵損失函數(shù)來度量模型預測值和真實值之間的差異程度,可由式(8)計算得到:
[L=-1Ni=1Nc=1Myiclog(pic)] .? ? ? ? ? ? ?(8)
式中:[N]為樣本總量;[M]表示類別數(shù)量;[yic]取0或1,當樣本[i]的真實類別與[c]相同時取1,否則取0;[pic]表示樣本[i]屬于[c]類別的預測概率。
本文在預訓練的GoogLeNet上進行改造,獲得GoogLeNet-Scar網(wǎng)絡,再基于改進的網(wǎng)絡模型設計瘢痕色澤和血管分布評估算法。為檢驗改進網(wǎng)絡和算法的性能,在相同數(shù)據(jù)集上訓練了GoogLeNet、ResNet50、SqueezeNet和AlexNet等4種模型進行對比測試。圖7所示為各模型訓練過程的準確率,損失值隨訓練的變化如圖8所示。
相較于其他深度學習網(wǎng)絡結構,改進模型GoogLeNet-Scar網(wǎng)絡和原模型GoogLeNet在準確率和損失值方面有突出優(yōu)勢。原模型取得的準確率為93.97%,損失值為0.34,改進模型最終驗證集的準確率和損失值分別為94.88%和0.18,分類性能小幅度提升。但是,驗證集并不能完全體現(xiàn)模型的泛化能力,需要在測試集中對比各模型的差異。表2展示了各模型在測試集中的表現(xiàn)以及綜合性能參數(shù)。由表2可以看出,GoogLeNet綜合性能高于其他經典模型。盡管改進模型GoogLeNet-Scar在測試準確率上只比原模型提高了1.23%,但在相同運行環(huán)境下,處理單張圖像的耗時降低了21%,在內存需求上比原模型的需求降低65%,這得益于改進模型參數(shù)量的減少,具體如表3所示。減少的權重和偏置參數(shù)能加快模型的推理速度,減少存儲空間占用。實驗結果說明,在降低網(wǎng)絡深度以及大幅減少參數(shù)量的情況下,改進模型GoogLeNet-Scar依然能保持對瘢痕圖像的識別性能。從理論層面分析,卷積神經網(wǎng)絡隨著深度的增加,網(wǎng)絡提取的特征逐漸從簡單獨立的淺層特征過渡到復雜整體的深層特征[18]。而瘢痕圖像的內容并不復雜,可以依靠顏色、紋理、棱角和邊緣等淺層次的特征進行分類,故而改進網(wǎng)絡對瘢痕圖像具有一定適應性。
因此,可以把改進模型應用到本文提出的雙模型識別評估算法中,對GoogLeNet-Scar進行微調,通過遷移學習來實現(xiàn)色澤和血管分布2種識別任務,然后聯(lián)合2個識別的結果對瘢痕圖像進行總分評估。雙模型算法在測試集實驗中的準確率為96.15%,進一步將準確率提高了1.84%。為詳細對比算法和改進模型GoogLeNet-Scar的分類性能,在表4中列出了測試集里2種方法對各類型瘢痕圖片識別的準確率、查準率、查全率和[F1]值,圖9為兩者評估結果的混淆矩陣。
由表4可知:相較于單GoogLeNet-Scar模型,雙模型評估算法對6種類型瘢痕圖像識別的性能均有提高,其中準確率均值提高了0.62%,查準率均值提高1.95%,查全率均值提高1.71%,[F1]值提升1.83%。這表明雙模型算法在瘢痕色澤和血管分布評估任務里能夠起到優(yōu)化作用。
雖然二者在平均準確度方面相差不大,但由圖9可以觀察到,單GoogLeNet-Scar模型進行測試集評估時,將一部分“P1V1”的樣本預測成了另外5種類型,并且出現(xiàn)了將真實類為“P2V3”的樣本預測成“P1V1”的情況。這意味著單個GoogLeNet-Scar模型的誤判區(qū)間是多跨度的,即從比較輕微到嚴重。而雙模型評估算法中,誤判類別主要集中在真實類的相鄰位置,也就是算法進行評估時不會跨越多個程度,即使出現(xiàn)誤判,其結果也與真實情況相近,這更貼近臨床實際的評估情況。因此,提出的改進模型以及算法在瘢痕色澤和血管分布評估方面有著良好的適應性。
4? ? 結語
本文探索了基于深度學習的瘢痕色澤和血管分布的評估方法,根據(jù)瘢痕圖像的特點,在GoogLeNet網(wǎng)絡的基礎上進行了模型改進,設計得到GoogLeNet-Scar深度卷積神經網(wǎng)絡模型。與原模型以及其他經典的卷積神經網(wǎng)絡相比,改進后的模型不僅在瘢痕圖像的識別性能上有所提升,同時在參數(shù)量、內存需求以及運行耗時上有著明顯的優(yōu)勢。此外,本文提出了一種基于改進模型的瘢痕色澤和血管分布評估算法,用雙改進模型對瘢痕進行評估,實驗結果表明:雙模型評估算法能進一步提高識別的性能,對每種類型病灶的評估的平均準確率達到了98.72%。該方法可以為瘢痕自動診斷系統(tǒng)的開發(fā)提供一定參考。本文的研究尚有一些局限,如數(shù)據(jù)集數(shù)量較少和樣本分布不均等。未來將收集更多樣本數(shù)據(jù),同時繼續(xù)研究在保持識別性能的前提下,如何縮減識別網(wǎng)絡的體量,以便于移植和推廣到實際的瘢痕臨床輔助診斷中。
參考文獻
[1]? ? ?沈小鵬,李東.瘢痕防治及其研究進展[J].中華臨床醫(yī)師雜志(電子版),2019,13(6):463-467.
[2]? ? ?袁妤婷,魏在榮.瘢痕評估方法研究現(xiàn)狀[J].中國實用醫(yī)藥,2019,14(2):195-196.
[3]? ? ?陳潔,杭菁,韋宗凱,等.超聲技術在病理性瘢痕診療評估中的研究進展[J].中華超聲影像學雜志,2019,28(11):1009-1010,1012.
[4]? ? ?柯俐安,楊軍.增生性瘢痕無創(chuàng)性評估策略及方法[J].組織工程與重建外科雜志,2016,12(4):262-265.
[5]? ? ?LEE K C,BAMFORD A,GARDINER F,et al. Burns objective scar scale (BOSS):validation of an objective measurement devices based burn scar scale panel[J].Burns,2020,46(1):110-120.
[6]? ? ?UD-DIN S,BAYAT A. Non-invasive objective devices for monitoring the inflammatory,proliferative and remodelling phases of cutaneous wound healing and skin scarring[J].Experimental Dermatology,2016,25(8):579-585.
[7]? ? ?DENG H,LI-TSANG C W P. Measurement of vascularity in the scar:a systematic review[J]. Burns,2019,45(6):1253-1265.
[8]? ? ?CHEON Y W,LEE W J,RAH D K. Objective and quantitative evaluation of scar color using the L*a*b* color coordinates[J].Journal of Craniofacial Surgery,2010,21(3):679-684.
[9]? ? ?ANDERSON J C,HALLAM M J,NDUKA C,et al.The challenge of objective scar colour assessment in a clinical setting:using digital photography[J].Journal of Wound Care,2015,24(8):379-387.
[10]? ?TEPLYI V,GREBCHENKO K. Evaluation of the scars' vascularization using computer processing of the digital images[J].Skin Research and Technology,2019,25(2):194-199.
[11]? ?PACHECO A G C,KROHLING R A.An attention-based mechanism to combine images and metadata in deep learning models applied to skin cancer classification[J]. IEEE Journal of Biomedical and Health Informatics,2021,25(9):3554-3563.
[12]? ?HAN S S,KIM M S,LIM W,et al.Classification of the clinical images for benign and malignant cutaneous tumors using a deep learning algorithm[J].Journal of Investigative Dermatology,2018,138(7):1529-1538.
[13]? ?龍雪,李政林,王智文,等. 基于改進U-Net網(wǎng)絡的肺部CT圖像結節(jié)分割方法[J].廣西科技大學學報,2022,33(1):63-70.
[14]? ?YU Z,JIANG X D,ZHOU F,et al. Melanoma recognition in dermoscopy images via aggregated deep convolutional features[J].IEEE Transactions on Bio-Medical Engineering,2019,66(4):1006-1016.
[15]? ?SZEGEDY C,LIU W,JIA Y Q,et al. Going deeper with convolutions[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2015:1-9.
[16]? ?韓要昌,王潔,史通,等.基于改進GoogLeNet的遙感圖像分類方法[J].彈箭與制導學報,2019,39(5):139-142.
[17]? ?宋晨勇,白皓然,孫偉浩,等. 基于GoogLeNet改進模型的蘋果葉病診斷系統(tǒng)設計[J].中國農機化學報,2021,42(7):148-155.
[18]? ?ZEILER M D,F(xiàn)ERGUS R.Visualizing and understanding convolutional networks[C]//European Conference on Computer Vision (ECCV),2014:818-833.
Evaluation algorithm for pigmentation and vascularity of
hypertrophic scar based on improved GoogLeNet
LUO Shaomeng1, WEN Jiayan*1,2, CHEN Bin3
(1.School of Electrical, Electronic and Computer Science, Guangxi University of Science and Technology,
Liuzhou 545616, China; 2. Guangxi Key Laboratory of Automobile Components and Vehicle Technology,
Liuzhou 545006, China; 3. Liuzhou Worker's Hospital (The Fourth Affiliated Hospital of Guangxi Medical
University), Liuzhou 545007, China)
Abstract: Hypertrophic scar is a disease of abnormal proliferation of dermal tissue at skin wounds. The pathological condition of hypertrophic scar is mainly reflected in the degree of pigmentation and vascularity. Accurate and objective scar assessment plays a critical role in diagnosis and treatment. To address the problems of subjectivity and inefficiency of traditional assessment methods, this paper researches an evaluation algorithm for the degree of scar pigmentation and vascularity based on convolutional neural network. Firstly, a large number of hypertrophic scar images of various types were collected to produce a dataset. Secondly, the structure and advantages of the GoogLeNet network model are analyzed, and the model is improved and optimized according to the characteristics of the scar image. Then a dual model evaluation algorithm based on the improved network is proposed. The experimental results show that even if the improved network has 65% less parameters than the original GoogLeNet model, the former still outperforms the latter in the assessment task, and is also higher than other classical deep learning networks such as AlexNet and ResNet. The dual-model evaluation algorithm based on the improved network design further improves the recognition performance, reduces the scope of misjudgment, and increases the evaluation accuracy. This method can provide a new technical reference for the application of scar auxiliary diagnosis system.
Key words: hypertrophic scar assessment; image recognition; transfer learning; deep learning; GoogLeNet improved model
(責任編輯:黎? 婭)