国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進(jìn)VGGNet的羊個(gè)體疼痛識(shí)別方法

2022-08-05 01:31侯越誠田虎強(qiáng)張世龍
關(guān)鍵詞:準(zhǔn)確率卷積痛苦

韓 丁 王 斌 王 亮,3 侯越誠 田虎強(qiáng) 張世龍

(1.內(nèi)蒙古大學(xué)草原家畜生殖調(diào)控與繁育國家重點(diǎn)實(shí)驗(yàn)室,呼和浩特 010030;2.內(nèi)蒙古大學(xué)電子信息工程學(xué)院,呼和浩特 010021;3.復(fù)旦大學(xué)信息科學(xué)與工程學(xué)院,上海 200433)

0 引言

在羊養(yǎng)殖業(yè)中,羊的疼痛往往是由疾病引起的,所以疼痛檢測對(duì)羊的福利化養(yǎng)殖和健康生長非常重要,而找到快速、準(zhǔn)確的疼痛檢測方法成為關(guān)鍵[1-2]。LANGFORD等[3]最早對(duì)動(dòng)物面部疼痛識(shí)別進(jìn)行了研究。對(duì)于羊的疼痛,2009年STUBSJ?EN等[4]利用紅外熱成像法(Infrared thermography,IRT)和心率變化法(Heart rate variability,HRV)檢測眼睛溫度變化和心率變化來進(jìn)行識(shí)別,但是以上方法檢測速度較慢并且需要耗費(fèi)大量人力。由于疼痛往往會(huì)導(dǎo)致羊的面部表情發(fā)生變化,所以在2016年,一種人工評(píng)估羊疼痛的標(biāo)準(zhǔn)方法——羊表情疼痛量表(Sheep pain facial expression scale,SPFES)被提出,這是一種利用羊的面部表情來檢測羊疼痛的標(biāo)準(zhǔn)方法,該方法根據(jù)耳旋程度、鼻孔形狀、眼睛的收縮程度等對(duì)每個(gè)區(qū)域可能存在的疼痛進(jìn)行單獨(dú)評(píng)分,例如眼睛完全睜開表示沒有痛苦記為0分,半閉合表示可能存在痛苦記為1分,幾乎完全閉合表示存在痛苦的可能性較大記為2分,然后將眼窩、臉頰、耳朵、唇顎、鼻子5個(gè)區(qū)域的評(píng)分相加,如果大于1.5分,則認(rèn)為該羊存在痛苦,這種方法已被證明能夠高準(zhǔn)確性地識(shí)別羊的面部疼痛[5]。SPFES的提出證明了利用羊面部表情檢測疼痛是可行的,但是評(píng)分人員需要經(jīng)過專業(yè)的培訓(xùn),而且可能會(huì)存在個(gè)體間標(biāo)準(zhǔn)的差異,這種對(duì)疼痛評(píng)分的人工檢測方法還存在時(shí)間長和效率低的問題。

計(jì)算機(jī)視覺技術(shù)在人臉識(shí)別、疾病診斷等領(lǐng)域得到了非常好的應(yīng)用效果[6-8]。在牧場養(yǎng)殖中,計(jì)算機(jī)視覺技術(shù)也能解決許多相關(guān)問題[9-10]。在2020年,NOOR等[11]利用計(jì)算機(jī)視覺技術(shù),提出了基于遷移學(xué)習(xí)的羊痛苦表情自動(dòng)分類方法,將羊臉圖像作為輸入,訓(xùn)練了深度學(xué)習(xí)模型。數(shù)據(jù)集圖像中具有復(fù)雜的背景環(huán)境,但是羊的痛苦表情僅與部分面部特征有關(guān)。因此卷積神經(jīng)網(wǎng)絡(luò)會(huì)提取到許多無關(guān)的特征,對(duì)識(shí)別的準(zhǔn)確率產(chǎn)生影響。在實(shí)際的畜牧養(yǎng)殖業(yè)中,牧場的養(yǎng)殖規(guī)模較大,微小的識(shí)別錯(cuò)誤也會(huì)導(dǎo)致牧場的管理秩序產(chǎn)生混亂,因此提升識(shí)別的準(zhǔn)確率意義重大。然而NOOR等的方法并未將與痛苦無關(guān)的面部特征去除或者減弱無關(guān)面部特征對(duì)分類準(zhǔn)確率的影響。

本文在VGGNet(Visual geometry group network)中引入空間變換網(wǎng)絡(luò)(Spatial transformer nets,STN)組成STVGGNet,提高對(duì)具有復(fù)雜背景的羊臉痛苦表情圖像的識(shí)別準(zhǔn)確率。針對(duì)羊臉表情數(shù)據(jù)集中圖像較少的問題,對(duì)羊臉表情數(shù)據(jù)集進(jìn)行擴(kuò)充。利用從牧場和網(wǎng)絡(luò)上采集的羊臉痛苦表情的真實(shí)圖像對(duì)訓(xùn)練好的檢測模型進(jìn)行評(píng)價(jià)。

1 材料和方法

1.1 數(shù)據(jù)集與預(yù)處理

為了將三線插值特征法(Triplet interpolated features,TIF)引入羊臉識(shí)別中,YANG等[12]制作了一個(gè)包含600幅羊臉圖像的數(shù)據(jù)集,手動(dòng)標(biāo)記了羊臉的邊界框和特征點(diǎn),該羊臉數(shù)據(jù)集沒有包含表情標(biāo)簽,隨后LU等[13]為該數(shù)據(jù)集添加了相應(yīng)的表情標(biāo)簽。2020年,NOOR等開發(fā)了一個(gè)高分辨率的羊臉數(shù)據(jù)集,其中羊臉圖像來自于ImageNet、NADIS、Pixabay、Flickr和Gettyimages等不同的網(wǎng)站。在該數(shù)據(jù)集中,無痛苦的羊臉表情圖像被稱為正常羊臉圖像,具有痛苦的羊臉表情圖像被稱為異常羊臉圖像。該數(shù)據(jù)集按照SPFES標(biāo)準(zhǔn)將2 350幅圖像劃分為1 407幅圖像組成的正常羊臉數(shù)據(jù)集和943幅圖像組成的異常羊臉數(shù)據(jù)集。

本文制作了一個(gè)符合SPFES標(biāo)準(zhǔn)的新數(shù)據(jù)集。SPFES定義的羊面部疼痛特征與耳朵、鼻子、眼睛有關(guān)。對(duì)于耳朵,SPFES定義了羊臉部正面和側(cè)面耳朵旋轉(zhuǎn)代表的疼痛程度,耳廓可見、部分可見和不可見分別代表沒有疼痛、低痛和高痛。對(duì)于鼻子,用鼻孔的形狀定義了疼痛程度,“U”形鼻孔代表沒有疼痛,“V”形鼻孔代表有痛。對(duì)于眼睛,完全睜開表示沒有疼痛,而半閉則有疼痛。本文數(shù)據(jù)集在NOOR等提出的989幅正常圖像和154幅異常圖像組成的部分?jǐn)?shù)據(jù)集基礎(chǔ)上,增加了887幅圖像,其中435幅新增圖像來自Pixabay、VCG、VEER和百度網(wǎng)站,其余452幅新增圖像為牧場實(shí)地拍攝圖像,數(shù)據(jù)采集地為內(nèi)蒙古自治區(qū)鄂爾多斯市鄂托克旗億維養(yǎng)殖基地。數(shù)據(jù)采集裝備為佳能PowerShot-G7-X- MarkⅡ型相機(jī),分辨率為2 400像素×1 600像素。數(shù)據(jù)采集對(duì)象為阿爾巴斯絨山羊,數(shù)量為226只,其中成年公羊56只,幼齡斷奶公羊20只,成年母羊125只,幼齡斷奶母羊25只,每只羊選擇拍攝效果較好的2幅為數(shù)據(jù)集圖像。本文將收集的圖像按照SPFES標(biāo)準(zhǔn)進(jìn)行了評(píng)分和分類,評(píng)分結(jié)果如表1所示,評(píng)分小于1.5分的圖像總計(jì)841幅,為正常羊臉圖像,評(píng)分大于1.5分的圖像總計(jì)46幅為異常羊臉圖像。新的數(shù)據(jù)集一共由2 030幅圖像組成,其中正常羊臉圖像1 830幅,異常羊臉圖像200幅。圖1為本文數(shù)據(jù)集部分圖像。

表1 新增羊臉圖像評(píng)分結(jié)果Tab.1 Score results of new sheep face images

圖1 羊臉數(shù)據(jù)集部分圖像示例Fig.1 Partial images of sheep face dataset

本文雖然對(duì)羊臉表情數(shù)據(jù)集進(jìn)行了擴(kuò)充,但是數(shù)據(jù)集的尺寸依然較小,存在過擬合的可能。過擬合是指模型將訓(xùn)練數(shù)據(jù)集中的采樣誤差,作為數(shù)據(jù)之間的差異進(jìn)行擬合,從而導(dǎo)致模型在訓(xùn)練數(shù)據(jù)集中的訓(xùn)練誤差很低,而在測試數(shù)據(jù)集中的測試誤差很高(或者說泛化誤差高)[14]。通??梢允褂脭?shù)據(jù)增強(qiáng)的方法擴(kuò)充訓(xùn)練數(shù)據(jù),以減少過擬合問題,增加泛化性能[15]。本文數(shù)據(jù)增強(qiáng)操作有隨機(jī)旋轉(zhuǎn)、隨機(jī)翻轉(zhuǎn)、裁剪。樣本圖像的數(shù)量擴(kuò)充為原來的4倍,即8 120幅羊臉圖像。

1.2 STVGGNet結(jié)構(gòu)分析

1.2.1STVGGNet構(gòu)建動(dòng)機(jī)

在真實(shí)牧場環(huán)境中,通常使用固定位置的攝像頭采集羊臉圖像,采集到的圖像中包含了許多與羊臉痛苦表情無關(guān)的特征,大幅降低了羊臉痛苦表情識(shí)別的準(zhǔn)確率[16]。而羊臉痛苦表情僅與部分臉部特征有關(guān),需要開發(fā)一種能夠重點(diǎn)關(guān)注與羊臉痛苦表情相關(guān)特征區(qū)域的模型來提高準(zhǔn)確率。因此,本文將空間變換網(wǎng)絡(luò)加入VGGNet來提高識(shí)別羊臉痛苦表情的準(zhǔn)確率。

1.2.2實(shí)現(xiàn)細(xì)節(jié)和體系結(jié)構(gòu)可視化

VGGNet由卷積層、池化層和全連接層組成,根據(jù)不同的組合方式和網(wǎng)絡(luò)深度,有多種不同的網(wǎng)絡(luò)配置[17],本研究選擇其中4種作為基礎(chǔ)網(wǎng)絡(luò)。本文依據(jù)研究所需的輸入尺寸,對(duì)VGGNet的網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)進(jìn)行了優(yōu)化,如圖2所示。

圖2 VGG網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 VGG network structure

在VGGNet的卷積層前加入了空間變換網(wǎng)絡(luò)??臻g變換網(wǎng)絡(luò)可以在進(jìn)行圖像分類之前先學(xué)習(xí)到分類對(duì)象的特征所在區(qū)域,并通過旋轉(zhuǎn)、平移、裁剪等方法生成一個(gè)新的圖像,然后將新生成的圖像作為分類網(wǎng)絡(luò)的輸入。該方法在MNIST手寫數(shù)據(jù)集和街景門牌號(hào)數(shù)據(jù)集(Street view house numbers,SVHN)上被證明有很好的效果[18],本文將空間變換網(wǎng)絡(luò)作為羊臉表情相關(guān)面部特征區(qū)域提取器,提取到的區(qū)域圖將取代原始圖像作為羊臉表情分類網(wǎng)絡(luò)的輸入??臻g變換網(wǎng)絡(luò)整體結(jié)構(gòu)如圖3所示,包含定位網(wǎng)絡(luò)、網(wǎng)格生成器、采樣器3部分。

圖3 空間變換網(wǎng)絡(luò)Fig.3 Spatial transformer network

定位網(wǎng)絡(luò)從輸入到輸出的變換公式為

θ=fTθ(U)

(1)

式中fTθ——卷積函數(shù)

θ——仿射變換矩陣

U——經(jīng)過數(shù)據(jù)增強(qiáng)的羊臉圖像

fTθ是一個(gè)卷積神經(jīng)網(wǎng)絡(luò),用于學(xué)習(xí)仿射變換矩陣,由2個(gè)卷積層、2個(gè)最大池化層和2個(gè)全連接層組成,一個(gè)卷積層使用的卷積核尺寸為8×8,另一個(gè)卷積層的卷積核尺寸為7×7。定位網(wǎng)絡(luò)并不是直接從數(shù)據(jù)集學(xué)習(xí)如何轉(zhuǎn)換,而是嵌入在圖像分類網(wǎng)絡(luò)中,根據(jù)分類網(wǎng)絡(luò)的損失最小化原則自動(dòng)學(xué)習(xí)仿射變換矩陣參數(shù)θ。

根據(jù)由定位網(wǎng)絡(luò)得到的仿射變換矩陣θ,生成一個(gè)輸入圖像和轉(zhuǎn)換圖像之間的坐標(biāo)對(duì)照網(wǎng)格。網(wǎng)格生成器生成的轉(zhuǎn)換公式為

(2)

將輸入圖像按網(wǎng)格的坐標(biāo)對(duì)照關(guān)系,轉(zhuǎn)換為一個(gè)新圖像,轉(zhuǎn)發(fā)給分類網(wǎng)絡(luò),網(wǎng)格轉(zhuǎn)換圖如圖4所示。STVGGNet的識(shí)別過程如圖5所示。VGGNet與STVGGNet的參數(shù)數(shù)量如表2所示,本文提出的STVGGNet與VGGNet相比,參數(shù)數(shù)量并沒有明顯的增加。

2 實(shí)驗(yàn)與結(jié)果分析

2.1 實(shí)驗(yàn)配置

本文實(shí)驗(yàn)使用的開發(fā)平臺(tái)為Windows 10,GPU為NVIDA Quadro RTX6000,深度學(xué)習(xí)框架為Pytorch1.6。進(jìn)行了多次實(shí)驗(yàn)之后選擇如下參數(shù):優(yōu)化方法為隨機(jī)梯度下降(SGD)算法,動(dòng)量為0.9,初始學(xué)習(xí)率為0.01,迭代周期(Epoch)為50。

圖4 網(wǎng)格轉(zhuǎn)換圖Fig.4 Grid transformation diagram

圖5 STVGGNet識(shí)別過程Fig.5 STVGGNet identification process

表2 參數(shù)所占內(nèi)存Tab.2 Memory occupied by parameter

2.2 遷移學(xué)習(xí)

在計(jì)算機(jī)視覺應(yīng)用領(lǐng)域中,為了達(dá)到很好的識(shí)別效果,需要很大的數(shù)據(jù)集,但是大型數(shù)據(jù)集制作成本非常高,另外從頭訓(xùn)練需要非常高的計(jì)算性能。使用遷移學(xué)習(xí)可以滿足大型數(shù)據(jù)集和高計(jì)算性能的兩大需求,在訓(xùn)練過程中快速地獲得較好的識(shí)別效果[19-20]。新制作的羊臉表情數(shù)據(jù)集屬于小型數(shù)據(jù)集,直接進(jìn)行訓(xùn)練不能達(dá)到很好的訓(xùn)練效果,故本文使用遷移學(xué)習(xí)對(duì)所有涉及的網(wǎng)絡(luò)進(jìn)行預(yù)訓(xùn)練。本文使用ImageNet數(shù)據(jù)集對(duì)VGGNet和STVGGNet進(jìn)行預(yù)訓(xùn)練,然后對(duì)于VGGNet預(yù)訓(xùn)練模型,凍結(jié)全部的卷積層,使用羊臉數(shù)據(jù)集訓(xùn)練剩余的3個(gè)全連接層;對(duì)于STVGGNet預(yù)訓(xùn)練模型,也凍結(jié)全部的卷積層,使用羊臉數(shù)據(jù)集訓(xùn)練剩余的空間變換網(wǎng)絡(luò)和3個(gè)全連接層。

2.3 實(shí)驗(yàn)結(jié)果

在本研究中,將數(shù)據(jù)集的70%用于訓(xùn)練,20%用于驗(yàn)證,10%用于測試評(píng)估VGGNet和1.2.2節(jié)中提出的STVGGNet。VGGNet和STVGGNet的分類結(jié)果如表3所示。圖6為在羊臉數(shù)據(jù)集上對(duì)VGGNet和STVGGNet進(jìn)行訓(xùn)練時(shí)的損失值。從表3中可以看出,VGGNet中VGG19的訓(xùn)練準(zhǔn)確率最高,達(dá)到了99.80%,而STVGGNet中訓(xùn)練準(zhǔn)確率最高的是STVGG19,達(dá)到了99.95%,比VGG19高0.15個(gè)百分點(diǎn)。并且STVGGNet的訓(xùn)練準(zhǔn)確率均比VGGNet中對(duì)應(yīng)的網(wǎng)絡(luò)高,最多高0.44個(gè)百分點(diǎn),最少高0.06個(gè)百分點(diǎn)。

表3 網(wǎng)絡(luò)訓(xùn)練準(zhǔn)確率、訓(xùn)練時(shí)間、驗(yàn)證準(zhǔn)確率Tab.3 Training accuracy,training time and validation accuracy of networks

圖6 不同網(wǎng)絡(luò)的訓(xùn)練損失值變化曲線Fig.6 Variation curves of training loss value of different networks

采用STVGGNet能夠提高訓(xùn)練的準(zhǔn)確率,卻導(dǎo)致其相較于VGGNet的參數(shù)數(shù)量有所增加。參數(shù)數(shù)量上升會(huì)導(dǎo)致訓(xùn)練時(shí)間的增加。雖然STVGGNet與VGGNet相比訓(xùn)練時(shí)間均有所增加,但STVGGNet用較短的時(shí)間增加量換取訓(xùn)練準(zhǔn)確率的提升是值得的。

STVGGNet的驗(yàn)證準(zhǔn)確率得到了明顯提升。如表3所示,STVGG19的驗(yàn)證準(zhǔn)確率提升最多,相比于VGG19提升了0.99個(gè)百分點(diǎn)。STVGG13的提升最少,相比于VGG13也提升了0.49個(gè)百分點(diǎn)。驗(yàn)證準(zhǔn)確率的提升證明了STVGGNet的泛化性能優(yōu)于VGGNet。

本文對(duì)改進(jìn)后的STVGGNet與VGGNet在羊臉痛苦表情識(shí)別中的表現(xiàn)進(jìn)行定量評(píng)估時(shí),使用混淆矩陣(Confusion matrix)、準(zhǔn)確率(Accuracy)、錯(cuò)誤率(Error rate)、精確度(Precision)、召回率(Recall)、F1值(F1 score)來評(píng)估兩種模型。兩種模型的測試結(jié)果混淆矩陣如圖7所示。本文預(yù)測了兩種可能的類別,分別為正常(沒有痛苦)羊臉和異常(有不同程度的痛苦)羊臉。分類器測試了812幅圖像,其中732幅沒有疼痛,80幅有不同程度的疼痛。統(tǒng)計(jì)了分類實(shí)驗(yàn)數(shù)據(jù)的真正樣本(True positive,TP)和真負(fù)樣本(True negative,TN)的數(shù)量。此外,也統(tǒng)計(jì)了預(yù)測出的假正樣本(False positive,F(xiàn)P)和假負(fù)樣本(False negative,F(xiàn)N)數(shù)量。VGG19的測試結(jié)果中真正樣本和真負(fù)樣本分別有704幅和72幅,假正樣本和假負(fù)樣本分別有8幅和28幅,而改進(jìn)后泛化性能最好的STVGG19的預(yù)測結(jié)果中真正樣本和真負(fù)樣本分別有732幅和76幅,假正樣本和假負(fù)樣本分別有4幅和28幅。圖8展示了兩種模型的部分預(yù)測結(jié)果。

所有模型對(duì)測試集預(yù)測的準(zhǔn)確率、錯(cuò)誤率、精確度、召回率、F1值如表4所示。評(píng)估結(jié)果表明,在羊臉痛苦表情分類測試任務(wù)中,除了STVGG16與VGG16的測試準(zhǔn)確率相同以外,STVGGNet的測試準(zhǔn)確率均高于對(duì)應(yīng)的VGGNet,且所有的STVGGNet的F1值均高于對(duì)應(yīng)的VGGNet。從整體上看,STVGGNet的分類性能要優(yōu)于VGGNet。對(duì)于分類性能最好的STVGG19和對(duì)應(yīng)的VGG19,雖然STVGG19的訓(xùn)練準(zhǔn)確率僅比VGG19高0.15個(gè)百分點(diǎn)(表3),但是STVGG19模型的預(yù)測準(zhǔn)確率高于VGG19模型0.49個(gè)百分點(diǎn)(表4),這說明與VGG19模型相比,STVGG19的泛化性能更好。

表4 準(zhǔn)確率、錯(cuò)誤率、精確度、召回率、F1值Tab.4 Accuracy,error rate,precision,recall and F1 value %

2.4 羊個(gè)體姿態(tài)與年齡段對(duì)識(shí)別效果的影響

為探究羊個(gè)體姿態(tài)對(duì)識(shí)別效果的影響,從數(shù)據(jù)集中成年羊站立姿態(tài)下提取的羊面部圖像和躺臥姿態(tài)下提取的羊面部圖像中隨機(jī)抽取各30幅面部圖像,總計(jì)60幅圖像。使用VGG19和STVGG19對(duì)站姿、臥姿和混合狀態(tài)3種情況各進(jìn)行了10次測試,得到的平均測試準(zhǔn)確率如表5所示。

表5 站姿、臥姿和混合姿態(tài)的平均測試準(zhǔn)確率Tab.5 Average accuracy of standing,lying and mixed posture %

由表5可知,網(wǎng)絡(luò)對(duì)站姿和臥姿時(shí)羊面部疼痛均有較好的識(shí)別效果,且站姿的識(shí)別準(zhǔn)確率略高于臥姿。

為探究羊年齡段對(duì)識(shí)別效果的影響,從數(shù)據(jù)集中站立姿態(tài)下幼齡斷奶羊提取的面部圖像和成年羊提取的羊面部圖像中隨機(jī)抽取各30幅面部圖像,總計(jì)60幅圖像。使用VGG19和STVGG19對(duì)幼齡、成年和混合年齡3種情況各進(jìn)行了10次測試,得到的平均測試準(zhǔn)確率如表6所示。

表6 幼齡、成年和混合年齡的平均測試準(zhǔn)確率Tab.6 Average accuracy of young,adult and mixed age %

由表6可知,模型對(duì)幼齡羊和成年羊面部疼痛均有較好的識(shí)別效果,而且不同年齡段的測試結(jié)果沒有明顯區(qū)別。

3 結(jié)論

(1)為了提高識(shí)別模型的準(zhǔn)確率,將空間變換網(wǎng)絡(luò)引入羊臉痛苦表情識(shí)別中,提出了STVGGNet,該模型先提取羊臉痛苦表情的相關(guān)感官特征區(qū)域,再進(jìn)行分類,降低了復(fù)雜環(huán)境和痛苦表情無關(guān)的面部特征對(duì)識(shí)別效果的影響。

(2)針對(duì)羊臉表情數(shù)據(jù)集不足的問題,收集了887幅羊臉圖像來擴(kuò)充原有的數(shù)據(jù)集,通過SPFES方法將圖像分為841幅正常羊臉圖像和46幅異常羊臉圖像。在羊臉表情數(shù)據(jù)集上使用遷移學(xué)習(xí)和微調(diào)的方法訓(xùn)練STVGGNet,并進(jìn)行了測試。STVGGNet獲得的最佳訓(xùn)練和驗(yàn)證的效果為99.95%和96.06%,比VGGNet分別高0.15、0.99個(gè)百分點(diǎn),并且定量評(píng)估表明,STVGGNet中表現(xiàn)最好的STVGG19相比于VGGNet中表現(xiàn)最好的VGG19,除精確度相同外,召回率和F1值均高于VGG19,STVGG19在實(shí)際應(yīng)用場景中性能更好。對(duì)于不同姿態(tài)和不同年齡段的羊臉圖像均有較好的識(shí)別效果,站姿提取的羊面部表情識(shí)別準(zhǔn)確率略高于臥姿,不同年齡段識(shí)別效果基本無差異。

猜你喜歡
準(zhǔn)確率卷積痛苦
基于全卷積神經(jīng)網(wǎng)絡(luò)的豬背膘厚快速準(zhǔn)確測定
基于圖像處理與卷積神經(jīng)網(wǎng)絡(luò)的零件識(shí)別
一種基于卷積神經(jīng)網(wǎng)絡(luò)的地磁基準(zhǔn)圖構(gòu)建方法
基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
多層螺旋CT技術(shù)診斷急性闌尾炎的效果及準(zhǔn)確率分析
不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
誰痛苦,誰改變
頸椎病患者使用X線平片和CT影像診斷的臨床準(zhǔn)確率比照觀察
分擔(dān)痛苦