李春偉 于洪濤 李邵梅 卜佑軍
?
一種基于可變形部件模型的快速對(duì)象檢測(cè)算法
李春偉*于洪濤 李邵梅 卜佑軍
(國(guó)家數(shù)字交換系統(tǒng)工程技術(shù)研究中心 鄭州 450002)
為了解決可變形部件模型檢測(cè)過(guò)程中的速度瓶頸問(wèn)題,該文針對(duì)模型的檢測(cè)流程,提出一種結(jié)合快速特征金字塔計(jì)算的級(jí)聯(lián)可變形部件模型。由于模型的檢測(cè)速度主要取決于特征計(jì)算以及對(duì)象定位這兩個(gè)過(guò)程,提出一種兩階段的加速算法:首先采用尺度上稀疏采樣的特征金字塔來(lái)近似表示精細(xì)采樣的多尺度圖像特征,以加快特征計(jì)算過(guò)程;然后在定位過(guò)程中結(jié)合級(jí)聯(lián)算法,以一個(gè)序列模型順序地評(píng)估各個(gè)部件,從而快速剪除大部分可能性較小的對(duì)象假設(shè),以加快對(duì)象定位過(guò)程。在PASCAL VOC 2007和INRIA數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,該算法可以明顯加快檢測(cè)速度,而檢測(cè)精度僅略有下降。
快速對(duì)象檢測(cè);可變形部件模型;特征計(jì)算;級(jí)聯(lián)檢測(cè)
對(duì)象檢測(cè)技術(shù)是計(jì)算機(jī)視覺(jué)的關(guān)鍵技術(shù)和研究熱點(diǎn)之一??勺冃尾考P蚚1](Deformable Part Model, DPM)作為現(xiàn)今最流行的對(duì)象檢測(cè)算法之一,在對(duì)象檢測(cè)領(lǐng)域著名的PASCAL VOC競(jìng)賽中多次取得優(yōu)異的成績(jī),目前已經(jīng)擴(kuò)展應(yīng)用到人體姿態(tài)估計(jì)[2],行人檢測(cè)[3],人臉檢測(cè)[4],以及智能交通[5]等諸多領(lǐng)域。但是DPM模型中涉及的梯度方向直方圖[6](Histogram of Oriented Gradient, HOG)特征金字塔的提取和對(duì)象定位兩部分的運(yùn)算量都較大,導(dǎo)致在單機(jī)上處理單張PASCAL數(shù)據(jù)集中的圖像時(shí),運(yùn)行時(shí)間在10 s左右,無(wú)法滿(mǎn)足實(shí)際應(yīng)用需求。為此,近年來(lái)研究學(xué)者針對(duì)DPM的加速問(wèn)題開(kāi)展了系列研究。現(xiàn)有的DPM模型加速研究主要集中在以下兩個(gè)方面:
單類(lèi)別加速算法:主要關(guān)注于單個(gè)類(lèi)別檢測(cè)中DPM模型的加速效果。文獻(xiàn)[7,8]通過(guò)較早地剪除無(wú)望的對(duì)象假設(shè)來(lái)減少計(jì)算量,前者根據(jù)部件濾波器的得分,使用中間閾值來(lái)剪除得分較低的部件假設(shè)。但是需要專(zhuān)門(mén)的確認(rèn)數(shù)據(jù)集來(lái)訓(xùn)練中間閾值。后者通過(guò)使用多分辨率的層次部件模型,逐次對(duì)目標(biāo)假設(shè)進(jìn)行判斷,但是其對(duì)于檢測(cè)精度有一定的影響。文獻(xiàn)[9]采用一種類(lèi)似于文獻(xiàn)[7]中的加速策略,通過(guò)一種積極的部件選擇策略?xún)?yōu)化了濾波器評(píng)估的順序。文獻(xiàn)[10]在所有可能的圖像區(qū)域上搜索全局最優(yōu)的分類(lèi)結(jié)果,然而該方法使用最大響應(yīng)的上確界進(jìn)行搜索窗口的裁剪操作,其有效性極大地依賴(lài)于邊界的健壯性。文獻(xiàn)[11]采用GPU實(shí)現(xiàn)并行計(jì)算,但是對(duì)計(jì)算機(jī)硬件提出了較高的要求;文獻(xiàn)[12]使用快速傅里葉變換來(lái)加速檢測(cè)過(guò)程中卷積計(jì)算過(guò)程。文獻(xiàn)[13]通過(guò)多種加速方法間的組合來(lái)構(gòu)建完整的加速策略。
多類(lèi)別加速算法:文獻(xiàn)[14]使用大量部件集合中的稀疏線(xiàn)性組合來(lái)對(duì)可變形部件進(jìn)行編碼,以此來(lái)壓縮模型中所使用的有效部件數(shù);文獻(xiàn)[15]使用少量基本的部件集合的線(xiàn)性組合來(lái)近似表示模板中視角、形變、尺度等方面的變化。類(lèi)似的方法在文獻(xiàn)[16]中也進(jìn)行了相關(guān)研究。這兩種方法都是通過(guò)學(xué)習(xí)得到一組共享的基元部件,來(lái)獲取類(lèi)別層次的檢測(cè)效果。文獻(xiàn)[17]提出了基于局部敏感的哈希算法來(lái)近似DPM中的卷積計(jì)算,處理的對(duì)象類(lèi)別達(dá)到了100000種,但是對(duì)于檢測(cè)精度的影響較大。
綜上,可以看出已有研究中主要關(guān)注對(duì)象定位加速,并且取得了一些成果,但是對(duì)于特征計(jì)算加速關(guān)注較少。所以想要進(jìn)一步提高DPM模型的處理速度,就不得不考慮特征計(jì)算部分的加速問(wèn)題。由此,本文提出了一種針對(duì)可變形部件模型的兩階段加速算法:首先,采用尺度上稀疏采樣的特征金字塔近似表示精細(xì)采樣的多尺度特征金字塔,以此來(lái)加快特征計(jì)算過(guò)程;然后,采用級(jí)聯(lián)算法來(lái)加速對(duì)象定位過(guò)程。為了便于敘述,后續(xù)將本文提出的方法稱(chēng)之為結(jié)合快速特征金字塔的級(jí)聯(lián)可變形部件模型(Cascade Deformable Part Model with Fast feature pyramid, FCDPM)。
在基于多尺度特征金字塔的滑動(dòng)窗口模型中為了解決模板尺寸與對(duì)象尺寸不一致的問(wèn)題,需要對(duì)目標(biāo)圖像多次進(jìn)行下采樣得到不同尺度下的圖像,然后再在逐個(gè)尺度的圖像上逐個(gè)位置上計(jì)算圖像特征,從而生成精細(xì)的特征金字塔,該方法得到的特征精度高,但是相應(yīng)的時(shí)間開(kāi)銷(xiāo)也較大。已有研究人員對(duì)特征金字塔進(jìn)行研究,發(fā)現(xiàn)多尺度金字塔尺度間的特征存在一定的關(guān)系,且滿(mǎn)足冪指定律[18,19]。由此,本文提出在特征金字塔的計(jì)算過(guò)程中,利用多尺度特征中的冪指定律有選擇地計(jì)算部分尺度圖像的特征,然后基于這些尺度圖像的特征對(duì)臨近尺度圖像的特征進(jìn)行近似計(jì)算,從而減少特征計(jì)算的運(yùn)算量。
2.1 多尺度特征間的冪指定律
為了便于描述,本節(jié)先簡(jiǎn)要介紹一下多尺度圖像間的冪指定律。對(duì)于給定的輸入圖像,定義其對(duì)應(yīng)的通道特征為圖像像素的某種線(xiàn)性或是非線(xiàn)性變換的輸出響應(yīng):。其中表示某種計(jì)算函數(shù),表示輸出響應(yīng)。定義為的權(quán)值加和:,為圖像在尺度上的重采樣圖像,其中的維數(shù)是圖像維數(shù)的倍。那么就被定義為
2.2基于冪指定律的尺度間HOG特征近似計(jì)算
本節(jié)將上述定律應(yīng)用到DPM模型中的HOG特征計(jì)算中。在傳統(tǒng)DPM模型中,計(jì)算尺度圖像的特征的方法為,其中表示采樣函數(shù),即需要首先將圖像縮放至尺度,然后再計(jì)算圖像的HOG特征。根據(jù)上述定律,和之間存在對(duì)應(yīng)關(guān)系,為此在已知原始尺寸圖像的特征的情況下,可以根據(jù)其對(duì)進(jìn)行近似計(jì)算,從而提高特征計(jì)算的速度。
2.3 基于冪指定律的HOG特征金字塔計(jì)算
3.1 可變形部件模型中對(duì)象定位流程
本節(jié)首先簡(jiǎn)要介紹可變形部件模型中對(duì)象定位的處理流程。DPM模型為一個(gè)兩層模型,其中根濾波器用于檢測(cè)對(duì)象的整體輪廓,個(gè)部件相對(duì)于根濾波器允許有一定的位移,用于描述目標(biāo)對(duì)象的細(xì)節(jié)特征及其位置偏移導(dǎo)致的形變特征,從而模型在處理大尺度外觀變化時(shí)有優(yōu)勢(shì)。第個(gè)部件由濾波器以及形變模型進(jìn)行參數(shù)化表示。一個(gè)對(duì)象假設(shè)由進(jìn)行定義。其中表示根濾波器的位置,表示第個(gè)部件的位置。根濾波器以及部件濾波器之間通過(guò)圖結(jié)構(gòu)模型進(jìn)行連接,形變模型用于描述兩者之間的形變特征。為了檢測(cè)出圖像中目標(biāo)對(duì)象的位置,在每一個(gè)根位置上根據(jù)最有可能的部件配置來(lái)計(jì)算對(duì)象假設(shè)的整體得分:
3.2結(jié)合級(jí)聯(lián)的快速對(duì)象定位
從上述描述中可以看出,基于計(jì)算出的多尺度HOG特征,在DPM模型的對(duì)象定位過(guò)程中,需要逐尺度層采用滑窗搜索進(jìn)行匹配檢測(cè)。但是,事實(shí)上對(duì)象通常僅出現(xiàn)在圖像場(chǎng)景中的有限位置,圖像尺度空間上的絕大部分窗口對(duì)于視覺(jué)對(duì)象檢測(cè)而言是無(wú)效的,如果在每個(gè)尺度、每個(gè)位置都進(jìn)行完整的匹配操作,這就導(dǎo)致了計(jì)算復(fù)雜度的增加。由此提出在對(duì)象定位過(guò)程中結(jié)合級(jí)聯(lián)檢測(cè),迅速減除大部分可能性較小的對(duì)象假設(shè),以此來(lái)提高定位過(guò)程的速度。
首先對(duì)原模型中部件進(jìn)行排序來(lái)構(gòu)建層次結(jié)構(gòu)的新模型。在擁有個(gè)部件(其中包括根濾波器)的DPM模型中,采用一個(gè)全局閾值和個(gè)中間閾值的序列,從而得到一個(gè)長(zhǎng)度為的序列模型。在計(jì)算匹配得分時(shí),部件得分是按照一定的次序逐個(gè)匹配,在計(jì)算每一個(gè)部件表現(xiàn)得分以及相應(yīng)的變形開(kāi)銷(xiāo)時(shí)都要與中間閾值進(jìn)行判別,如果小于預(yù)設(shè)的中間閾值,相應(yīng)的目標(biāo)假設(shè)就被剪除。
表1 FCDPM算法
圖1 FCDPM算法的示例
5.1實(shí)驗(yàn)準(zhǔn)備
為了評(píng)估所提算法的性能,本文采用平均精度(Average Precision, AP)值作為評(píng)價(jià)指標(biāo),分別在PASCAL VOC 2007數(shù)據(jù)集以及INRIA數(shù)據(jù)集上進(jìn)行了測(cè)試,并且與初始的DPM模型以及相關(guān)算法進(jìn)行了比較,AP值定義如下:
5.2 在PASCAL VOC 2007數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果
PASCAL VOC 2007是一個(gè)通用的對(duì)象檢測(cè)數(shù)據(jù)集,其測(cè)試集中包含20種類(lèi)別的圖像,共有4952張測(cè)試圖片以及14976個(gè)人工標(biāo)注的目標(biāo)對(duì)象。通過(guò)上面的敘述,設(shè)為在特征金字塔計(jì)算中,由每一個(gè)基準(zhǔn)尺度所外推計(jì)算的尺度數(shù),當(dāng)時(shí),即表示精細(xì)采樣的特征金子塔。的取值會(huì)影響特征金字塔的計(jì)算速度,取值越大,計(jì)算速度越快,但是這也會(huì)在一定程度上影響特征金字塔的計(jì)算精度,首先討論了不同的取值對(duì)于AP值以及相對(duì)于DPM模型檢測(cè)速度的影響,相應(yīng)的結(jié)果如圖2所示。
表2比較了FCDPM算法,與初始的DPM模型以及若干種加速算法,其中包括CSC算法[7],CF算法[8],BB算法[10],在PASCAL2007數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果,其中FCDPM旁的數(shù)字表示的取值。每一種算法在20種類(lèi)別檢測(cè)過(guò)程中的平均特征計(jì)算時(shí)間、對(duì)象定位時(shí)間以及完整檢測(cè)時(shí)間如表3所示。
從表3可以發(fā)現(xiàn),CSC算法、CF算法、BB算法相比于初始的DPM模型在PASCAL2007數(shù)據(jù)集上取得了10倍左右的加速效果,本文算法與之相比,可以3倍快于這些改進(jìn)算法,但是平均的AP值有一定的下降(特別是與CSC算法相比較)。即當(dāng)時(shí),可以取得最快的加速效果,相應(yīng)的精度下降也最多,但是與CF算法和BB算法相比,綜合考慮精度以及速度,具有較大的優(yōu)勢(shì);而且可以通過(guò)調(diào)整這一參數(shù),從而在檢測(cè)精度和速度之間取得一定的平衡。當(dāng)時(shí),平均的AP值為31.3%,當(dāng)時(shí),平均的AP值上升到32.4%,此時(shí)與CSC算法僅相差0.4%,檢測(cè)速度為CSC算法的1.6倍。
5.3在INRIA數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果
INRIA數(shù)據(jù)集是一個(gè)常用的行人檢測(cè)數(shù)據(jù)集,其中包含614幅圖像,共有1237個(gè)正樣本和1218個(gè)負(fù)樣本。表4說(shuō)明了上述算法在該數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果。在數(shù)據(jù)集中的運(yùn)行時(shí)間的比較如表5所示。從中可以發(fā)現(xiàn)改進(jìn)算法在行人檢測(cè)這一領(lǐng)域也取得了在PASCAL對(duì)象檢測(cè)數(shù)據(jù)集中相似的檢測(cè)結(jié)果。FCDPM算法在該數(shù)據(jù)集上最快可以取得將近32倍的加速效果。當(dāng)時(shí),可以取得與CSC算法相接近的AP值,但是檢測(cè)速度為CSC算法的兩倍。從而驗(yàn)證本文算法在行人檢測(cè)領(lǐng)域也是適用的。
圖2 nApp的取值對(duì)于檢測(cè)速度以及精度的影響
表2不同算法在PASCAL2007數(shù)據(jù)集中20個(gè)類(lèi)別的AP值結(jié)果(%)
算法AeroBicycleBirdBoatBottleBusCarCatChairCow DPM32.159.910.613.524.947.748.927.517.427.0 CSC[7]33.658.510.213.425.044.749.228.017.127.2 CF[8]27.658.610.510.616.552.742.127.612.929.1 BB[10]30.653.9 8.710.422.543.238.917.513.522.6 FCDPM935.957.6 8.411.826.944.348.118.014.722.8 FCDPM535.558.610.211.627.446.550.619.416.423.4 FCDPM137.059.610.311.227.444.350.820.617.923.0 DogHorseMbikePersonPlantSheepSofaTableTrainTv平均 14.457.450.038.413.321.036.831.147.542.333.0 13.557.750.038.514.121.636.828.647.442.032.8 15.355.244.626.312.422.738.632.844.832.230.6 9.055.747.227.411.117.128.323.344.538.428.2 8.755.346.033.313.319.229.525.944.536.530.0 9.953.247.036.615.022.832.426.843.138.831.3 11.657.950.839.015.223.534.426.047.041.632.4
針對(duì)可變形部件模型的檢測(cè)流程,為了加速模型的檢測(cè)速度,本文提出了一種兩階段的加速算法,分別采用特征計(jì)算中尺度間的冪指定律以及級(jí)聯(lián)算法加速特征計(jì)算以及對(duì)象定位過(guò)程,從而顯著地提高模型的檢測(cè)速度。下一步的工作集中在加速檢測(cè)過(guò)程中的卷積計(jì)算,這與之前的工作[8,11]是互補(bǔ)的,相結(jié)合預(yù)期可以得到顯著的加速效果;還可以與目前流行的對(duì)象建議算法[20]相結(jié)合,以進(jìn)一步提升算法的檢測(cè)速度。
表3在PASCAL2007數(shù)據(jù)集中的平均運(yùn)行時(shí)間(s)
算法特征計(jì)算對(duì)象定位運(yùn)行時(shí)間之和加速倍數(shù) DPM0.3769.1979.573 1.00 CSC[7]0.3760.4390.81511.74 CF[8]0.5480.4380.986 9.71 BB[10]0.3761.2871.663 5.53 FCDPM90.0900.2510.34128.10 FCDPM50.1100.2750.38524.87 FCDPM10.1930.3180.51118.73
表4不同算法在INRIA數(shù)據(jù)集上的AP值(%)
算法DPMCSCCFBBFCDPM9FCDPM5FCDPM1 AP值88.788.683.685.583.986.687.7
表5在INRIA數(shù)據(jù)集中的平均運(yùn)行時(shí)間(s)
算法特征計(jì)算對(duì)象定位運(yùn)行時(shí)間之和加速倍數(shù) DPM0.76614.42515.1911.00 CSC0.766 0.670 1.44110.54 CF1.242 0.445 1.687 9.00 BB0.766 1.477 2.243 6.77 FCDPM90.157 0.323 0.48031.65 FCDPM50.212 0.354 0.56626.84 FCDPM10.326 0.443 0.76919.75
[1] FELZENSZWALB P, GIRSHICK R, MCALLESTER D,. Object detection with discriminatively trained part based models[J]., 2010, 32(9): 1627-1645. doi: 10.1109/TPAMI.2009.167.
[2] YAO Benjamin, NIE Bruce, LIU Zicheng,. Animated pose templates for modeling and detecting human actions[J]., 2014, 36(3): 436-452. doi:10.1109/TPAMI. 2013.144.
[3] WEN Jia, WANG Xueping, KONG Lingfu,. Using weighted part model for pedestrian detection in crowded scenes based on image segmentation[J]., India Section A: Physical Scienes 2016, 86(1): 125-136. doi: 10.1007/s40010-015- 0231-3.
[4] OROZCO J, MARTINEZ B, and PANTIC M. Empirical analysis of cascade deformable models for multi-view face detection[J]., 2015, 42(1): 47-61. doi: 10.1016/j.imavis.2015.07.002.
[5] OHNBAR E and TRIVEDI M M. Learning to detect vehicles by clustering appearance patterns[J]., 2015, 16(5): 2511-2521. doi: 10.1109/TITS.2015.2409889.
[6] DALAL N and TRIGGS B. Histograms of oriented gradients for human detection[C]. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, San Diego, USA, 2005: 886-893.doi: 10.1109/ CVPR.2005.177.
[7] FELZENSZWALB P, GIRSHICK R, and MCALLESTER D. Cascade object detection with deformable part models[C]. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, San Francisco, USA, 2010: 2241-2248. doi:10.1109/CVPR.2010.5539906.
[8] PEDERSOLI M, VEDALDI A, GONZALEZ J,. A coarse-to-fine approach for fast deformable object detection[J]., 2015, 48(7): 1844-1853. doi: 10.1016/j.patcog.2014.11.006.
[9] ZHU Menglong, ATANASOV N, PAPPAS G J,. Active deformable part models inference[C]. Proceedings of the 13th European Conference on Computer Vision, Zurich, Switzerland, 2014: 281-296. doi: 10.1007/978-3-319- 10584-0_19.
[10] KOKKINOS I. Bounding part scores for rapid detection with deformable part models[C]. Proceedings of the 12th European Conference on Computer Vision, Firenze, Italy, 2012: 41-50. doi: 10.1007/978-3-642-33885-4_5.
[11] LIU Qi, HUANG Zi, and HU Fuqiao. Accelerating convolution-based detection model on GPU[C]. Proceedings of the IEEE Estimation, Detection and Information Fusion, Harbin, China, 2015: 61-66. doi: 10.1109/ICEDIF.2015. 7280163.
[12] DUBOUT C and FLEURET F. Exact acceleration of linear object detectors[C]. Proceedings of the 12th European Conference on Computer Vision, Firenze, Italy, 2012: 301-311. doi: 10.1007/978-3-642-33712-3_22.
[13] YAN Junjie, LEI Zhen, WEN Longyin,. The fastest deformable part model for object detection[C]. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition,Columbus, USA, 2014: 2497-2504. doi: 10.1109/CVPR.2014.320.
[14] SONG H O, GIRSHICK R, ZICKLER S,. Generalized sparselet models for real-time multiclass object recognition[J]., 2015, 37(5): 1001-1012. doi: 10.1109/TPAMI. 2014.2353631.
[15] PIRSIAVASH H. Steerable part models[C]. Proceedings of the 2012 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Providence, USA, 2012: 3226-3233. doi: 10.1109/CVPR.2012.6248058.
[16] KOKKINOS I. Shufflets: shared mid-level parts for fast object detection[C]. Proceedings of the 14th International Conference on Computer Vision, Sydney, Australia, 2013: 1393-1400. doi: 10.1109/ICCV.2013.176.
[17] DEAN T, RUZON M, SEGAL M,. Fast, accurate detection of 100,000 object classes on a single machine[C]. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Portland, USA, 2013: 1814-1821. doi: 10.1109/CVPR.2013.237.
[18] RUDERM D L. The statistics of natural images[J]., 2009, 5(4): 517-548. doi: 10.1088/0954-898X_5_4_006.
[19] DOLLAR P, APPEL R, BELONGIE S,. Fast feature pyramids for object detection[J]., 2014, 36(8): 1532-1545. doi: 10.1109/TPAMI.2014.2300479.
[20] HOSANG J, BENENSON R, DOLLAR P,. What makes for effective detection proposals?[J]., 2016, 38(4): 814-830. doi: 10.1109/TPAMI.2015.2465908.
Rapid Object Detection Algorithm Based on Deformable Part Models
LI Chunwei YU Hongtao LI Shaomei BU Youjun
(&,450002,)
To solve the speed bottleneck of deformable part models in the detection process, this paper proposes a cascade deformable part model with rapid computation of feature pyramids for the detection process of the model. Because the speed of the detection is mainly determined by the two processes of the feature computation and the object location, a two-stage speedup algorithm is proposed. Firstly, sparsely-sampled feature pyramids on the scale are utilized to approximate finely-sampled multi-scale image features to speed up the process of feature computation. Then combined with the cascade algorithm in the location process, a sequence model is utilized to evaluate individual parts sequentially so as to rapidly prune most object hypotheses of small possibilities in order to speed up the process of object location. The experimental results on PASCAL VOC 2007 dataset and INRIA dataset show that the algorithm in the paper apparently speeds up the speed of detection with minor loss in detection precision.
Rapid object detection; Deformable part model; Feature computation; Cascade detection
TP391.4
A
1009-5896(2016)11-2864-07
10.11999/JEIT160080
2016-01-19;改回日期:2016-06-08;
2016-09-01
李春偉 lichunwei15@126.com
國(guó)家自然科學(xué)基金(61572519, 61521003)
The National Natural Science Foundation of China (61572519, 61521003)
李春偉: 男,1991年生,博士,研究方向?yàn)閳D像處理、計(jì)算機(jī)視覺(jué).
于洪濤: 男,1970年生,研究員,研究方向?yàn)橥ㄐ拧⑿畔⑾到y(tǒng)、社交網(wǎng)絡(luò).
李邵梅: 女,1982年生,講師,研究方向?yàn)橥ㄐ?,信息系統(tǒng)、圖像處理.
卜佑軍: 男,1978年生,講師,研究方向?yàn)橥ㄐ?、信息系統(tǒng).