□ 文/唐文杰
公安警務(wù)領(lǐng)域視頻圖像偵查關(guān)鍵技術(shù)綜述
□文/唐文杰
隨著視頻聯(lián)網(wǎng)監(jiān)控系統(tǒng)在公安警務(wù)領(lǐng)域的應(yīng)用,實(shí)時(shí)視頻監(jiān)控和歷史視頻調(diào)閱等基本功能為公安人員巡查治安、辦案取證等工作帶來(lái)了很大幫助,同時(shí),視頻監(jiān)控系統(tǒng)的普及也為公安行業(yè)積累了海量的視頻圖像數(shù)據(jù),如果對(duì)這些重要數(shù)據(jù)進(jìn)行智能分析和處理,快速高效的獲得精確警報(bào)或線索,能夠充分發(fā)揮視頻圖像資源的作用,使得公安日常工作和刑事偵查更加快捷高效。然而,視頻圖像數(shù)據(jù)以指數(shù)速度增長(zhǎng),成為具有數(shù)據(jù)容量大(Volume)、數(shù)據(jù)類型繁多(Variety)、數(shù)據(jù)價(jià)值高(Value)、處理速度快(Velocity)4V特性的非結(jié)構(gòu)化大數(shù)據(jù),導(dǎo)致以人工方式從海量視頻圖像中發(fā)現(xiàn)線索非常耗時(shí)耗力,海量視頻資源的高效能應(yīng)用正在成為公安警務(wù)領(lǐng)域案件偵破和治安管控的新要求。
視頻圖像偵查技術(shù)通過(guò)運(yùn)動(dòng)目標(biāo)檢測(cè)、目標(biāo)跟蹤、目標(biāo)分類與識(shí)別、濃縮摘要、行為分析等技術(shù)手段對(duì)視頻圖像數(shù)據(jù)進(jìn)行分析處理,得到結(jié)構(gòu)化的簡(jiǎn)短視頻和語(yǔ)義描述,轉(zhuǎn)化為公安實(shí)戰(zhàn)的重要情報(bào)。通過(guò)對(duì)實(shí)時(shí)視頻進(jìn)行智能行為分析,并與提前設(shè)定好的規(guī)則進(jìn)行比對(duì),比如入侵、絆線、人群聚集等等,及時(shí)獲得異常事件的報(bào)警信息,使得視頻監(jiān)控工作變得高效、準(zhǔn)確及全面;通過(guò)對(duì)涉案視頻進(jìn)行濃縮摘要,自動(dòng)去除視頻中的靜止畫(huà)面,留下有價(jià)值的活動(dòng)目標(biāo)視頻,可以大大縮短辦案人員調(diào)閱歷史視頻的時(shí)間,比如一個(gè)120分鐘的視頻,在濃縮處理后,可能只需要1分鐘就可以快速瀏覽到視頻中所有的活動(dòng)目標(biāo),大大提高了辦案效率,并解決了視頻的海量存儲(chǔ)問(wèn)題,節(jié)約了存儲(chǔ)成本;通過(guò)對(duì)視頻圖像數(shù)據(jù)進(jìn)行結(jié)構(gòu)化,對(duì)檢測(cè)到的活動(dòng)目標(biāo)進(jìn)行分類,檢測(cè)出涉案的行人、車輛及物品,與重點(diǎn)人員庫(kù)、車輛庫(kù)、物品庫(kù)等進(jìn)行專業(yè)的識(shí)別比對(duì),幫助辦案人員迅速發(fā)現(xiàn)重要線索,追捕嫌疑人??傊曨l圖像偵查技術(shù)已成為智能視頻監(jiān)控技術(shù)創(chuàng)新發(fā)展的一個(gè)重要方向,也是公安警務(wù)領(lǐng)域智能信息化的必由之路。
視頻圖像偵查技術(shù)源自于計(jì)算機(jī)視覺(jué)技術(shù)和人工智能技術(shù),目標(biāo)是對(duì)視頻圖像數(shù)據(jù)進(jìn)行多維度的特征提取,進(jìn)而讓計(jì)算機(jī)讀懂視頻圖像的含義,定位跟蹤感興趣的運(yùn)動(dòng)目標(biāo),實(shí)時(shí)分析目標(biāo)行為,并根據(jù)預(yù)定的規(guī)則進(jìn)行處理,實(shí)現(xiàn)異常事件的前期預(yù)防和快速反應(yīng);也可以對(duì)目標(biāo)進(jìn)行分類識(shí)別,將視頻圖像按照人、車、物等線索進(jìn)行關(guān)聯(lián),實(shí)現(xiàn)案事件的后期偵破和高效處理。
視頻圖像偵查技術(shù)在公安警務(wù)場(chǎng)景中的基本應(yīng)用有視頻濃縮摘要和檢索和行為分析預(yù)警,視頻濃縮摘要和檢索包括行人檢測(cè)、車輛檢測(cè)、人臉識(shí)別、車牌識(shí)別、特征檢索等,行為分析預(yù)警包括入侵檢測(cè)、絆線檢測(cè)、人群聚集檢測(cè)、物品丟失檢測(cè)、遺留物檢測(cè)等。公安警務(wù)領(lǐng)域的視頻圖像偵查技術(shù)架構(gòu)如圖1所示,分為三個(gè)階段:
首先,采用圖像增強(qiáng)、背景建模等技術(shù)將實(shí)時(shí)視頻流或歷史視頻中的目標(biāo)與背景分離,并對(duì)目標(biāo)進(jìn)行跟蹤。
然后,對(duì)成功跟蹤的目標(biāo)進(jìn)行分類,便于進(jìn)行識(shí)別。目標(biāo)分類將視頻檢測(cè)的運(yùn)動(dòng)目標(biāo)分類為事先定義好的類別,實(shí)質(zhì)上是提取目標(biāo)的結(jié)構(gòu)和語(yǔ)義特征,與類別特征進(jìn)行映射,類別為從語(yǔ)義意義上選取的典型物體,目前在公安警務(wù)領(lǐng)域典型物體一般分為行人、車輛、人騎車三類,然后對(duì)這三類物體形態(tài)進(jìn)行識(shí)別。
最后,在目標(biāo)檢測(cè)跟蹤、分類識(shí)別的基礎(chǔ)上,對(duì)目標(biāo)進(jìn)行進(jìn)一步的應(yīng)用,可以進(jìn)行壓縮拼接,形成摘要視頻,便于后續(xù)檢索,或者對(duì)目標(biāo)的行為進(jìn)行判定,如果有符合預(yù)先設(shè)定規(guī)則的行為,則觸發(fā)報(bào)警或進(jìn)一步處理。
▲圖1 公安警務(wù)中圖像視頻偵查技術(shù)架構(gòu)
本文研究公安警務(wù)領(lǐng)域涉及到的視頻偵查關(guān)鍵技術(shù),包括運(yùn)動(dòng)目標(biāo)檢測(cè)、目標(biāo)跟蹤、目標(biāo)分類和識(shí)別、濃縮摘要和行為分析。
運(yùn)動(dòng)目標(biāo)檢測(cè)
公安警務(wù)領(lǐng)域的運(yùn)動(dòng)目標(biāo)檢測(cè)通過(guò)預(yù)處理、背景建模、目標(biāo)分割等流程從視頻或圖像中提取出感興趣的目標(biāo),比如人、車、物等,并確定當(dāng)前目標(biāo)所在畫(huà)面的位置、大小,為后續(xù)的行人識(shí)別、車輛識(shí)別等做準(zhǔn)備。運(yùn)動(dòng)目標(biāo)檢測(cè)是后續(xù)跟蹤識(shí)別等算法的基礎(chǔ),其準(zhǔn)確率和性能直接影響了后續(xù)算法的效果,根據(jù)處理的對(duì)象不同,運(yùn)動(dòng)目標(biāo)檢測(cè)算法分為基于背景建模的檢測(cè)算法和基于目標(biāo)建模的檢測(cè)算法。
(1)基于背景建模的運(yùn)動(dòng)目標(biāo)檢測(cè)
基于背景建模的運(yùn)動(dòng)目標(biāo)檢測(cè)具有簡(jiǎn)單、速度快、受遮擋影響小等優(yōu)勢(shì),但是背景建模要求背景固定、目標(biāo)運(yùn)動(dòng),因此在要求實(shí)時(shí)性強(qiáng)、攝像機(jī)固定的場(chǎng)景中應(yīng)用廣泛。
基于背景建模的運(yùn)動(dòng)目標(biāo)檢測(cè)首先進(jìn)行背景建模,然后通過(guò)當(dāng)前畫(huà)面與背景圖像的相減即可得到運(yùn)動(dòng)目標(biāo)。但是模型建立后,可能對(duì)場(chǎng)景的變化比如陽(yáng)光、云影、樹(shù)葉、波浪等比較敏感,而良好的背景模型能消除或減少背景動(dòng)態(tài)變化對(duì)于運(yùn)動(dòng)目標(biāo)檢測(cè)帶來(lái)的影響。目前有很多研究致力于背景建模與維護(hù),如卡爾曼濾波建模、均值濾波、中值濾波、最大值最小值濾波、線性濾波、非參數(shù)化模型、近似中值濾波、基于高斯假設(shè)的迭代方法、基于聚類的方法、基于隱馬爾科夫的方法、基于自回歸模型的方法、基于在線學(xué)習(xí)的方法以及基于時(shí)空背景隨機(jī)更新的VIBE方法.其中,混合多高斯背景建模方法是目前普遍應(yīng)用的一種前景提取方法.
(2)基于目標(biāo)建模的運(yùn)動(dòng)目標(biāo)檢測(cè)
相比于基于背景建模的方法,基于目標(biāo)建模的運(yùn)動(dòng)目標(biāo)檢測(cè)能良好的適應(yīng)背景的運(yùn)動(dòng),對(duì)目標(biāo)的運(yùn)動(dòng)狀態(tài)也沒(méi)有要求,但是由于要對(duì)大量訓(xùn)練目標(biāo)進(jìn)行統(tǒng)計(jì)學(xué)習(xí),所以速度相對(duì)較慢,一般適用于對(duì)實(shí)時(shí)性要求不強(qiáng)的應(yīng)用場(chǎng)景。基于目標(biāo)建模的運(yùn)動(dòng)目標(biāo)檢測(cè)一般采用滑動(dòng)窗口的策略,掃描每個(gè)滑動(dòng)窗口的圖像,根據(jù)模型判定圖像是目標(biāo)還是背景,目標(biāo)檢測(cè)的效果取決于模型的魯棒性。根據(jù)建模的方法不同,基于滑動(dòng)窗口的目標(biāo)檢測(cè)主要分為剛性全局模板檢測(cè)模型、基于視覺(jué)詞典的檢測(cè)模型、基于部件的檢測(cè)模型和深度學(xué)習(xí)模型,其他模型中有語(yǔ)法模型以及生物啟發(fā)特征模型等。其中剛性全局模板檢測(cè)模型中的梯度方向直方圖特征,成為近年以來(lái)最有影響力和最為成功的特征之一,而基于深度學(xué)習(xí)的目標(biāo)檢測(cè)模型正在成為研究的熱點(diǎn)。
目標(biāo)跟蹤
公安警務(wù)領(lǐng)域的目標(biāo)跟蹤主要是跟蹤感興趣的行人、車輛、物品等目標(biāo),獲得目標(biāo)的前景動(dòng)態(tài)信息,如時(shí)間、位置、運(yùn)動(dòng)軌跡、方向等等,本質(zhì)上是在連續(xù)視頻之間建立基于位置、速度、形狀等特征的對(duì)應(yīng)匹配,目的是在連續(xù)視頻圖像的幀之間建立目標(biāo)的對(duì)應(yīng)關(guān)系,便于后續(xù)對(duì)目標(biāo)進(jìn)行辨認(rèn)。目標(biāo)跟蹤是視頻圖像偵查中最關(guān)鍵的過(guò)程,是后續(xù)分類、識(shí)別、壓縮及分析的重要前提。公安警務(wù)領(lǐng)域目標(biāo)跟蹤多為單場(chǎng)景單目標(biāo)或單場(chǎng)景多目標(biāo)跟蹤,單場(chǎng)景單目標(biāo)跟蹤是指對(duì)同一個(gè)攝像機(jī)拍攝的單一視頻場(chǎng)景中指定的某一個(gè)目標(biāo)進(jìn)行連續(xù)跟蹤,單場(chǎng)景多目標(biāo)跟蹤相對(duì)復(fù)雜,是指對(duì)同一個(gè)攝像機(jī)拍攝的單一視頻場(chǎng)景中多個(gè)目標(biāo)進(jìn)行跟蹤。
單目標(biāo)跟蹤主要有基于點(diǎn)的跟蹤、基于核或面的跟蹤、基于主動(dòng)輪廓的跟蹤以及基于模型的跟蹤,其中比較常用的方法是預(yù)測(cè)運(yùn)動(dòng)體下一幀可能出現(xiàn)的位置,在其相關(guān)區(qū)域內(nèi)尋找最優(yōu)點(diǎn)。諸多研究成果集中在均值漂移算法,卡爾曼濾波,粒子濾波,粒子濾波改進(jìn)算法。另外也有研究提出基于檢測(cè)的跟蹤,代表性方法有基于在線特征提升的跟蹤算法,基于多示例學(xué)習(xí)的跟蹤方法,利用在線的空時(shí)上下文結(jié)構(gòu)信息來(lái)輔助跟蹤等。
多目標(biāo)跟蹤問(wèn)題更加復(fù)雜,有研究將其描述為一個(gè)候選區(qū)域和已有目標(biāo)軌跡之間的數(shù)據(jù)關(guān)聯(lián)問(wèn)題,代表性方法如多假設(shè)跟蹤器和聯(lián)合概率數(shù)據(jù)關(guān)聯(lián)濾波,也有一些研究將跟蹤問(wèn)題看成是貝葉斯?fàn)顟B(tài)空間推斷問(wèn)題,如貝葉斯多目標(biāo)跟蹤器。目前的多目標(biāo)跟蹤算法普遍計(jì)算效率不高,如何考慮目標(biāo)間的交互,并且提高多目標(biāo)跟蹤的效率是一個(gè)值得研究的問(wèn)題。
目標(biāo)分類與識(shí)別
公安警務(wù)領(lǐng)域的目標(biāo)分類與識(shí)別目的是對(duì)跟蹤到的目標(biāo)進(jìn)行辨識(shí),比如識(shí)別到車輛的顏色、車牌號(hào)、車型車款、車飾物等特征,便于車輛布控、車輛違規(guī)檢測(cè)等工作的進(jìn)一步執(zhí)行。目標(biāo)分類與識(shí)別技術(shù)首先利用大量的目標(biāo)樣本對(duì)系統(tǒng)進(jìn)行模型訓(xùn)練,學(xué)習(xí)出不同目標(biāo)的特征,然后在這些模型上驗(yàn)證新的樣本是否匹配。
一般將視頻圖像中的目標(biāo)特征分為底層特征和高層語(yǔ)義特征,底層特征包括全局特征、局部特征、結(jié)構(gòu)特征等,其中全局特征又細(xì)分為顏色特征、形狀特征、紋理特征等,局部特征包括SIFT特征、SURF特征等;高層語(yǔ)義特征是指以底層特征為基礎(chǔ),在語(yǔ)義模型上識(shí)別出的更高層次的特征,比如行為特征即為語(yǔ)義特征。本節(jié)重點(diǎn)闡述面向目標(biāo)底層特征的分類與識(shí)別,在公安警務(wù)領(lǐng)域,目標(biāo)底層特征包括行人衣著顏色、頭發(fā)顏色、車輛顏色、車牌號(hào)等等。
目標(biāo)分類與識(shí)別是視頻圖像偵查技術(shù)應(yīng)用的重要環(huán)節(jié),也是最具有挑戰(zhàn)性的環(huán)節(jié)。好的目標(biāo)分類與識(shí)別算法對(duì)模型的要求非常高,目前研究和應(yīng)用較多的是相似度模型和深度學(xué)習(xí)模型。
(1)相似度模型
相似度模型首先將目標(biāo)對(duì)象進(jìn)行特征表示,即特征編碼,然后根據(jù)一定的相似度計(jì)算方法計(jì)算特征集合之間的相似關(guān)系。其中,特征編碼密集提取的底層特征中包含了大量的冗余與噪聲,為提高特征表達(dá)的魯棒性,需要使用一種特征變換算法對(duì)底層特征進(jìn)行編碼,從而獲得更具區(qū)分性、更加魯棒的特征表達(dá),這一步對(duì)目標(biāo)識(shí)別的性能具有至關(guān)重要的作用。因而,大量的研究工作都集中在尋找更加強(qiáng)大的特征編碼方法上,重要的特征編碼算法包括向量量化編碼、核詞典編碼、稀疏編碼、局部線性約束編碼、顯著性編碼、Fisher向量編碼、超向量編碼等;相似度度計(jì)算主要包括向量空間模型、基于哈希的相似度計(jì)算以及基于主題的相似度計(jì)算。
(2)深度學(xué)習(xí)模型
經(jīng)研究,人腦之所以能迅速看懂輸入的視頻圖像,是視網(wǎng)膜上的圖像映射經(jīng)過(guò)層層神經(jīng)元的提取和計(jì)算,每個(gè)層次都降低前一個(gè)層次處理的數(shù)據(jù)量,并且保留物體有用的結(jié)構(gòu)信息。為了讓計(jì)算機(jī)也具有類似人類感知系統(tǒng)能夠更深入理解視頻圖像的能力,需要構(gòu)建多層非線性處理組成的模型,即深度結(jié)構(gòu)。從最早提出的含多個(gè)隱藏層的多層神經(jīng)網(wǎng)絡(luò)以及向后傳播訓(xùn)練算法,對(duì)深度學(xué)習(xí)模型的研究從未間斷,應(yīng)用較好的有卷積神經(jīng)網(wǎng)絡(luò),Sigmoid信度網(wǎng),深度信度網(wǎng),以及深度信度網(wǎng)的變種,比如深度玻爾茲曼機(jī)、深度自動(dòng)編碼機(jī)以及深度神經(jīng)網(wǎng)絡(luò)等等。其中,深度卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別應(yīng)用上取得了較好的效果,盡管用監(jiān)督學(xué)習(xí)的方式直接訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)非常困難,但是卷積神經(jīng)網(wǎng)絡(luò)卻成為了一個(gè)例外,相比傳統(tǒng)的多層神經(jīng)網(wǎng)絡(luò)和相應(yīng)的向后傳播學(xué)習(xí)算法,卷積神經(jīng)網(wǎng)絡(luò)可以更容易的從非線性空間找到最優(yōu)點(diǎn)。深度學(xué)習(xí)模型是目前目標(biāo)分類與識(shí)別中最準(zhǔn)確的方法。
濃縮摘要
公安人員在辦案過(guò)程中往往需要觀看與案發(fā)時(shí)間、地點(diǎn)等相關(guān)的所有視頻,傳統(tǒng)方式下,24小時(shí)的視頻要花費(fèi)同樣24小時(shí)才能查閱完畢,而且可能發(fā)生遺漏,視頻濃縮摘要大大改善了這種工作模式,提高了視頻查證的效率和全面性。視頻濃縮摘要是指從原始視頻中提取有用的前景目標(biāo)的活動(dòng)信息,然后和背景視頻合成剪輯而成較短的視頻片斷,其中包含了原始視頻中所有重要的活動(dòng)目標(biāo)和快照,視頻濃縮摘要通常分為基于靜態(tài)關(guān)鍵幀的方法和動(dòng)態(tài)的視頻縮略方法。
(1)基于靜態(tài)關(guān)鍵幀的方法
關(guān)鍵幀是能夠反映視頻主要信息的圖像幀,關(guān)鍵幀序列可組成故事板,它以簡(jiǎn)潔的形式反映了視頻的主要內(nèi)容。目前視頻關(guān)鍵幀的提取方法主要有基于顏色直方圖的方法,基于顏色熵的方法,基于運(yùn)動(dòng)活動(dòng)性的方法,基于宏塊統(tǒng)計(jì)特性的方法等等。由于視頻圖像序列的相似性很強(qiáng),存在很多冗余,因此現(xiàn)有的關(guān)鍵幀算法大多是基于鏡頭來(lái)進(jìn)行的。
(2)動(dòng)態(tài)視頻縮略方法
動(dòng)態(tài)的視頻縮略可以看作是原始視頻的一種特殊編輯,它保留了視頻的主要內(nèi)容和時(shí)間推進(jìn)線索。目前研究者提出了很多視頻縮略算法,有基于聚類的方法,比如基于鏡頭序列或圖像色彩的相似性分析,光流法,擬合法等等;還有基于模型的方法,比如EDU模型,CPR模型,時(shí)空運(yùn)動(dòng)模型,馬爾科夫模型等等;基于語(yǔ)義的方法是根據(jù)高層語(yǔ)義概念特征對(duì)視頻進(jìn)行切分和提取。
行為識(shí)別
行為分析技術(shù)可以實(shí)時(shí)發(fā)現(xiàn)視頻流中的異常行為,比如闖入電子圍欄、打架斗毆、闖紅燈等等,并及時(shí)處置,極大的改善了公安監(jiān)控人員的日常監(jiān)控工作,將公安監(jiān)控人員從“死盯屏幕”的工作狀態(tài)中解脫出來(lái)。行為分析技術(shù)分為模板匹配法和狀態(tài)空間法。
(1)模板匹配法
模板匹配法將從輸入視頻圖像序列提取的特征與在訓(xùn)練階段預(yù)先保存好的模板進(jìn)行相似度對(duì)比,行為分析的結(jié)果即為與測(cè)試序列距離最小的已知模板的類別。常用描述行為的模板有運(yùn)動(dòng)能量圖像,運(yùn)動(dòng)歷史圖像等,后續(xù)的相似度匹配常采用最近鄰方法、馬氏距離計(jì)算法等等,另外,也有研究提出基于動(dòng)態(tài)時(shí)間規(guī)整的模板匹配法。模板匹配法計(jì)算復(fù)雜度低、實(shí)現(xiàn)簡(jiǎn)單,但對(duì)噪聲和運(yùn)動(dòng)時(shí)間間隔的變化比較敏感。
(2)狀態(tài)空間法
狀態(tài)空間法,又叫概率轉(zhuǎn)移法,該方法將行為的每一個(gè)姿態(tài)或運(yùn)動(dòng)狀態(tài)作為狀態(tài)圖的一個(gè)節(jié)點(diǎn),通過(guò)某種概率將對(duì)應(yīng)于各個(gè)姿勢(shì)或狀態(tài)節(jié)點(diǎn)之間的依存關(guān)系聯(lián)系起來(lái),這樣任何人體行為運(yùn)動(dòng)序列可以看作在圖中若干節(jié)點(diǎn)或狀態(tài)之間的一次遍歷過(guò)程。應(yīng)用較為廣泛的狀態(tài)空間模型為隱馬爾可夫模型和動(dòng)態(tài)貝葉斯網(wǎng)絡(luò),多為這兩類模型的改進(jìn)版,比如耦合隱馬爾可夫模型,可變長(zhǎng)馬爾可夫模型;抽象隱馬爾可夫模型;基于典型樣本的隱馬爾可夫模型;此外,熵隱馬爾可夫模型、分層隱馬爾可夫模型、最大熵馬爾可夫模型等也被用于復(fù)雜行為識(shí)別。貝葉斯網(wǎng)絡(luò)模型有基元?jiǎng)討B(tài)貝葉斯網(wǎng)絡(luò),分級(jí)貝葉斯網(wǎng)絡(luò),含有多層狀態(tài)的分層且?guī)яv留時(shí)間狀態(tài)的動(dòng)態(tài)貝葉斯網(wǎng)絡(luò),此外還用神經(jīng)網(wǎng)絡(luò)、條件隨機(jī)場(chǎng)、有限狀態(tài)機(jī)、置信網(wǎng)絡(luò)等方法來(lái)識(shí)別人體行為。
隨著視頻圖像分析在公安警務(wù)領(lǐng)域的普遍應(yīng)用,視頻圖像偵查已成為繼刑偵、技偵、網(wǎng)偵之后的第四大偵查技術(shù),所以提高視頻圖像偵查技術(shù)的準(zhǔn)確度和速度已成為公安部門(mén)的迫切需求。本文總結(jié)描述了公安警務(wù)領(lǐng)域視頻圖像偵查關(guān)鍵技術(shù)的架構(gòu)以及具體技術(shù)的相關(guān)算法,如運(yùn)動(dòng)目標(biāo)檢測(cè)、目標(biāo)跟蹤、目標(biāo)分類和識(shí)別、濃縮摘要和行為分析。值得一提的是,深度學(xué)習(xí)模型在視頻圖像偵查中的應(yīng)用非常值得期待,如何在大數(shù)據(jù)等高新技術(shù)的幫助下,使得深度復(fù)雜模型在保證準(zhǔn)確率的前提下,提高計(jì)算效率成為新的研究方向。
作者單位:中國(guó)電子進(jìn)出口總公司