2016年的春天,AlphaGo戰(zhàn)勝圍棋世界冠軍李世石的消息不脛而走,該事件將人工智能(artificial intelligence,AI)推上了有史以來的最高潮。一時間,各行各業(yè)都在設(shè)法使用人工智能提升產(chǎn)品性能、改善流程。2017年10月,AlphaGo的增強版AlphaGo Zero問世,不同于它的前身,AlphaGo Zero能夠“從零開始”地“自我學(xué)習(xí)”,能夠通過8個小時的訓(xùn)練擊敗李世石版本AlphaGo;通過4個小時的訓(xùn)練擊敗國際象棋程序Stockfish;通過2個小時的訓(xùn)練擊敗將棋程序Elmo。其展現(xiàn)出來的人工智能強大的自我學(xué)習(xí)能力,又一次掀起了人工智能應(yīng)用的熱浪。
1956年,約翰·麥卡錫(John McCarthy)召集了包含馬文·閔斯基(Marvin Minsky,人工智能與認知學(xué)專家)、克勞德·香農(nóng)(Claude Shannon,信息論的創(chuàng)始人)、艾倫·紐厄爾(Allen Newell,計算機科學(xué)家)、赫伯特·西蒙(Herbert Simon,諾貝爾經(jīng)濟學(xué)獎得主)等在內(nèi)的科學(xué)家,在達特茅斯召開了人工智能學(xué)術(shù)討論會。這是人工智能的首次提出,因此學(xué)術(shù)界公認1956年為人工智能元年。從達特茅斯會議召開至今的60多年里,人工智能的發(fā)展猶如過山車一般經(jīng)歷了兩次大起大落,目前正處于第三次的興起當(dāng)中。剛提出人工智能這個概念時,人們對智慧機器的期許極高,對未來前景非??春?,大量的研究經(jīng)費投入人工智能的研究中。但是,由于剛起步,技術(shù)的發(fā)展跟不上人們的期望,再加上戰(zhàn)亂導(dǎo)致經(jīng)費不足,人工智能經(jīng)歷了第一次大起大落。人工智能第二次的興起,是依托于統(tǒng)計模型對數(shù)據(jù)的處理效果,使得AI能夠解決一些諸如識別類的問題。在這個時期,機器學(xué)習(xí)方法,包含決策樹模型、貝葉斯模型、支持向量機(support vector machine,SVM)等的盛行,使人們似乎又看到了人工智能的希望。然而,漸漸地,有人開始發(fā)現(xiàn),基于統(tǒng)計學(xué)模型的方法只適用于一些淺層問題,并且模型的準確性并不會隨訓(xùn)練數(shù)據(jù)量的增加而上升。此外,對一些大數(shù)據(jù)的處理效果也不好,深度問題計算能力不足,更沒有體現(xiàn)出智慧生物應(yīng)有的自我學(xué)習(xí)與強化學(xué)習(xí)能力。因此,人工智能第二次興起的熱情也慢慢淡化。后來,數(shù)據(jù)量的不斷增大和計算機硬件的不斷進步,為人工智能的第三次興起提供了土壤。1997年IBM深藍打敗國際象棋冠軍加里·卡斯帕羅夫(Garry Kasparov)以后,AI開始慢慢復(fù)蘇。2006年,深度神經(jīng)網(wǎng)絡(luò)(deep neural network,DNN)在對大量數(shù)據(jù)的處理中取得了顯著效果,成為了深度思考(deep mind)領(lǐng)域研究人員關(guān)注的對象。10年后,AlphaGo驚艷亮相,將AI逐漸推向了前所未有的高度。
深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)同樣經(jīng)歷了兩起兩落,而上一次的衰落主要受限于計算機能力、數(shù)據(jù)量不足以及黑盒子缺少可解釋性。隨著算法的改進、計算能力和數(shù)據(jù)量的大大增加,深度學(xué)習(xí)正處于第三次的興起當(dāng)中。深度學(xué)習(xí)作為機器學(xué)習(xí)的一個分支,在計算機視覺上應(yīng)用能力最好的是卷積神經(jīng)網(wǎng)絡(luò)(convolution neural network,CNN),CNN可以應(yīng)用在諸如對象識別、視頻標注、行為辨識和它們的多種變體上。深度學(xué)習(xí)同樣在聲音、文本和自然語言理解(natural language processing,NLP)等方面意義深遠。
金融作為一個需要極度敏銳嗅覺神經(jīng)和熱點關(guān)注能力的領(lǐng)域,自然“不可放過”科學(xué)技術(shù)的進步所帶來的改革。Fintech一詞最早是由花旗銀行于1993年提出的,為Financial和Technology兩詞的合并。Google搜索指數(shù)顯示,從2015到2016年,F(xiàn)intech的搜索指數(shù)呈爆發(fā)式增長。在對金融數(shù)據(jù)的使用上,DNN模型主要應(yīng)用在衍生品定價、投資組合構(gòu)建、風(fēng)險規(guī)避管理、高頻交易等方面,但是深度學(xué)習(xí)的產(chǎn)品在金融中的運用范圍遠大于此。目前,幾乎所有的科技巨頭公司都在布局金融。
近年來,隨著我國保險行業(yè)穩(wěn)步發(fā)展,財產(chǎn)保險行業(yè)也得以快速發(fā)展。機動車輛保險是目前市場投保最多的險種之一,在財產(chǎn)保險公司的保費中所占的比重超過70%。并且隨著中國經(jīng)濟的發(fā)展,私家車數(shù)量逐年遞增,車險的數(shù)量越來越多,成為眾多財產(chǎn)保險公司爭奪市場份額的重要關(guān)注點。2012—2016年我國汽車保險行業(yè)的保費收入如圖1所示,可以看出保費收入逐年提高。
保險理賠既是保險業(yè)務(wù)處理程序的最后環(huán)節(jié),又是評估其他工作效率的最佳手段,更是保險人履行經(jīng)濟補償和社會管理職能的具體體現(xiàn),是驗證保險公司業(yè)務(wù)質(zhì)量和服務(wù)質(zhì)量最重要的環(huán)節(jié)。車輛定損工作一直是一項專業(yè)技術(shù)性較強的工作,它是整個車險理賠服務(wù)中矛盾最突出的環(huán)節(jié)。目前車輛定損基本依靠人工識別進行,受人員技能影響大,定損偏差大,而且查勘定損人員需要在定損錄入上花費大量時間,影響時效,制約了各種便捷理賠服務(wù)的推出。同時隨著定損工作量的增大,保險公司定損成本也在不斷增大。以中國平安保險(集團)服份有限公司為例,2017年無人傷案件全效時長高達13.4天,其中報案到定損就有6.8天,占整案時長的50%,時效太長,用戶體驗差。如何解決賠付過程中存在的問題對于提升客戶滿意度具有重大意義。
計算機圖像處理技術(shù)近年來受到廣泛關(guān)注,圖像識別處理技術(shù)可以很好地應(yīng)對。車輛定損中存在的時效長、手續(xù)復(fù)雜和人工勘察、審核開支大等問題,為了走在時代的前沿,筆者所在團隊于2016年10月在理賠系統(tǒng)中實現(xiàn)純油漆定損應(yīng)用,并于2017年6月上線配件更換定損應(yīng)用。
智能圖像定損技術(shù)利用深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)技術(shù)及強大的大數(shù)據(jù)挖掘邏輯規(guī)則,通過車損圖片,在風(fēng)險可控的前提下,自動計算損失項目、損失程度和損失價格。該項技術(shù)能夠準確識別95%以上的整車損傷,并且通過建立的循環(huán)圖片數(shù)據(jù)學(xué)習(xí)模型,將生產(chǎn)的數(shù)據(jù)經(jīng)篩選后源源不斷地提供給機器進行學(xué)習(xí),持續(xù)提升準確率?;谥悄荛W賠技術(shù),2017年上半年平安財產(chǎn)保險處理車險理賠案件超過499萬件,客戶凈推薦值(net promoter score,NPS)高達82%,智能攔截風(fēng)險滲漏達30 億元。
圖像識別的研究工作面臨的最大挑戰(zhàn)就是如何對特征進行提取。不像其他數(shù)據(jù),圖像無法通過人工理解提取特征。在深度學(xué)習(xí)之前,大都是借助尺度不變特征變換(scale-invariant feature transform,SIFT)、方向梯度直方圖(histogram of oriented gradient,HOG)等算法,再結(jié)合諸如支持向量機(SVM)的機器學(xué)習(xí)算法對一些分區(qū)性良好的特征進行提取。后來,隨著計算機能力的發(fā)展和深度卷積神經(jīng)網(wǎng)絡(luò)模型CNN的出現(xiàn),越來越多的圖像處理工作由CNN完成。
圖1 2012—2016年我國汽車保險行業(yè)實現(xiàn)保費收入走勢
所謂的卷積神經(jīng)網(wǎng)絡(luò)最初是為解決圖像識別等問題設(shè)計的,其概念最早出自感受野(receptive field)。19世紀60年代,科學(xué)家在研究貓的視覺神經(jīng)細胞時發(fā)現(xiàn),每一個視覺神經(jīng)元只能處理一小塊區(qū)域的視覺圖像,這就是感受野。而CNN最初的實現(xiàn)原型,則是日本科學(xué)家提出的神經(jīng)認知機(neocognitron)。
通常用來處理圖像的有卷積神經(jīng)網(wǎng)絡(luò)LeNet5、AlexNet、VGGNet、Google Inception Net和ResNet等。CNN能夠通過優(yōu)化空間結(jié)構(gòu)關(guān)系減少參數(shù)量的學(xué)習(xí),從而使得圖片識別的效果得到極大的提升。在CNN中,圖像像素級數(shù)據(jù)作為輸入數(shù)據(jù)進入第一個卷積層,每一個卷積層處理一小塊圖像并且進行卷積變換后往下一層級傳輸。在這個過程中,每一次傳遞都會從數(shù)據(jù)中提取并組合生成最優(yōu)特征,因此CNN在應(yīng)用范圍上很廣泛,并且理論上能夠保持圖像在縮放、平移和旋轉(zhuǎn)中數(shù)據(jù)的穩(wěn)定性。基于深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)的智能圖像定損技術(shù)有以下幾個功能。
(1)智能識別保險單號
在收到保險單圖片后,首先,識別所述保險單圖片對應(yīng)的保險類型;然后,基于預(yù)定的保險類型與保險單號碼在所述保險單圖片中的位置關(guān)系,提取所述保險單號碼在所述保險單圖片中對應(yīng)的目標行字符區(qū)域;最后,調(diào)用預(yù)先訓(xùn)練生成的第一識別模型對所述目標行字符區(qū)域進行字符識別,以獲得所述目標行字符區(qū)域中包含的保險單號碼,并將識別出的保險單號碼與所述保險單圖片進行關(guān)聯(lián)存儲。
(2)智能定型定件
智能定型定件能夠通過車輛圖片和車輛識別碼(vehicle identification number,VIN)精確識別車組和車型,并且關(guān)聯(lián)到車組配件庫,實現(xiàn)唯一匹配。車輛檢測的方法如下:首先,在接收到包含車輛信息的待檢測圖片后,通過預(yù)定的算法提取待檢測圖片的基本特征信息,并將基本特征信息輸入預(yù)先訓(xùn)練生成的AND-OR模型中,以獲取各層級節(jié)點,并將各層級節(jié)點作為關(guān)鍵節(jié)點輸出;然后,將關(guān)鍵節(jié)點進行關(guān)聯(lián),以將關(guān)聯(lián)的各層級關(guān)鍵節(jié)點作為較優(yōu)的演算分支;將演算分支中的各層級關(guān)鍵節(jié)點轉(zhuǎn)化為待檢測圖片中的位置參數(shù),并根據(jù)預(yù)定的各層級關(guān)鍵節(jié)點與圖形模板的關(guān)聯(lián)關(guān)系確定演算分支中的各層級關(guān)鍵節(jié)點對應(yīng)的圖形模板;最后,根據(jù)演算分支中的各層級關(guān)鍵節(jié)點對應(yīng)的位置參數(shù)和圖形模板獲取待檢測圖片中的車輛位置信息以及車輛布局關(guān)系并輸出。
(3)圖像流清洗
對圖像進行處理的常用方法包括圖像增強(將模糊的圖片變清晰)、圖像歸正(自動矯正傾斜、翻轉(zhuǎn)的圖像)以及圖像篡改、模糊提示等的復(fù)雜處理等。清晰度檢測的大致流程如下:車險理賠服務(wù)器在收到用戶終端上傳的理賠照片后,采用預(yù)先訓(xùn)練生成的深度卷積神經(jīng)網(wǎng)絡(luò)模型對接收到的理賠照片進行清晰度識別,以確定所述理賠照片的清晰度等級。若所述理賠照片的清晰度等級低于預(yù)設(shè)清晰度等級,則發(fā)送提示信息至所述用戶終端,以提醒用戶重新上傳理賠照片。
(4)圖片篡改檢測
圖片篡改已十分普遍,構(gòu)建圖片反欺詐金融盾牌可廣泛應(yīng)用于車險中車輛定損圖片的反欺詐、保單圖片的反欺詐、身份證、駕駛證、遺囑等許多方面。利用深度學(xué)習(xí),可以有效定位圖片可篡改區(qū)域,減少人工審查時間,提高檢測準確率。
(5)部件分割歸集
對車輛圖片使用全鏈路端到端卷積神經(jīng)網(wǎng)絡(luò)模型,根據(jù)特征值進行部位的分割,準確識別車輛的外觀部位,匹配車型零件庫并且進行歸類。此外還能識別和判斷非車輛部位的干擾圖片,類似于身份證、銀行卡、水瓶等,并分到不同的文件夾內(nèi),從而減少人工分類。
(6)損失程度識別
15種外觀件的維修類型覆蓋了目前100%的外觀件損失狀態(tài),提供機器全量的損失學(xué)習(xí)。損失程度分為3種:一是表面無變形,即損失僅需噴漆就可以解決的輕度擦傷和劃痕;二是變形程度可修復(fù)的,需要修復(fù)鈑金,如一些撕裂、皺著、缺失或者大面積的凹陷等;三是無修復(fù)價值的,需要更換新的配件。
智能圖像定損原理如圖2所示。
現(xiàn)有的圖像定損流程是利用圖像檢測和識別的技術(shù)對受損部位(前保險杠、后備箱蓋、引擎蓋等)進行檢測。這種傳統(tǒng)的方法有時比較容易造成受損部位檢測遺漏或識別錯誤,在現(xiàn)有的算法下,還無法將識別的準確率和查全率做到100%?;谶@項事實,提出交互式圖像自動定損技術(shù),即用戶充當(dāng)定損員的角色,對未識別出的受損部位進行二次判斷,增加識別部位的準確率,與傳統(tǒng)的圖像自動定損技術(shù)相比,交互式圖像自動定損技術(shù)的優(yōu)勢在于以下幾點。
● 傳統(tǒng)的圖像自動定損只根據(jù)圖像做一次性的判斷,依賴一次算法的結(jié)果,在現(xiàn)有的技術(shù)條件下,無法將準確率和查全率做到100%,用戶利用App得到第一次返回結(jié)果后,若覺得有未被識別出的部位,則可用框圈出認為受損的部位,放入系統(tǒng)中進行二次檢測,得出結(jié)果。
圖2 智能圖像定損原理
● 增加用戶交互的體驗,使用戶有實際參與感,可以增加用戶對App的黏性。
● 在交互時,利用深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò),可以在很大程度上提高車輛部位分類的準確率。
交互式定損流程如圖3所示。
圖像識別技術(shù)除了在定損方面的應(yīng)用,還在其他多個現(xiàn)實場景中有應(yīng)用價值,筆者所在公司目前積極推出的“平安牲畜識別”也是圖像識別技術(shù)的代表應(yīng)用。平安牲畜識別是一個高效、快捷、精準的農(nóng)業(yè)+牲畜智能解決方案系統(tǒng),具備牲畜識別、數(shù)量清點、智能錄入、聲紋診斷和遙感監(jiān)測等功能,可以通過牲畜及身份證、銀行卡(戶口本)照片,快速完成投保理賠,實現(xiàn)農(nóng)場信息化管理,對農(nóng)場內(nèi)每個動物的健康情況、喂食次數(shù)等進行隨時監(jiān)控,并且能夠保障食品安全,追蹤系統(tǒng)內(nèi)每一頭豬、牛的健康狀況。此外,還可應(yīng)用于養(yǎng)殖健康管理,對養(yǎng)殖人員和牲畜進行雙重信息監(jiān)控,從源頭關(guān)注養(yǎng)殖過程的標準化、健康化。
從AI發(fā)展的歷史來看,AI現(xiàn)在處于第三次興起的時期,且為興起的初期。但是,已經(jīng)有琳瑯滿目的產(chǎn)品爭相出現(xiàn),大家似乎已經(jīng)看到了AI領(lǐng)域未來的曙光。人工智能將在不久的將來顛覆一些傳統(tǒng)的生活、工作和娛樂方式,這種改變并非是令人恐懼的,而是為了讓人類更好地生活。
圖3 交互式定損流程
不僅是金融領(lǐng)域,以后的行業(yè)會更加集成化,行業(yè)與行業(yè)之間的壁壘在降低,很多看似不相關(guān)的領(lǐng)域都能通過互聯(lián)網(wǎng)、物聯(lián)網(wǎng)聯(lián)系起來,因此AI技術(shù)在未來將深入人們工作、生活、娛樂的方方面面。目前,筆者所在的研究團隊在深度上,已經(jīng)著手研究AI智能音樂等;在廣度上,加大了現(xiàn)有技術(shù)在各個應(yīng)用領(lǐng)域的商務(wù)合作,并且正在擴展技術(shù)能夠運用到的更大的領(lǐng)域。此外,對于現(xiàn)有的技術(shù),也積極開放接口,實現(xiàn)全行業(yè)共享,提升全行業(yè)信息化、科技化、智能化水平。未來也將繼續(xù)從人工智能的技術(shù)提升和應(yīng)用場景兩方面同時著力,力求釋放AI技術(shù)的最大價值,為國家智能化建設(shè)添磚加瓦。
[1]Artificial intelligence and life in 2030,one-hundred-year study on AI[R]. 2016.
[2]AREL I, ROSE D C, KARNOWSKI T P.Deep machine learning—a new frontier in artificial intelligence research[J]. IEEE Computational Intelligence Magazine,2010, 5(4): 13-18.
[3]HARIHARAN B, ARBEL′AEZ P,GIRSHICK R, et al. Simultaneous detection and segmentation[C]//European Conference on Computer Vision, September 6-12, 2014, Zurich. Heidelberg: Springer Press, 2014: 297-312.
[4]HARIHARAN B, ARBEL′AEZ P,GIRSHICK R, et al. Hypercolumns for object segmentation and fine-grained localization[C]//Computer Vision and Pattern Recognition, June 8-10, 2015,Boston, USA. Piscataway: IEEE Press,2015: 447-456.
[5]FARABET C, COUPRIE C, NAJMAN L,et al. Learning hierarchical features for scene labeling[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(8): 1915-1929.
[6]CIRESAN D C, GIUSTI A,GAMBARDELLA L M, et al. Deep neural networks segment neuronal membranes in electron microscopy images[J]. Advances in Neural Information Processing Systems, 2012(25): 2852-2860.
[7]HE K, ZHANG X, REN S, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2014, 37(9): 1904-1916.
[8]SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for largescale image recognition[C]//International Conference cn Learning Representations,May 7-9, 2015, San Diego, USA. [S.l.: s.n.],2015: 1-14.
[9]GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]// Computer Vision and Pattern Recognition, June 8-10, 2015,Boston, USA. Piscataway: IEEE Press,2014: 1-8.
[10]GUPTA S, GIRSHICK R, ARBELAEZ P,et al. Learning rich features from RGB-D images for object detection and segmentation[C]// European Conference on Computer Vision, September 6-12,2014, Zurich, Switzerland. Heidelberg:Springer Press, 2014: 345-360. □