文/鐘科 博士、海南大學(xué)經(jīng)濟(jì)與管理學(xué)院講師
穆巖 本文通訊作者,中山大學(xué)心理學(xué)系講師、碩士生導(dǎo)師,美國卡耐基梅隆大學(xué)心理學(xué)博士
人與人工智能的決策密碼
文/鐘科 博士、海南大學(xué)經(jīng)濟(jì)與管理學(xué)院講師
穆巖 本文通訊作者,中山大學(xué)心理學(xué)系講師、碩士生導(dǎo)師,美國卡耐基梅隆大學(xué)心理學(xué)博士
人類智慧更善于解決高情景依賴的難題,偉大的商業(yè)決策往往由此誕生。
談到人工智能的商業(yè)應(yīng)用,與技術(shù)進(jìn)展相生相伴的是人們的各種擔(dān)憂。有趣的是,兩種截然相反的憂慮觀點(diǎn)總能在人們的認(rèn)知和討論中一同加載。
一種可稱之為“超智擔(dān)憂”。這種觀點(diǎn)認(rèn)為人工智能因?yàn)椤疤悄堋保诓痪玫膶砟軌驈?qiáng)大到取代人類從事的各類工作,而在遠(yuǎn)期則有可能導(dǎo)致人類被奴役。在AlphaGo大勝李世石之后,這種擔(dān)憂被廣泛討論。而赫拉利的《未來簡史》則為“超智擔(dān)憂”提供了理論的依據(jù),他認(rèn)為人工智能將有可能主宰人類,他描述的圖景與很多科幻電影講述的“機(jī)器人末日”異曲同工,但因?yàn)楹绽菤v史學(xué)家而非電影編劇,這本書引發(fā)的擔(dān)憂感更真切強(qiáng)烈。
另一種可稱之為“低智擔(dān)憂”。這種觀點(diǎn)則擔(dān)心人工智能“不夠智能”,人工智能無法達(dá)成預(yù)期的工作成效、引發(fā)事故的例子很多,因此人工智能不應(yīng)急于推廣應(yīng)用。2016年,微軟中國在微信平臺上推出交互人工智能應(yīng)用“小冰讀心術(shù)”,用戶在心里想出一個(gè)真實(shí)或虛擬的人,小冰通過15個(gè)問題與用戶交互,根據(jù)用戶“是/否/不知道”的三選一回答,來猜出答案。有人用小冰的姐姐、微軟的另一個(gè)交互機(jī)器人小娜(Cortana)當(dāng)作答案進(jìn)行測試,發(fā)現(xiàn)小冰“連自己的姐姐都猜不到”。與Siri、小冰做主角的各種網(wǎng)絡(luò)段子相比,當(dāng)谷歌的無人駕駛汽車因技術(shù)原因發(fā)生交通事故時(shí),低智擔(dān)憂引發(fā)的輿論就嚴(yán)肅得多了,有人甚至斥責(zé)無人駕駛實(shí)驗(yàn)是一場鬧劇。
按照心理學(xué)家費(fèi)斯汀格的認(rèn)知失調(diào)理論,出現(xiàn)上述兩種觀點(diǎn)共存的狀況是因?yàn)?,人們面對未知技術(shù)時(shí)的擔(dān)憂是首先形成的情緒或觀點(diǎn),然后才是為這些觀點(diǎn)找支撐的理據(jù)。諾貝爾經(jīng)濟(jì)學(xué)獎得主卡尼曼認(rèn)為,人類有兩個(gè)思考系統(tǒng)。系統(tǒng)1是快系統(tǒng),經(jīng)由漫長的進(jìn)化形成,幫助人們通過快速形成的情感、情緒、直覺等對環(huán)境作出反應(yīng)。系統(tǒng)2則是慢系統(tǒng),在人類的社會交往中逐步形成,幫助人們理智地進(jìn)行邏輯運(yùn)算、比較分析,這個(gè)系統(tǒng)運(yùn)轉(zhuǎn)速度較慢,卻使得人類決策的有效性大大提高??煜到y(tǒng)讓我們作出了“擔(dān)心機(jī)器人”的情緒反應(yīng),但如果一直讓快系統(tǒng)主宰自己的觀點(diǎn)、拒絕讓擅長分析的慢系統(tǒng)“入場”,我們很可能無法得出有關(guān)人工智能的有效結(jié)論。并且,在與人工智能的較量(如果真有的話)中先輸一陣,因?yàn)槿斯ぶ悄艿拈L處恰恰在于擅長使用邏輯演繹和量化分析。
因此,我們針對“低智擔(dān)憂”,從心理學(xué)視角探討人工智能如何幫助人類優(yōu)化決策。而對于指向未來的“高智擔(dān)憂”,我們也將基于一些大膽的推測提出若干見解供討論。
從一個(gè)很具體的決策情境說起。
2016年,北京大學(xué)的心理學(xué)副教授徐凱文博士的一篇名為《時(shí)代空心病與焦慮經(jīng)濟(jì)學(xué)》的演講引發(fā)熱議。演講開頭講述了他對有自殺傾向的年輕人實(shí)施的一次遠(yuǎn)程心理干預(yù)。那位年輕人在微信里給他留言:“我現(xiàn)在手里有一瓶神奇的藥水,不知道滋味如何?!彼⒖虖倪@句話中讀出了危險(xiǎn),并最終通過自己的專業(yè)技能救回了一條生命。
對于這個(gè)決策情境,不妨想象:一個(gè)人工智能的心理醫(yī)生若是收到上述信息,是否能夠分辨并作出恰當(dāng)?shù)姆治龊蜎Q策?
即使沒有受過徐博士那樣的專業(yè)訓(xùn)練,很多人在同樣情境下,依然可以從這句信息中讀出“暗示”,普通人的人際交流能力就能作到這一點(diǎn)。更重要的是,這句話若是換了幾個(gè)字詞——如“我現(xiàn)在手里是新藥水,不知道味道會不會難喝?”——即使在情境大致相同(心理疾患向醫(yī)生提問)的情況下,盡管表面意思大致相同,但內(nèi)涵卻千差萬別,此時(shí)危險(xiǎn)警報(bào)沒必要響起。在日常交際和工作場合中,大多數(shù)人根據(jù)這類“微小信息差別”作出不同決策都游刃有余。
這類決策有以下特征:首先,輸入信息量極小,只有幾十個(gè)字符;其次,輸入信息情境依賴性高并且模糊性高,“神奇”“藥水”這些字符意指不明確;再次,相似的信息輸入對應(yīng)的決策結(jié)果和行動目標(biāo)截然相反,兩句話對應(yīng)的決策分別是啟動自殺干預(yù)措施、不啟動自殺干預(yù)措施而啟動病患售后服務(wù)措施,目標(biāo)分別是“不要喝”和“按說明服用”;最后也是最關(guān)鍵的一點(diǎn),對決策輸出的錯(cuò)誤容忍度非常低,既不容許在第一句話的情況下不采取干預(yù)措施;也不容許在第二句話的情況下錯(cuò)誤地采取干預(yù)措施,從心理學(xué)角度來說,這樣會在病患大腦中啟動“自殺”概念,增大病患風(fēng)險(xiǎn)。
人類在工作場合需要處理大量這類決策,并且整體表現(xiàn)良好。但目前的交互型人工智能還難以勝任這類工作,即使它具備了從經(jīng)驗(yàn)中自主學(xué)習(xí)的能力,人類也不會給它在真實(shí)情景中學(xué)習(xí)的機(jī)會,而模擬案例的學(xué)習(xí)也會因?yàn)殡y以達(dá)到?jīng)Q策精度的要求而就此作罷。
當(dāng)然,在類似決策情境下,一旦上述特征發(fā)生變化,人工智能就有可能提供幫助,例如當(dāng)輸入信息很大并且錯(cuò)誤容忍度較高時(shí)。有媒體曾報(bào)道,F(xiàn)acebook就通過人工智能在海量帖子中標(biāo)記出有自殺傾向的帖子和用戶,再轉(zhuǎn)交由專業(yè)組織進(jìn)行專業(yè)判斷和干預(yù)。從海量信息中甄選并初步診斷出疾患,即使調(diào)用這個(gè)星球上全部的心理醫(yī)生投入這項(xiàng)工作,也難以達(dá)到人工智能的效率和準(zhǔn)確率,而且人工智能還能夠根據(jù)反饋信息越作越好。
上述例子可以看出,在目前可預(yù)測的技術(shù)發(fā)展水平上,人類智能和人工智能各擅勝場。如果能具體識別哪些決策中,人工智能更強(qiáng),而哪些決策中人類智能更強(qiáng),商業(yè)人士就能夠更好地利用人工智能優(yōu)化決策。
認(rèn)知心理學(xué)認(rèn)為,人類決策的過程大致包括四個(gè)環(huán)節(jié):
一是信息感知與存儲。人類通過五種感官捕獲信息形成知覺。大腦通過注意和記憶等功能篩選并存儲信息。二是信息分析處理。通過情感或邏輯(慢系統(tǒng)和快系統(tǒng)的共同作用)等不同方式對信息進(jìn)行綜合分析。三是作出決策和輸出。形成可能的備選方案,并作出選擇,隨后是對決策進(jìn)行行為上的執(zhí)行。四是形成反饋。獲得結(jié)果反饋,進(jìn)行無意識或有意識的學(xué)習(xí),促使信息的分析處理作出改進(jìn)。
人工智能正是通過計(jì)算機(jī)技術(shù)更聰明、廣泛、精確地采集信息、存儲信息、分析信息。在上述四個(gè)步驟中,人工智能在第一個(gè)步驟即系統(tǒng)的信息采集能力上,已經(jīng)通過現(xiàn)代的各類傳感技術(shù)具有人類無可比擬的優(yōu)勢。但在信息的分析處理和反饋學(xué)習(xí)這幾個(gè)方面,人類智能短期內(nèi)不可能被完全取代。
信息感知與存儲過程人類感官只能對五種感官有關(guān)的部分物理和化學(xué)信息進(jìn)行采集。在采集信息的種類和閾限上,人類有時(shí)甚至比不上其他生物。在更為復(fù)雜的生理數(shù)據(jù)采集上,機(jī)器的能力已經(jīng)非常強(qiáng)大。在心理學(xué)與人工智能結(jié)合的領(lǐng)域,人們一直在探索采用現(xiàn)代傳感器收集客觀的生理數(shù)據(jù)用于對人的心理狀態(tài)進(jìn)行分析。傳統(tǒng)方法依賴人的自我報(bào)告來測量情緒、消費(fèi)滿意度等心理指標(biāo),但這種自我報(bào)告會存在相當(dāng)大的誤差。
舉例來說,我們開展的一項(xiàng)研究關(guān)注學(xué)生在考試時(shí)感受到的焦慮情緒,但我們不可能在考試時(shí)詢問學(xué)生,因?yàn)檫@種詢問會干擾改變學(xué)生的情緒狀態(tài)。那么我們現(xiàn)在就采用遠(yuǎn)距虹膜分析技術(shù),用紅外攝像機(jī)拍攝學(xué)生的臉部,然后通過計(jì)算機(jī)視覺去計(jì)算學(xué)生瞳孔直徑,判定學(xué)生當(dāng)前的情緒狀態(tài)。這一設(shè)備既可以選擇低成本的普通攝像頭安裝在眼鏡框架上靠近眼睛采集,也可以選擇較高精度的紅外攝像頭在遠(yuǎn)程進(jìn)行拍攝。美國DARPA就一直在資助遠(yuǎn)距虹膜分析研究,希望能夠用于機(jī)場、車站等公共區(qū)域,遠(yuǎn)距離拍攝來精準(zhǔn)識別個(gè)體,用于反恐和保安。商業(yè)領(lǐng)域中,基于遠(yuǎn)距離的面部表情和面部血流等生理指標(biāo)的掃描技術(shù),正在逐步應(yīng)用于顧客的體驗(yàn)優(yōu)化中。
客觀生理數(shù)據(jù)采集將使得人工智能更加“善解人意”。比如,瞳孔測量以及面孔皮膚溫度的紅外測量可以用于自動化評估人的情緒,這可以應(yīng)用于廣告和網(wǎng)站設(shè)計(jì),幫助我們直觀地了解消費(fèi)者的情緒反應(yīng)。再比如,眼動追蹤可以幫助我們判斷人們當(dāng)前的注意焦點(diǎn)在哪里,運(yùn)動產(chǎn)生的肌肉電信號反應(yīng)可以幫助我們評估學(xué)生在運(yùn)動時(shí)的耗能與疲勞程度。這些本來是肉眼不可見的信息都可以幫助人工智能更好地理解人類的復(fù)雜行為。
信息分析處理和反饋學(xué)習(xí)在這個(gè)環(huán)節(jié),人工智能發(fā)揮有效作用的限制條件很多,例如只有當(dāng)決策反饋周期短、決策結(jié)果的優(yōu)劣判定鮮明,并且允許重復(fù)練習(xí)時(shí),人工智能才可能發(fā)揮作用。人工智能的初級應(yīng)用之一就是利用現(xiàn)代高級統(tǒng)計(jì)方法以及神經(jīng)網(wǎng)絡(luò)等計(jì)算機(jī)學(xué)習(xí)方法,使我們對存儲的數(shù)據(jù)進(jìn)行更有意義的分析。
舉例來說,醫(yī)院和學(xué)校都積累了大量的數(shù)據(jù),但由于沒有經(jīng)過智能化的整體設(shè)計(jì),這些數(shù)據(jù)是零散而缺乏意義的。我們開展的工作就是用分析生理數(shù)據(jù)的算法分析每個(gè)學(xué)生各科的歷次考試成績,并建立一個(gè)數(shù)據(jù)模型去預(yù)測學(xué)生未來的學(xué)習(xí)。目前我們已經(jīng)針對幾所初中的數(shù)據(jù)開展了工作,并能夠使用初一的各科成績預(yù)測哪些學(xué)生在初三會出現(xiàn)大幅度成績下滑。未來,這些歷史數(shù)據(jù)如果再配合上新型傳感器收集的客觀生理信息,將能夠更全面更精準(zhǔn)地建立一個(gè)自動化數(shù)據(jù)模型,對學(xué)生發(fā)展過程進(jìn)行智能化分析。
同時(shí),在數(shù)據(jù)極大豐富的情況下,大數(shù)據(jù)高級統(tǒng)計(jì)方法可以建立自動化的計(jì)算機(jī)學(xué)習(xí)算法,高效率地處理多維度多層次的海量數(shù)據(jù)。當(dāng)我們把數(shù)據(jù)采集與分析以人類行為為目標(biāo)進(jìn)行聚焦時(shí),就有可能為教育革新開創(chuàng)曙光。未來不論是學(xué)校還是企業(yè)組織,都需要評估人才、培養(yǎng)人才。以往通常是選用統(tǒng)一標(biāo)準(zhǔn)劃線。但是在信息高速流轉(zhuǎn)的時(shí)代,社會與組織都需要更加個(gè)性化有創(chuàng)意的人才,人工智能對人類行為的分析,將有效地輔助人們進(jìn)行科學(xué)的人才個(gè)性化測評,幫助判定一個(gè)人適合發(fā)揮特長的環(huán)境在哪里。這將發(fā)掘出海量的人才資源,進(jìn)一步提升生產(chǎn)效率。
人工智能擅長處理海量數(shù)據(jù)。比如,IBM的Watson機(jī)器人用于分析癌癥病人的藥物治療方案時(shí),可以綜合全球數(shù)以萬計(jì)的病例,對當(dāng)前病人使用某種藥物方案時(shí)的風(fēng)險(xiǎn)給出量化數(shù)據(jù)。哪怕經(jīng)驗(yàn)再豐富的醫(yī)生,恐怕也很難記住并算出某一個(gè)藥物的具體風(fēng)險(xiǎn)數(shù)值。
盡管人工智能在某些專業(yè)領(lǐng)域超越了人類,但目前還只是在某一個(gè)細(xì)分的思維領(lǐng)域能夠進(jìn)行深度有效的學(xué)習(xí),而不像人類可以在眾多不同領(lǐng)域靈活地學(xué)習(xí)。例如,被電腦打敗的圍棋高手可以很容易轉(zhuǎn)行去學(xué)習(xí)如何下國際象棋,但是Master程序還無法自己修改自己,適應(yīng)完全不同的學(xué)習(xí)內(nèi)容。
盡管在數(shù)據(jù)主義者看來,生命也不過是數(shù)據(jù)流中的一段漣漪,因此一切都是可以被數(shù)據(jù)化的。但目前,人工智能的能力還是受限于它的制造者——人類的認(rèn)知能力。在人類找到將宇宙徹底數(shù)據(jù)化的鑰匙之前(也許不存在這樣的鑰匙),人工智能的能力就總是受限。至少我們看到,人類生活中大量重大決策是在情景模糊、小數(shù)據(jù)輸入、決策結(jié)果判定主觀且反饋滯后、需要?dú)v史數(shù)據(jù)之外的新備選方案的涌現(xiàn)、不允許反復(fù)試錯(cuò)的條件下進(jìn)行的。例如,古巴導(dǎo)彈危機(jī)中肯尼迪堅(jiān)持談判的決策、軟銀首次投資阿里巴巴的決策,這些在政治史和商業(yè)史上由個(gè)人或組織作出的重大而優(yōu)質(zhì)的決策,之所以散發(fā)著人性的光輝,恰恰是因?yàn)殡y以被量化和推演。這些限制條件,從當(dāng)前的技術(shù)發(fā)展來看,構(gòu)筑了人工智能在商業(yè)決策應(yīng)用能力的天花板。
霍金、馬斯克等最強(qiáng)大的人類智能擁有者,都在近期發(fā)表了對人工智能可能毀滅人類的擔(dān)憂。但2016年美國白宮發(fā)布的、由美國國家科學(xué)研究委員會撰寫的報(bào)告《為未來人工智能作準(zhǔn)備》則認(rèn)為目前這種擔(dān)憂不應(yīng)當(dāng)。報(bào)告指出,存在一個(gè)廣闊的鴻溝把如今的狹義人工智能與強(qiáng)人工智能劃分開來,過去許多年,通過擴(kuò)展狹義人工智能解決方案來達(dá)到強(qiáng)人工智能的努力收效甚微。
如何使得強(qiáng)人工智能在誕生之初就確保滿足“阿西莫夫三定律”(對人類的絕對服從;機(jī)器人不得傷害人類;機(jī)器人必須保護(hù)自己,除非會因此導(dǎo)致人類受到傷害)?白宮報(bào)告提及了一種預(yù)測:當(dāng)一個(gè)足夠聰明的人工智能被賦予完成開發(fā)更優(yōu)秀、更智能的系統(tǒng)的任務(wù),而這些反過來又可以用來創(chuàng)建更聰明的系統(tǒng),導(dǎo)致原則上出現(xiàn)一個(gè)“智力爆炸”或“奇點(diǎn)”,屆時(shí)機(jī)器的智力將會遠(yuǎn)遠(yuǎn)超過人類。
不知道是否還有其他的技術(shù)路徑導(dǎo)致“奇點(diǎn)”的出現(xiàn)。但關(guān)于如何為可預(yù)測的技術(shù)路徑設(shè)置技術(shù)的強(qiáng)障礙(如底層技術(shù)上制止“能夠讓機(jī)器人復(fù)制自己或進(jìn)行新一代機(jī)器人開發(fā)”的算法被寫出)和法律的弱障礙(設(shè)定嚴(yán)刑峻法制止某類人工智能的開發(fā))應(yīng)該開始進(jìn)行討論??档抡f:“人才是目的?!蔽磥砣祟惖拿\(yùn),或許取決于未來最聰明的那些開發(fā)者對這句話的認(rèn)同與執(zhí)行。
關(guān)于高智擔(dān)憂。東野圭吾新近的小說《拉普拉斯的魔女》,塑造了一個(gè)被植入了人工智能芯片而具有預(yù)測能力的女孩形象。小說的結(jié)尾是這樣的:
“這個(gè)世界的未來,到底怎么樣?”少女深深地嘆了一口氣,搖著頭說,“我跟你說,還是不知道比較幸福?!?/p>