(上海國際問題研究院,上海 200233)
現(xiàn)代意義上的人工智能研究最早可以追溯到20世紀(jì)40年代。1950年,英國著名科學(xué)家圖靈在《計(jì)算機(jī)器與智能》一文中首次提出了“機(jī)器能夠思考嗎?”這一具有劃時代意義的理論問題,并同時提出了測試機(jī)器是否擁有智能的方法。
1956年,在達(dá)特茅斯夏季學(xué)術(shù)研討會上,研究者們接受了計(jì)算機(jī)專家約翰·麥卡錫提出的人工智能(AI)概念,并將其作為這門新興學(xué)科的正式標(biāo)簽。然而,在隨后幾十年的時間里,人工智能的發(fā)展卻并非一帆風(fēng)順,雖然在不同時期出現(xiàn)了“專家系統(tǒng)”、“深藍(lán)”等多項(xiàng)具有標(biāo)志性意義的成果,但由于客觀條件的限制,人工智能技術(shù)始終無法有效解決人們的現(xiàn)實(shí)需求,技術(shù)發(fā)展無法在產(chǎn)業(yè)層面落地,對于現(xiàn)實(shí)社會的影響非常有限。
真正的突破出現(xiàn)在2009-2010年前后,硬件設(shè)備的進(jìn)步使新一代計(jì)算機(jī)在運(yùn)算速度和信息處理能力方面得到大幅提升?;ヂ?lián)網(wǎng)產(chǎn)業(yè)的發(fā)展改變了人類的生活方式,使得網(wǎng)絡(luò)成為人們獲取日常生活數(shù)據(jù)最集中、最便捷的渠道。移動互聯(lián)時代的到來,則使來自網(wǎng)絡(luò)搜索、電子商務(wù)、社會媒體、科學(xué)研究等不同領(lǐng)域的海量數(shù)據(jù)迅速累積,為人工智能的飛躍提供了充足的養(yǎng)分。在已具備強(qiáng)大計(jì)算能力與大數(shù)據(jù)環(huán)境的情況下,早在60年代就已經(jīng)被提出的多層神經(jīng)網(wǎng)絡(luò)工具煥發(fā)出巨大的生命力,重新成為技術(shù)發(fā)展的主流路徑。
本輪人工智能發(fā)展熱潮以“深度學(xué)習(xí)”為核心,該算法以建立套嵌式的多層次模式識別系統(tǒng)組成的“神經(jīng)”架構(gòu)為基礎(chǔ),通過組合低層特征形成更加抽象的高層屬性、類別或特征,借以發(fā)現(xiàn)數(shù)據(jù)的分布特點(diǎn)。深度學(xué)習(xí)的出現(xiàn)帶來了人工智能算法的跨越,改變了傳統(tǒng)符號主義學(xué)派以計(jì)算機(jī)模擬人類認(rèn)知系統(tǒng)推進(jìn)人工智能的艱難嘗試,讓人工智能擁有了從海量且復(fù)雜的信息源中提取、識別和構(gòu)建體系的能力,在那些任務(wù)目標(biāo)明確且相關(guān)數(shù)據(jù)豐富的領(lǐng)域,深度學(xué)習(xí)算法能夠讓機(jī)器學(xué)習(xí)新的技能,制定有效策略,從而在短時間內(nèi)提出超過人類學(xué)習(xí)能力的問題解決方案。
隨著深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)成為主流發(fā)展方向,人工智能技術(shù)很快在現(xiàn)實(shí)場景中得以應(yīng)用。在很短的時間內(nèi),人工智能技術(shù)就在圖像識別、語音識別、機(jī)器翻譯、自動駕駛甚至棋類競賽等復(fù)雜的應(yīng)用場景中獲得了飛速的進(jìn)步,基本達(dá)到了滿足人類日常需求的標(biāo)準(zhǔn),具備了商業(yè)投資的價值,并很快成為資本市場追捧的新熱點(diǎn)。
邁過產(chǎn)業(yè)化的門檻意味著人工智能技術(shù)真正走出了實(shí)驗(yàn)室,能夠?qū)ι鐣a(chǎn)和人類生活產(chǎn)生直接影響。更重要的是,本輪人工智能技術(shù)的進(jìn)步證明,機(jī)器學(xué)習(xí)算法能夠在具有很多限定性條件的領(lǐng)域比人類做得更好,并且能夠通過自我學(xué)習(xí)不斷進(jìn)步。這一結(jié)論事實(shí)上打開了人類對于人工智能發(fā)展的未來想象空間,人類社會已經(jīng)能夠清晰地聽到未來社會匆匆而至的腳步聲。
誠如馬克思所言,“科學(xué)是歷史的有力杠桿,是最高意義上的革命力量”。作為一項(xiàng)具有時代意義的科學(xué)思想與技術(shù),人工智能系統(tǒng)能夠通過大數(shù)據(jù)分析和學(xué)習(xí)理解人類的內(nèi)在需求,作為創(chuàng)造性的伙伴直接參與到人類改造世界的活動中。它表現(xiàn)出與人類理性思維方式相匹敵的思考能力,在一定程度上改變了人類與技術(shù)工具的關(guān)系。然而,一切革命性的技術(shù)變革都意味著不確定性和風(fēng)險,人工智能革命也將對經(jīng)濟(jì)、政治、軍事、社會等領(lǐng)域產(chǎn)生重大沖擊。如何在潛在的動蕩風(fēng)險尚未發(fā)生時做到未雨綢繆,使技術(shù)革命不至于反噬人類本身,是社會科學(xué)研究者所肩負(fù)的重要責(zé)任。在此,本報(bào)告分析總結(jié)了人工智能技術(shù)進(jìn)步對于社會生活中四大領(lǐng)域所帶來的潛在風(fēng)險,旨在較為全面地展示我們所需面對的挑戰(zhàn)。
經(jīng)濟(jì)安全是國家安全的重要組成部分。特別是在冷戰(zhàn)結(jié)束之后,隨著國際體系的內(nèi)在邏輯變遷,經(jīng)濟(jì)安全問題日益被各國政府和研究者所重視,將其視為國家安全的核心組成部分,并逐漸擴(kuò)展為一個完整的理論體系。其中金融安全、產(chǎn)業(yè)安全、經(jīng)濟(jì)信息安全都被視為經(jīng)濟(jì)安全問題的重要組成部分。人工智能技術(shù)在發(fā)展過程中首先被視為一項(xiàng)具有明確經(jīng)濟(jì)目標(biāo)的技術(shù)創(chuàng)新,其成果對于經(jīng)濟(jì)體系的影響也最為直接。因此,在嘗試討論人工智能技術(shù)所帶來的安全風(fēng)險時,最為基礎(chǔ)的便是其對國家層面經(jīng)濟(jì)安全的影響。
2.1.1 結(jié)構(gòu)性失業(yè)風(fēng)險
從歷史上看,任何圍繞著自動化生產(chǎn)的科技創(chuàng)新都會造成勞動力需求的明顯下降,人工智能技術(shù)的進(jìn)步也同樣意味著普遍的失業(yè)風(fēng)險。
據(jù)美國國家科學(xué)技術(shù)委員會預(yù)測,在未來10~20年的時間內(nèi),9%~47%的現(xiàn)有工作崗位將受到威脅,平均每3個月就會有約6%的就業(yè)崗位消失。[1]與傳統(tǒng)基于生產(chǎn)規(guī)模下行所導(dǎo)致的周期性失業(yè)不同,由新的技術(shù)進(jìn)步所導(dǎo)致的失業(yè)現(xiàn)象從本質(zhì)上說是一種結(jié)構(gòu)性失業(yè),資本以全新的方式和手段替代了對于勞動力的需要。結(jié)構(gòu)性失業(yè)的人們在短期內(nèi)很難重新獲得工作,因?yàn)樗麄冎八軌蜻m應(yīng)的崗位已經(jīng)徹底消失,而適應(yīng)新的崗位則需要較長的時間周期。
可以預(yù)見的是,主要依賴重復(fù)性勞動的勞動密集型產(chǎn)業(yè)和依賴于信息不對稱而存在的部分服務(wù)行業(yè)的工作崗位將首先被人工智能所取代。隨著人工智能技術(shù)在各個垂直領(lǐng)域不斷推進(jìn),受到威脅的工作崗位將越來越多,實(shí)際的失業(yè)規(guī)模①相關(guān)研究還可參見:Martin Ford. Rise of the Robots: Technology and the Threat of a Jobless Future[M]. New York: Basic Books, 2015; 該書已經(jīng)出版了中文版,對失業(yè)問題的相關(guān)論述可見:[英]馬丁·福特.機(jī)器人時代:技術(shù)、工作與經(jīng)濟(jì)的未來[M].王吉美、牛筱萌譯.北京:中信集團(tuán)出版社,2015:239-244.將越來越大,失業(yè)的持續(xù)時間也將越來越長。這種趨勢的演進(jìn),對于社會穩(wěn)定的影響將是巨大的。
2.1.2 貧富分化與不平等
人工智能技術(shù)的進(jìn)步所帶來的另一大經(jīng)濟(jì)影響是進(jìn)一步加劇了貧富分化與不平等現(xiàn)象。
一方面,作為資本擠壓勞動力的重要進(jìn)程,人工智能所帶來的勞動生產(chǎn)率提升很難轉(zhuǎn)化為工資收入的普遍增長。在就業(yè)人口被壓縮的情況下,只有少數(shù)勞動人口能夠參與分享自動化生產(chǎn)所創(chuàng)造的經(jīng)濟(jì)收益。新創(chuàng)造的社會財(cái)富將會以不成比例的方式向資本一方傾斜。②根據(jù)《烏鎮(zhèn)指數(shù):全球人工智能發(fā)展報(bào)告(2016)》的預(yù)測,短期內(nèi)人工智能的主要應(yīng)用領(lǐng)域?qū)⒓杏谧詣玉{駛、醫(yī)療健康、安防、電商零售、金融、教育和個人助理7個方面。報(bào)告全文見:http://www.199it.com/archives/526338.html.
另一方面,人工智能技術(shù)對于不同行業(yè)的參與和推進(jìn)是不平衡的。部分擁有較好數(shù)據(jù)積累,且生產(chǎn)過程適宜人工智能技術(shù)介入的行業(yè)可能在相對較短的時間內(nèi)獲得較大發(fā)展。在這種情況下,少數(shù)行業(yè)會吸納巨額資本注入與大量的人才集聚,迅速改變國內(nèi)產(chǎn)業(yè)結(jié)構(gòu)。行業(yè)發(fā)展不平衡的鴻溝與部分行業(yè)大量超額收益的存在將對國家經(jīng)濟(jì)發(fā)展產(chǎn)生復(fù)雜影響。[2]
2.1.3 循環(huán)增強(qiáng)的壟斷優(yōu)勢
作為一項(xiàng)有效的創(chuàng)新加速器,不斷發(fā)展成熟的人工智能技術(shù)可以為技術(shù)領(lǐng)先國家?guī)斫?jīng)濟(jì)競爭中的戰(zhàn)略優(yōu)勢。人工智能技術(shù)的進(jìn)步需要大量的前期投入,特別是在數(shù)據(jù)搜集和計(jì)算機(jī)技術(shù)方面的技術(shù)積累對于人工智能產(chǎn)業(yè)的發(fā)展至關(guān)重要。但各國在該領(lǐng)域的投入差距很大,不同國家在人工智能技術(shù)方面的發(fā)展嚴(yán)重不平衡。而人工智能技術(shù)自身潛在的創(chuàng)造力特性又能使率先使用該技術(shù)的國家有更大的機(jī)率出現(xiàn)新一輪技術(shù)創(chuàng)新。如果這種邏輯確實(shí)成立,那么少數(shù)大國就會利用人工智能技術(shù)實(shí)現(xiàn)有效的技術(shù)壟斷,不僅能夠使自己獲得大量超額收益,使本已十分嚴(yán)重的全球財(cái)富分配兩極分化的情況進(jìn)一步加劇,而且將會隨著時間的推移使差距進(jìn)一步拉大。在這種狀況下,處于弱勢地位的大部分發(fā)展中國家應(yīng)如何在不利的經(jīng)濟(jì)結(jié)構(gòu)中維持自身的經(jīng)濟(jì)安全就將成為極具挑戰(zhàn)性的課題。
2.1.4 小結(jié)
人工智能技術(shù)的發(fā)展已經(jīng)深刻地改變著維系國民經(jīng)濟(jì)運(yùn)行和社會生產(chǎn)經(jīng)營活動的各項(xiàng)基本生產(chǎn)要素的意義。在人工智能技術(shù)的影響下,資本與技術(shù)在經(jīng)濟(jì)活動中的地位獲得全面提升,而勞動力要素的價值則受到嚴(yán)重削弱。在傳統(tǒng)工業(yè)化時代重要的人口紅利很可能在新時代成為新型經(jīng)濟(jì)模式下的“不良資產(chǎn)”。新的經(jīng)濟(jì)體系的重構(gòu)過程將會引導(dǎo)全球資本和人才進(jìn)一步流向技術(shù)領(lǐng)導(dǎo)國,留給發(fā)展中國家走上現(xiàn)代化道路的機(jī)遇期將變得更加有限。人工智能技術(shù)帶來的全球經(jīng)濟(jì)結(jié)構(gòu)調(diào)整,將促使經(jīng)濟(jì)安全問題成為所有發(fā)展中國家所面對的共同挑戰(zhàn)。
人工智能技術(shù)對于經(jīng)濟(jì)領(lǐng)域的深度影響會自然傳導(dǎo)到政治領(lǐng)域,而人工智能技術(shù)的特性也容易對現(xiàn)有的政治安全環(huán)境產(chǎn)生影響。從議題層面來看,人工智能技術(shù)及其背后的大數(shù)據(jù)和算法能夠潛移默化地影響人類行為,直接對國內(nèi)政治行為產(chǎn)生干擾。從結(jié)構(gòu)層面來看,人工智能所帶來的社會經(jīng)濟(jì)結(jié)構(gòu)調(diào)整,會使資本的權(quán)力在政治體系中呈現(xiàn)擴(kuò)張態(tài)勢,最終在政治權(quán)力分配中獲得相應(yīng)的反映。除此之外,人工智能技術(shù)的介入,還將影響國際競爭的內(nèi)容與形態(tài)。因此,對于身處人工智能時代的國家主體而言,如何在變革的條件下有效維護(hù)本國的政治安全與秩序穩(wěn)定,并且提高參與國際競爭的能力,將是所有國家都不得不面對的重要課題。
2.2.1 數(shù)據(jù)與算法的壟斷對于政治議程的影響
技術(shù)對于各國國內(nèi)的政治議程所產(chǎn)生的影響軌跡已經(jīng)變得越來越清晰,在過去兩年中,圍繞著2016年美國大選而開展的種種政治運(yùn)作已經(jīng)越來越明顯地展現(xiàn)出擁有數(shù)據(jù)和技術(shù)能夠在怎樣的程度上影響政治的結(jié)果。
劍橋分析公司事件的出現(xiàn)非常清晰地顯示出,只要擁有足夠豐富的數(shù)據(jù)和準(zhǔn)確的算法,技術(shù)企業(yè)就能夠?yàn)楦偁幮赃x舉制造針對性影響。在人工智能技術(shù)的協(xié)助下,各種數(shù)據(jù)資源的積累,使每個接受互聯(lián)網(wǎng)服務(wù)的用戶都會被系統(tǒng)自動畫像與分析,從而獲得定制化的服務(wù)。然而,漸趨透明的個人信息本身也就意味著這些信息可以輕易服務(wù)于政治活動。正如英國第四頻道針對劍橋分析事件所做的評論,“…一只看不見的手搜集了你的個人信息,挖掘出你的希望和恐懼,以此謀取最大的政治利益?!庇谑?,伴隨著技術(shù)的不斷成熟,當(dāng)某種特定政治結(jié)果發(fā)生時,你將難以確定這是民眾正常的利益表達(dá),還是被有目的地引導(dǎo)的結(jié)果。
在人工智能時代,數(shù)據(jù)和算法就是權(quán)力,這也意味著新的政治風(fēng)險。這種技術(shù)干涉國內(nèi)政治的風(fēng)險對于所有國家都普遍存在,但對于那些技術(shù)水平相對落后的廣大發(fā)展中國家來說,這種挑戰(zhàn)顯然更加嚴(yán)酷。由于缺乏相應(yīng)技術(shù)積累,發(fā)展中國家并沒有充分有效的方式保護(hù)自己的數(shù)據(jù)安全,也沒有足夠的能力應(yīng)對算法所帶來的干涉。人工智能技術(shù)的進(jìn)步將進(jìn)一步凸顯其在政治安全領(lǐng)域的脆弱性特征,傳統(tǒng)的國家政治安全將面臨嚴(yán)峻的考驗(yàn)。
2.2.2 技術(shù)進(jìn)步與資本權(quán)力的持續(xù)擴(kuò)張
國家權(quán)力的分配方式從根本上說是由社會經(jīng)濟(jì)生產(chǎn)方式的特點(diǎn)所決定的,不同時代的生產(chǎn)力水平?jīng)Q定了特定時段最為合理的政治組織模式。威斯特伐利亞體系中的民族國家體制出現(xiàn),從根本上說正是目前人類所創(chuàng)造的最適宜工業(yè)化大生產(chǎn)經(jīng)濟(jì)模式的權(quán)力分配方式。因此,當(dāng)人工智能技術(shù)所推動的社會經(jīng)濟(jì)結(jié)構(gòu)變革逐步深入時,新的社會權(quán)力分配結(jié)構(gòu)也會伴隨著技術(shù)變革而興起,推動國家治理結(jié)構(gòu)與權(quán)力分配模式做出相應(yīng)的調(diào)整。
從當(dāng)前的各種跡象來看,資本權(quán)力依托技術(shù)和數(shù)據(jù)壟斷的地位持續(xù)擴(kuò)張將成為新時代國家治理結(jié)構(gòu)調(diào)整的重要特征。人工智能技術(shù)的研究工作門檻很高,依賴于巨額且長期的資本投入。當(dāng)前,人工智能研究中最具實(shí)際應(yīng)用價值的科研成果多出自大型企業(yè)所支持的研究平臺。超級互聯(lián)網(wǎng)商業(yè)巨頭實(shí)際上掌握了目前人工智能領(lǐng)域的大部分話語權(quán)。人工智能領(lǐng)域研究已經(jīng)深深地打上了資本的烙印,大型企業(yè)對于數(shù)據(jù)資源以及人工智能技術(shù)的控制能力正在形成他們實(shí)際上的壟斷地位。這種力量將滲入當(dāng)前深嵌于網(wǎng)絡(luò)的社會生活的方方面面,利用算法的黑箱為大眾提供他們希望看到的內(nèi)容,潛移默化地改變公共產(chǎn)品的提供方式。在人工智能時代,資本和技術(shù)力量的壟斷地位有可能結(jié)合在一起,在一定程度上逐漸分享傳統(tǒng)上由民族國家所掌控的金融、信息等重要的權(quán)力。資本的權(quán)力隨著新技術(shù)在各個領(lǐng)域的推進(jìn)而不斷擴(kuò)張,這將成為人工智能技術(shù)在進(jìn)步過程中所帶來的權(quán)力分配調(diào)整的重要特征。
對于民族國家來說,資本權(quán)力的擴(kuò)張本身并非不可接受,大型企業(yè)通過長期投資和技術(shù)研發(fā),能夠更加經(jīng)濟(jì)、更加有效地在很多領(lǐng)域承擔(dān)提供相應(yīng)公共產(chǎn)品的職能。然而,民族國家能否為資本權(quán)力的擴(kuò)張?jiān)O(shè)定合理的邊界則是關(guān)系到傳統(tǒng)治理模式能否繼續(xù)存在的重要問題,這種不確定性將成為未來民族國家所面對的普遍性政治安全風(fēng)險。
2.2.3 技術(shù)進(jìn)步對主權(quán)國家參與國際競爭的挑戰(zhàn)
人工智能技術(shù)進(jìn)步所帶來的另一項(xiàng)重要政治安全風(fēng)險是使得技術(shù)落后的國家在國際戰(zhàn)略博弈中長期處于不利地位。
戰(zhàn)略博弈是國際競爭活動中最為普遍的形式,參與者通過判斷博弈對手的能力、意圖、利益和決心,結(jié)合特定的外部環(huán)境分析,制定出最為有利的博弈策略并加以實(shí)施。①關(guān)于戰(zhàn)略博弈的分析過程參見:唐世平.一個新的國際關(guān)系歸因理論:不確定性的維度及其認(rèn)知挑戰(zhàn)[J].國際安全研究,2014(02):3-41.由于國際關(guān)系領(lǐng)域的戰(zhàn)略博弈涉及范圍廣,內(nèi)容復(fù)雜,各項(xiàng)要素相互累加形成的系統(tǒng)效應(yīng)(System Effects)實(shí)際上已經(jīng)遠(yuǎn)遠(yuǎn)超出了人類思維所能夠分析和掌控的范疇,傳統(tǒng)意義上國家參與戰(zhàn)略博弈的過程更多依賴政治家的直覺與判斷。這種類似于“不完全信息博弈”的形態(tài)給人工智能技術(shù)的介入提供了條件。②關(guān)于不完全信息博弈問題的基本模式參見:John C. Harsanyi. Games with Incomplete Information Played by “Bayesian” Players, Part I:The Basic Model[J].Management Science, 1967, 14(03):159-182.只要技術(shù)進(jìn)步的大趨勢不發(fā)生改變,人工智能所提供的戰(zhàn)略決策輔助系統(tǒng)就將對博弈過程產(chǎn)生重大影響。③參見:Kareem Ayoub, Kenneth Payne.Strategy in the Age of Artificial Intelligence[M].The Journal of Strategic Studies, 2016,39(5-6):793-819.
首先,人工智能系統(tǒng)能夠提供更加精確的風(fēng)險評估和預(yù)警,使戰(zhàn)略決策從一種事實(shí)上的主觀判斷轉(zhuǎn)變?yōu)榫_化的揀選過程,提升戰(zhàn)略決策的科學(xué)性。[3-4]其次,深度學(xué)習(xí)算法能夠以更快的速度提供更多不同于人類常規(guī)思維方式的戰(zhàn)略選項(xiàng),并且隨著博弈過程的持續(xù),進(jìn)一步根據(jù)對方策略的基本傾向?qū)Ρ痉讲呗约右酝晟?,提升?shí)現(xiàn)戰(zhàn)略決策的有效性。④Kareem Ayoub, Kenneth Payne. Strategy in the Age of Artificial Intelligence[M].The Journal of Strategic Studies, 2016, 39(5-60:808.最后,在戰(zhàn)略博弈進(jìn)程中,人工智能系統(tǒng)能夠最大限度排除人為因素的干擾,提高戰(zhàn)略決策的可靠性。⑤參見:Stephen P. Rosen.War and Human Nature[M]. Princeton, NJ: Princeton University Press, 2005:27-70.
以人工智能技術(shù)為基礎(chǔ)的決策輔助系統(tǒng)在國際戰(zhàn)略博弈的進(jìn)程中將發(fā)揮重要作用,技術(shù)的完善將使得國際行為體之間戰(zhàn)略博弈能力的差距進(jìn)一步擴(kuò)大。缺少人工智能技術(shù)輔助的行為體將在風(fēng)險判斷、策略選擇、決策確定、執(zhí)行效率,以及決策可靠性等多個方面處于絕對劣勢,整個戰(zhàn)略博弈過程將會完全失衡。一旦這種情況出現(xiàn),主權(quán)國家將不得不參與到技術(shù)競爭中來。而在資本和技術(shù)都處于落后一方的中小國家將在國際競爭中處于不利地位,也將面對嚴(yán)重的政治安全風(fēng)險。
2.2.4 小結(jié)
人工智能技術(shù)的快速發(fā)展所帶來的不確定性將直接影響國家的政治安全。它不僅能夠直接作用于國內(nèi)政治議程,通過技術(shù)手段對內(nèi)部政治生態(tài)產(chǎn)生短時段的直接干擾,而且會通過國內(nèi)社會經(jīng)濟(jì)結(jié)構(gòu)的調(diào)整,在長時段內(nèi)影響原有政治體系的穩(wěn)定。在人工智能時代,國內(nèi)治理格局需要根據(jù)經(jīng)濟(jì)基礎(chǔ)的變化進(jìn)行調(diào)整,作為大工業(yè)時代產(chǎn)物的科層制管理體系應(yīng)該如何適應(yīng)新時代的要求,將成為影響民族國家國內(nèi)政治穩(wěn)定的重要因素。另一方面,人工智能技術(shù)的介入和參與還會進(jìn)一步拉大國家間的戰(zhàn)略設(shè)計(jì)與戰(zhàn)略執(zhí)行能力的差距,技術(shù)的潛力一旦得到完全釋放,將使得國際競爭格局進(jìn)一步失衡,處于弱勢一方的發(fā)展中國家維護(hù)自身利益的空間進(jìn)一步縮減。國際關(guān)系行為體之間將呈現(xiàn)出在技術(shù)和制度上的系統(tǒng)性差距,發(fā)展中國家將面臨更加嚴(yán)酷的國際競爭環(huán)境。
人工智能技術(shù)本身并不是軍事武器,但它天然與軍事安全領(lǐng)域的所有問題都存在千絲萬縷的聯(lián)系。從人工智能技術(shù)誕生之日起,如何將其有效應(yīng)用于軍事領(lǐng)域就已被納入所有技術(shù)先進(jìn)國家的考慮范圍之內(nèi)。①在人工智能技術(shù)誕生之初,美國軍方就自動化和智能化武器產(chǎn)生的濃厚的興趣,相關(guān)信息可參見:Allan M. Din (ed.). Arms and Artificial Intelligence: Weapon and Arms Control Applications of Advanced Computing[M].New York: Oxford University Press, 1988; Jeffrey L. Caton.Autonomous Weapons Systems: A Brief Survey of Developmental, Operational, legal and Ethical Issues[EB/OL].Strategic Studies Institute, U.S.Army War College.(2015-11). http://www.strategicstudiesinstitute.army.mil/pdffiles/PUB1309.pdf.這是因?yàn)閲业能娛滦袨榕c公司等經(jīng)濟(jì)組織的商業(yè)行為擁有相似的邏輯,都要求建立一個有效的系統(tǒng),以便在競爭性過程中獲得勝利。整個過程中同樣包含快速獲取信息、快速處理信息、做出決策與執(zhí)行決策等過程。而隨著人工智能技術(shù)的成熟,它將會被越來越廣泛地應(yīng)用于軍事領(lǐng)域,武器系統(tǒng)、軍事策略、軍事組織,甚至戰(zhàn)爭的意義可能會發(fā)生深刻改變,人類社會也有可能在進(jìn)入人工智能時代之后迎來一個不同的軍事安全環(huán)境。②Vincent Boulanin, MaaikeVerbruggen.Mapping the Development of Autonomy in Weapon Systems[M].Sweden Stockholm International Peace Research Institute, 2017:16-17.
2.3.1 完全自主性武器的廣泛應(yīng)用將帶來巨大的軍事倫理問題
人工智能技術(shù)不是武器,但能夠成為武器性能提升的助推器。一方面,人工智能技術(shù)的介入,使大量無人作戰(zhàn)武器參與作戰(zhàn)成為可能。當(dāng)前,無人機(jī)、無人地面車輛、無人潛航設(shè)備已經(jīng)廣泛應(yīng)用于軍事領(lǐng)域,而各國軍事部門對于機(jī)器人作戰(zhàn)系統(tǒng)的興趣也是有增無減。利用深度學(xué)習(xí)算法,智能化武器可以在虛擬環(huán)境中得到武器操控的基本能力,隨后在現(xiàn)實(shí)環(huán)境中廣泛獲取數(shù)據(jù),并根據(jù)數(shù)據(jù)反饋不斷提升戰(zhàn)斗能力,學(xué)習(xí)執(zhí)行各種戰(zhàn)斗命令,最終實(shí)現(xiàn)有效應(yīng)用于復(fù)雜的戰(zhàn)場態(tài)勢。
另一方面,隨著人工智能技術(shù)的發(fā)展,算法的更新可以賦予智能武器新的角色與行動邏輯。以智能化無人機(jī)為例,利用人工智能技術(shù),無人機(jī)已不僅是執(zhí)行定點(diǎn)清除等特殊任務(wù)的執(zhí)行者,更成為情報(bào)搜集、目標(biāo)定位、策略制定和行動發(fā)起的協(xié)調(diào)平臺,擔(dān)負(fù)起前沿信息節(jié)點(diǎn)和策略制定等重要任務(wù)。此外,人工智能技術(shù)的成果同樣可以應(yīng)用于對于各種智能化武器的訓(xùn)練過程中。智能化武器的規(guī)模越大,其在戰(zhàn)斗中相互協(xié)調(diào)的優(yōu)勢就越容易發(fā)揮出來。通過共同的算法進(jìn)行“訓(xùn)練”的大批量智能化武器可以協(xié)調(diào)行動,有助于其最大限度地優(yōu)化其作戰(zhàn)策略,并且根據(jù)戰(zhàn)場形勢和作戰(zhàn)目標(biāo)進(jìn)行靈活調(diào)整,最大限度地獲得戰(zhàn)場優(yōu)勢。③Vincent Boulanin, MaaikeVerbruggen.Mapping the Development of Autonomy in Weapon Systems[M]. Sweden: Stockholm International Peace Research Institute, 2017:27-29; Peter Singer, Wired for War: The Robotics Revolution and Conflict in the Twenty-first Century[M]. London:Penguin, 2009:124-125.
然而,武器系統(tǒng)的快速進(jìn)步也為國家的軍事行為帶來了嚴(yán)重的倫理問題。隨著技術(shù)的進(jìn)步,完全自主的致命性武器系統(tǒng)能夠做到主動識別和選擇目標(biāo),確定擬對目標(biāo)施加的武力級別,并在特定的時間和空間范圍內(nèi)對目標(biāo)實(shí)施規(guī)定的武力。但自主武器是否有權(quán)力在沒有人為干涉的情況下自主決定對于目標(biāo)的殺傷,仍然是人類倫理領(lǐng)域的一個尚無答案的問題。人類社會的運(yùn)行要建立在很多具有共識性的倫理基礎(chǔ)之上,即使是軍事行為也有很多明確的國際法規(guī)范。然而,這些法律規(guī)范都立足于人類之間的戰(zhàn)爭行為,對于智能化武器的規(guī)范尚未形成。特別是處于弱勢一方的軍事組織,在無法通過消滅有生力量的方式制止對方戰(zhàn)爭行為的情況下,是否有權(quán)利對于對方城市平民發(fā)動襲擊,迫使對方停止侵略行為?如果這種行為能夠被接受,那么軍事行動的合法性界限到底在哪里?在這些問題得到有效解決之前,一旦在現(xiàn)實(shí)戰(zhàn)場上出現(xiàn)智能化武器自主決定對于人類的大規(guī)模殺傷,人類社會的倫理原則就將面臨重大考驗(yàn)。
2.3.2 更加有效的作戰(zhàn)體系的出現(xiàn)很可能觸發(fā)新一輪的軍備競賽
人工智能技術(shù)的進(jìn)步和智能化武器的發(fā)展,可以使人工智能時代的作戰(zhàn)體系逐漸趨向去中心化的動態(tài)網(wǎng)絡(luò)結(jié)構(gòu)。由于智能化武器本身有承載作戰(zhàn)關(guān)鍵節(jié)點(diǎn)的功能,且相互之間能夠?qū)崿F(xiàn)數(shù)據(jù)和策略共享,因此,在戰(zhàn)爭過程中能夠做到相互取代,從而避免了因?yàn)殛P(guān)鍵節(jié)點(diǎn)被攻擊而導(dǎo)致整個作戰(zhàn)系統(tǒng)失效的結(jié)果。同時,人工智能具有更加全面高效搜集戰(zhàn)場信息的能力,能夠利用智能系統(tǒng)重新構(gòu)筑戰(zhàn)場形態(tài),實(shí)現(xiàn)對戰(zhàn)場真實(shí)情況最大限度的模擬。在人工智能技術(shù)的推動下,在軍事安全領(lǐng)域能夠出現(xiàn)更加有效的作戰(zhàn)體系。
事實(shí)上,人工智能擁有兩個人類無法比擬的優(yōu)勢,其一,人工智能系統(tǒng)可以快速處理戰(zhàn)場信息,具有人類所不具備的快速反應(yīng)能力。其二,人工智能系統(tǒng)具有多線程處理能力,可以同時處理軍事行動中同時發(fā)生的多項(xiàng)行動,并且提出人類思維模式所無法理解的復(fù)雜策略。①Li Yingjieet, al.RTS Game Strategy Evaluation Using Extreme Learning Machine[J].Soft Computing, 2012, 16(09):1623-1637.速度是現(xiàn)代戰(zhàn)爭中的重要優(yōu)勢,在現(xiàn)代戰(zhàn)爭信息超載的情況下,成熟的人工智能系統(tǒng)的反應(yīng)速度和策略安排都將遠(yuǎn)遠(yuǎn)超過人類體能的極限。技術(shù)的影響將加劇常規(guī)軍事力量對抗的不平衡狀態(tài),缺少人工智能技術(shù)輔助的武裝力量將越來越難以通過戰(zhàn)術(shù)與策略彌補(bǔ)戰(zhàn)場上的劣勢。常規(guī)對抗將不再是合理的戰(zhàn)略選項(xiàng),不對稱戰(zhàn)爭將成為這兩種力量對抗的主要方式。
人類既有的歷史經(jīng)驗(yàn)多次驗(yàn)證了任何科技革命的出現(xiàn)都會使率先掌握新科技的國家與其他國家之間的力量差距進(jìn)一步擴(kuò)大。作為人類科技史上最新的力量放大器,人工智能在軍事領(lǐng)域已經(jīng)展現(xiàn)出明顯超越人類的能力與持續(xù)發(fā)展的潛力。一旦技術(shù)發(fā)展成熟,這種差距已經(jīng)很難用數(shù)量堆砌或策略戰(zhàn)術(shù)加以彌補(bǔ),應(yīng)用人工智能的國際行為體在軍事行動中很難被尚未使用人工智能技術(shù)的對手擊敗,國際主體間的力量鴻溝變得更加難以跨越。面對這樣的技術(shù)變革浪潮,所有具有相應(yīng)技術(shù)基礎(chǔ)的大國必然會千方百計(jì)地獲取相關(guān)技術(shù),一場以人工智能技術(shù)為核心的新的軍備競賽恐怕很難避免。
2.3.3 人工智能技術(shù)會大大降低戰(zhàn)爭的門檻
在現(xiàn)代國際體系中,戰(zhàn)爭被普遍視為國際政治行為中的極端手段。巨大的經(jīng)濟(jì)成本與傷亡所造成的國內(nèi)政治壓力實(shí)際上給戰(zhàn)爭設(shè)置了較高的門檻。然而,隨著人工智能技術(shù)的介入,戰(zhàn)爭行動的成本與風(fēng)險都有明顯下降的趨勢。
一方面,人工智能技術(shù)的介入將能夠有效節(jié)約軍事行動的成本。智能化武器的使用可以有效節(jié)約訓(xùn)練過程的時間和人力成本。無人作戰(zhàn)武器的訓(xùn)練多依賴于相對成熟的深度學(xué)習(xí)算法,在初始訓(xùn)練結(jié)束后,可以快速復(fù)制到所有同類型無人作戰(zhàn)武器上,完成作戰(zhàn)武器的快速培訓(xùn)過程。最大限度地節(jié)省了人類武器操控者需要對所有個體重復(fù)培訓(xùn)的人力和物力成本,而且可以從整體上做到所有武器操控的同步進(jìn)步。從長時段效果來看,這更是一種更加經(jīng)濟(jì)、更加有效的作戰(zhàn)訓(xùn)練方式。由于算法與數(shù)據(jù)的可復(fù)制性,部分武器的戰(zhàn)損對于整體作戰(zhàn)效能的影響將大大降低。即使在實(shí)際戰(zhàn)斗中出現(xiàn)戰(zhàn)損情況,其實(shí)際損失也要明顯小于傳統(tǒng)作戰(zhàn)武器。
另一方面,傳統(tǒng)戰(zhàn)爭模式中最為殘酷的一面是戰(zhàn)爭導(dǎo)致的人員傷亡,這也是現(xiàn)代社會戰(zhàn)爭行為最為嚴(yán)重的政治風(fēng)險。而智能化武器的廣泛應(yīng)用實(shí)際上減少人類直接參與戰(zhàn)斗的過程,人與武器實(shí)現(xiàn)實(shí)質(zhì)性分離,將戰(zhàn)爭活動在很大程度上轉(zhuǎn)變?yōu)槔脽o人武器系統(tǒng)的任務(wù)。從而有力地規(guī)避了大量傷亡所導(dǎo)致的政治風(fēng)險。在傳統(tǒng)的戰(zhàn)爭形態(tài)中,由于人類的深度參與,戰(zhàn)爭的雙方都有較大的可能出現(xiàn)重大傷亡,這是戰(zhàn)爭的不確定性所決定的。在現(xiàn)代政治體系中,戰(zhàn)爭所導(dǎo)致的大量本國人員傷亡會在國內(nèi)政治領(lǐng)域形成重要的社會壓力,客觀上增加了大國發(fā)動戰(zhàn)爭的顧慮,提升了戰(zhàn)爭的門檻。然而,隨著智能化武器的廣泛使用,人員傷亡能夠大大減少,政治風(fēng)險極大降低。這種情況實(shí)質(zhì)上鼓勵大國減少自我約束,更多采取進(jìn)攻性的行動來達(dá)到相應(yīng)的目的,也會對國際安全形成新的不穩(wěn)定因素,客觀上為大國之間的技術(shù)軍備競賽提供了額外的動力。
2.3.4 人工智能技術(shù)給網(wǎng)絡(luò)安全問題帶來的重大風(fēng)險
網(wǎng)絡(luò)安全本身就是具有顛覆性、殺手锏性質(zhì)的領(lǐng)域,人工智能的應(yīng)用將會進(jìn)一步放大網(wǎng)絡(luò)安全在進(jìn)攻和防御方面的作用,從而使得強(qiáng)者愈強(qiáng)。同時,人工智能在網(wǎng)絡(luò)攻擊行動和網(wǎng)絡(luò)武器開發(fā)中的應(yīng)用也會帶來很大的安全風(fēng)險。這種風(fēng)險主要表現(xiàn)在對自主選擇目標(biāo)的攻擊是否會引起附帶的傷害,是否會超出預(yù)設(shè)的目標(biāo)從而導(dǎo)致沖突升級。在現(xiàn)有網(wǎng)絡(luò)領(lǐng)域的沖突中,各方在選擇目標(biāo)和采取的破壞程度時都會非常謹(jǐn)慎,避免產(chǎn)生不必要的傷害以及防止沖突發(fā)生。但是人工智能網(wǎng)絡(luò)武器的使用是否能夠遵循這一謹(jǐn)慎,能否將更多在網(wǎng)絡(luò)安全之外的因素納入到攻擊目標(biāo)的選擇和攻擊程度的決策上,仍然存在疑問。因此,自主攻擊的網(wǎng)絡(luò)武器開發(fā)應(yīng)當(dāng)被嚴(yán)格限制在特定的環(huán)境之下,并且精確地開展測試。
另一方面,自主攻擊網(wǎng)絡(luò)武器的擴(kuò)散將會對網(wǎng)絡(luò)安全造成更加難以控制的危害。近年發(fā)生的網(wǎng)絡(luò)武器泄露已經(jīng)給國際安全造成了嚴(yán)重威脅,類似于WannaCry和NotPetya這樣源自于美國國家安全局武器庫中網(wǎng)絡(luò)武器泄露再次開發(fā)而成的勒索病毒給國際社會帶來了幾百億美元的經(jīng)濟(jì)損失和重大的公共安全危害。如果更具危害的自主性網(wǎng)絡(luò)武器一旦泄露,其給網(wǎng)絡(luò)安全帶來的威脅將會更加嚴(yán)重。試想如果恐怖主義集團(tuán)獲得了可以自動對全球各個關(guān)鍵基礎(chǔ)設(shè)施發(fā)動攻擊的網(wǎng)絡(luò)武器,那么將會對全球網(wǎng)絡(luò)安全造成嚴(yán)重危害。因此,自主網(wǎng)絡(luò)武器需要有嚴(yán)格加密和解密的規(guī)定,并且還應(yīng)當(dāng)具有在泄露后自我刪除、取消激活等功能。
2.3.5 技術(shù)本身的安全問題與技術(shù)擴(kuò)散對于全球安全的威脅
人工智能技術(shù)的介入能夠使軍事武器的作戰(zhàn)效能提升,同時推動成本逐步下降,兩方面優(yōu)勢的同時存在將使得對智能化武器的追求成為各大國的合理選擇,但這并不意味著人工智能技術(shù)已經(jīng)完全解決了可靠性的問題。從目前情況看,人工智能技術(shù)本身的安全問題與技術(shù)擴(kuò)散風(fēng)險仍然不可忽視。
一方面,技術(shù)本身仍存在潛在的安全問題。算法與數(shù)據(jù)是人工智能技術(shù)發(fā)展最重要的兩項(xiàng)要素,但這兩項(xiàng)要素本身都蘊(yùn)含著潛在的安全風(fēng)險。算法是由人編寫的,因此,無法保證程序完全安全、可靠、可控、可信。而從數(shù)據(jù)角度來看,人工智能依賴大數(shù)據(jù),同時數(shù)據(jù)的質(zhì)量也會影響算法的判斷。軍事數(shù)據(jù)的獲取、加工、存儲和使用等環(huán)節(jié)都存在著一定的數(shù)據(jù)質(zhì)量和安全風(fēng)險問題。軍隊(duì)的運(yùn)作建立在可靠性的基礎(chǔ)之上,而人工智能技術(shù)本身存在的不確定性會為全球軍事安全帶來考驗(yàn)。
另一方面,人工智能技術(shù)的擴(kuò)散給全球安全帶來了威脅。伴隨著人工智能武器的開發(fā),國際社會面臨將面臨嚴(yán)峻的反擴(kuò)散問題的挑戰(zhàn)??植乐髁x組織以及部分不負(fù)責(zé)任的國家有可能利用各種途徑獲得人工智能武器,并對國際安全和平產(chǎn)生威脅。人工智能從某種意義上而言,也是一種程序和軟件,因此,它面臨的擴(kuò)散風(fēng)險要遠(yuǎn)遠(yuǎn)大于常規(guī)武器。經(jīng)驗(yàn)表明,類似于美國國家安全局的網(wǎng)絡(luò)武器庫被黑客攻擊,并且在暗網(wǎng)進(jìn)行交易,最后被黑客開發(fā)為勒索病毒的案例也有可能在人工智能武器領(lǐng)域重現(xiàn)。如何控制人工智能技術(shù)擴(kuò)散所帶來的風(fēng)險將成為未來全球軍事安全的重要議題。
2.3.6 小結(jié)
人工智能技術(shù)在軍事領(lǐng)域的深度介入,是核武器發(fā)明以來全球軍事領(lǐng)域所出現(xiàn)的最重要的技術(shù)變革之一。①Greg Allen, Taniel Chan.Artificial Intelligence and National Security, Intelligence Advanced Research Projects [M].Activity(IARPA), Belfer Center, Harvard Kennedy School, 2017:15-18.以深度學(xué)習(xí)為標(biāo)志的人工智能技術(shù)可以增強(qiáng)信息化作戰(zhàn)系統(tǒng)的能力,這是改變戰(zhàn)爭形態(tài)的基礎(chǔ)。智能化武器的出現(xiàn)在理論上能夠?yàn)閲姨峁┑统杀竞偷惋L(fēng)險的軍事系統(tǒng),能夠再次在短時間內(nèi)放大主體間軍事力量的差距,擁有人工智能技術(shù)的國家將具有全面超越傳統(tǒng)軍事力量的能力,使對方原本有效的傷害手段失效。新的不平衡狀態(tài)可能會造成重大的倫理問題,而中小國家則不得不面對更加嚴(yán)酷的軍事安全形勢。如果這種狀況不能得到有效管控,大國將陷入新一輪軍備競賽,而中小國家則必然會尋找相關(guān)軍事技術(shù)的擴(kuò)散或新的不對稱作戰(zhàn)方式,以便維持自己在國際體系中的影響能力。
作為新一輪產(chǎn)業(yè)革命的先聲,人工智能技術(shù)所展現(xiàn)出來的顛覆傳統(tǒng)社會生產(chǎn)方式的巨大潛力,以及可能隨之而來的普遍性失業(yè)浪潮將持續(xù)推動著物質(zhì)與制度層面的改變,也持續(xù)地沖擊著人們的思想觀念。面對劇烈的時代變革與動蕩,世界各國都面臨著法律與秩序深度調(diào)整、新的思想理念不斷碰撞等問題。變革時期的社會安全問題也將成為各國不得不面對的重要挑戰(zhàn),新的思想與行動最終將匯集形成具有時代特征的社會思潮,對國家治理方式產(chǎn)生重要影響。
2.4.1 人工智能技術(shù)帶來的法律體系調(diào)整
人工智能技術(shù)在社會領(lǐng)域的滲透逐漸深入,給當(dāng)前社會的法律法規(guī)和基本的公共管理秩序帶來了新的危機(jī)。新的社會現(xiàn)象的廣泛出現(xiàn),超出了原有的法律法規(guī)在設(shè)計(jì)時的理念邊界,法律和制度產(chǎn)品的供給出現(xiàn)了嚴(yán)重的赤字。能否合理調(diào)整社會法律制度,對于維護(hù)人工智能時代的社會穩(wěn)定具有重要意義。針對人工智能技術(shù)可能產(chǎn)生的社會影響,各國國內(nèi)法律體系至少要在以下幾個方面進(jìn)行深入思考:
(1)如何界定人工智能產(chǎn)品的民事主體資格
盡管目前的人工智能產(chǎn)品還具有明顯的工具性特征,顯然無法成為獨(dú)立的民事主體,但法律界人士已經(jīng)開始思考未來更高級的人工智能形式能否具有民事主體的資格。事實(shí)上,隨著人工智能技術(shù)的完善,傳統(tǒng)民法理論中的主體與客體的界限正在日益模糊,學(xué)術(shù)界正在逐步形成“工具”和“虛擬人”兩種觀點(diǎn)。所謂“工具”,即把人工智能視為人的創(chuàng)造物和權(quán)利客體;所謂“虛擬人”是法律給人工智能設(shè)定一部分“人”的屬性,賦予其能夠享有一些權(quán)利的法律主體資格。這場爭論迄今為止尚未形成明確結(jié)論,但其最終的結(jié)論將會對人工智能時代的法律體系產(chǎn)生基礎(chǔ)性的影響。
(2)如何處理人工智能設(shè)備自主行動產(chǎn)生損害的法律責(zé)任
當(dāng)人工智能系統(tǒng)能夠與機(jī)器工業(yè)制品緊密結(jié)合之后,往往就具有了根據(jù)算法目標(biāo)形成的自主性行動能力。然而,在其執(zhí)行任務(wù)的過程中,一旦出現(xiàn)對于其他人及其所有物產(chǎn)生損害的情況,應(yīng)如何認(rèn)定侵權(quán)責(zé)任就成了一個非常具有挑戰(zhàn)性的問題。表面上看,這種侵權(quán)責(zé)任的主體應(yīng)該是人工智能設(shè)備的所有者,但由于技術(shù)本身的特殊性,使得侵權(quán)責(zé)任中的因果關(guān)系變得非常復(fù)雜。由于人工智能的具體行為受算法控制,發(fā)生侵權(quán)時,到底是由設(shè)備所有者還是軟件研發(fā)者擔(dān)責(zé),很值得商榷。
(3)如何規(guī)范自動駕駛的法律問題
智能駕駛是本輪人工智能技術(shù)的重點(diǎn)領(lǐng)域,借助人工智能系統(tǒng),車輛可以通過導(dǎo)航系統(tǒng)、傳感器系統(tǒng)、智能感知算法、車輛控制系統(tǒng)等智能技術(shù)實(shí)現(xiàn)無人操控的自動駕駛,從而在根本上改變?nèi)伺c車之間的關(guān)系。
無人駕駛的出現(xiàn)意味著交通領(lǐng)域的一個重要的結(jié)構(gòu)變化,即駕駛?cè)说南?。智能系統(tǒng)取代了駕駛?cè)顺蔀榻煌ǚㄒ?guī)的規(guī)制對象。那么一旦出現(xiàn)無人駕駛汽車對他人權(quán)益造成損害時,應(yīng)如何認(rèn)定責(zé)任,機(jī)動車所有者、汽車制造商與自動駕駛技術(shù)的開發(fā)者應(yīng)如何進(jìn)行責(zé)任分配。只有這些問題得以解決,才能搭建起自動駕駛行為的新型規(guī)范。
歸結(jié)起來,人工智能技術(shù)對于社會活動所帶來的改變正在沖擊著傳統(tǒng)的法律體系。面對這些新問題和新挑戰(zhàn),研究者必須未雨綢繆,從基礎(chǔ)理論入手,構(gòu)建新時代的法律規(guī)范,從而為司法實(shí)踐提供基礎(chǔ)框架。而所有這些都關(guān)系到社會的安全與穩(wěn)定。
2.4.2 思想理念的競爭性發(fā)展態(tài)勢
隨著人工智能技術(shù)的發(fā)展和進(jìn)步,特別是“機(jī)器替人”風(fēng)險的逐漸顯現(xiàn),人類社會逐漸針對人工智能技術(shù)也將逐漸展示出不同的認(rèn)知與思想理念。不同思想理念之間的差異與競爭反映了社會對于人工智能技術(shù)的基本認(rèn)知分歧。同時,不同思想理念所引申的不同策略與邏輯也將成為未來影響人類社會發(fā)展軌跡的重要方向。
(1)第一種可能廣泛出現(xiàn)的思想理念是:保守主義
事實(shí)上,在每一次工業(yè)革命發(fā)生時,人類社會都會出現(xiàn)對于技術(shù)的風(fēng)險不可控問題的擔(dān)憂,人工智能技術(shù)的進(jìn)步也概莫能外。在深度學(xué)習(xí)算法釋放出人工智能技術(shù)的發(fā)展?jié)摿χ?,在很多領(lǐng)域的人工智能應(yīng)用系統(tǒng)都僅僅需要很短的學(xué)習(xí)時間,便能夠超越人們多年所積累的知識與技術(shù)。人類突然意識到,自己曾經(jīng)引以為傲的思維能力在純粹的科學(xué)力量面前顯得是那樣微不足道。更嚴(yán)重的是,深度學(xué)習(xí)算法的“黑箱”效應(yīng),使人類無法理解神經(jīng)網(wǎng)絡(luò)的思維邏輯。人類對未來世界無法預(yù)知和自身力量有限而產(chǎn)生的無力感所形成的雙重?fù)?dān)憂,導(dǎo)致對技術(shù)的恐懼。這種觀念在各種文藝作品都有充分的表達(dá),而保守主義就是這種社會思想的集中反映。
在他們看來,維持人工智能技術(shù)的可控性是技術(shù)發(fā)展不可逾越的界限。①關(guān)于超人工智能主要特征可參見:Nick Bostrom.Superintelligence: Paths, Dangers, Strategies[M].Oxford: Oxford University Press, 2014.針對弱人工智能時代即將出現(xiàn)的失業(yè)問題,保守主義者建議利用一場可控的“新盧德運(yùn)動”②盧德運(yùn)動(Luddism)是19世紀(jì)初英國工業(yè)革命時期,傳統(tǒng)紡織業(yè)者搗毀機(jī)器的群眾運(yùn)動。20世紀(jì)90年代之后,新一代反對現(xiàn)代技術(shù)的哲學(xué)思潮逐漸出現(xiàn),因?yàn)槌鲇趯ψ詣踊?、?shù)字化負(fù)面影響的擔(dān)心,他們希望限制新技術(shù)的使用,由于同早期盧德運(yùn)動的思想淵源相近,因此被稱為新盧德運(yùn)動(Neo-Luddism)。在弱人工智能時代,預(yù)計(jì)新盧德運(yùn)動將獲得更多的支持,有可能成為一股重要的社會思潮。關(guān)于新盧德運(yùn)動的更詳細(xì)介紹可參見:Steven E. Jones.Against Technology: From the Luddites to Neo-Luddism[M].New York:Routledge, 2006.延緩失業(yè)浪潮,通過政治手段限制人工智能在勞動密集型行業(yè)的推進(jìn)速度,使絕對失業(yè)人口始終保持在可控范圍內(nèi),為新經(jīng)濟(jì)形態(tài)下新型就業(yè)崗位的出現(xiàn)贏得時間。這種思路的出發(fā)點(diǎn)在于盡可能長地維護(hù)原有體系的穩(wěn)定,以犧牲技術(shù)進(jìn)步的速度為代價,促使體系以微調(diào)的方式重構(gòu),使整個體系的動蕩強(qiáng)度降低。
然而,在科技快速發(fā)展的時代,任何國家選擇放緩對新技術(shù)的研發(fā)和使用在國際競爭中都是非常危險的行為。人工智能技術(shù)的快速發(fā)展可以在很短的時間內(nèi)使得國家間力量差距被不斷放大。信奉保守主義理念的國家將在國際經(jīng)濟(jì)和政治競爭中因?yàn)榧夹g(shù)落后陷入非常不利的局面,這也是保守主義思想的風(fēng)險。
(2)第二種可能廣泛出現(xiàn)的思想理念是:進(jìn)步主義
這種觀點(diǎn)的理論出發(fā)點(diǎn)在于相信科技進(jìn)步會為人類社會帶來積極的影響,主張利用技術(shù)紅利所帶來的生產(chǎn)效率提升獲得更多的社會財(cái)富。進(jìn)步主義體現(xiàn)了人類對于人工智能技術(shù)的向往,這一思想理念高度評價人工智能所引領(lǐng)的本輪工業(yè)革命的重要意義。他們解決問題的邏輯是要通過對于制度和社會基本原則的調(diào)整,充分釋放人工智能技術(shù)發(fā)展的紅利,在新的社會原則基礎(chǔ)上構(gòu)建一個更加適應(yīng)技術(shù)發(fā)展特性的人類社會。
在進(jìn)步主義者看來,人工智能技術(shù)所導(dǎo)致的大規(guī)模失業(yè)是無法避免的歷史規(guī)律,試圖阻止這種狀態(tài)的出現(xiàn)是徒勞的。維持弱人工智能時代社會穩(wěn)定的方式不是人為干預(yù)不可逆轉(zhuǎn)的失業(yè)問題,而是改變工業(yè)化時代的分配原則。利用技術(shù)進(jìn)步創(chuàng)造的豐富社會財(cái)富,為全體公民提供能夠保障其保持體面生活的收入。①關(guān)于“無條件基本收入”的相關(guān)問題,參見:Phillipe Van Parijs. Basic Income: A Radical Proposal for a Free Society and a Sane Economy[M].Boston: Harvard University Press, 2017; Karl Widerquist (ed.). Basic Income: An Anthology of Contemporary Research[M].Hoboken, NJ:Wiley-Blackwell, 2013.最終實(shí)現(xiàn)在新的分配方式的基礎(chǔ)上重新構(gòu)建社會文化認(rèn)知,形成新時代的社會生活模式。
進(jìn)步主義思想的主要矛盾在于,它的理論基礎(chǔ)建立在人工智能技術(shù)能夠快速發(fā)展并能夠持續(xù)創(chuàng)造足夠豐富的社會財(cái)富的基礎(chǔ)上,從而滿足全球福利社會的需求。然而,人工智能技術(shù)的發(fā)展歷史從來不是一帆風(fēng)順,從弱人工智能時代到強(qiáng)人工智能時代需要經(jīng)歷多久,至今難有定論。一旦科技進(jìn)步的速度無法滿足社會福利的財(cái)富需求,進(jìn)步主義所倡導(dǎo)的新的社會體系的基礎(chǔ)就將出現(xiàn)嚴(yán)重的動搖,甚至?xí)霈F(xiàn)難以預(yù)料的社會劇烈動蕩。
2.4.3 小結(jié)
變革必然意味著風(fēng)險,風(fēng)險則會帶來社會安全的挑戰(zhàn)。人工智能技術(shù)的發(fā)展和進(jìn)步能夠直接作用于經(jīng)濟(jì)、政治等多個領(lǐng)域,也對于社會結(jié)構(gòu)將產(chǎn)生深遠(yuǎn)影響。面對技術(shù)所帶來的社會安全風(fēng)險,我們既需要積極調(diào)整法律規(guī)制體系,努力維持社會穩(wěn)定,又要在思想層面上對本輪社會變遷進(jìn)行深層次的思考。雖然面對奔涌而來的人工智能浪潮,不同的思想理念展現(xiàn)的應(yīng)對路徑具有明顯的分歧,但無論怎樣,我們在思考人類與人工智能技術(shù)的關(guān)系時,應(yīng)該始終堅(jiān)信,人工智能是人類的造物,是人類知識與理性的偉大結(jié)晶。人工智能可能給世界帶來的威脅遠(yuǎn)遠(yuǎn)不及那些人類自己可能創(chuàng)造的惡。我們應(yīng)該以冷靜而客觀的態(tài)度理解和思考人工智能技術(shù)對于社會的影響,在處于變革中的并且更趨不平等的世界創(chuàng)造更加穩(wěn)定、更加合理、更加體現(xiàn)人類文明與尊嚴(yán)的體系與制度。
目前世界各國政府在人工智能領(lǐng)域的主要關(guān)注點(diǎn)是推動發(fā)展,對其所蘊(yùn)含風(fēng)險則準(zhǔn)備不足。如上文所述,在人工智能時代,世界各國在國家安全領(lǐng)域面臨的各項(xiàng)風(fēng)險是相當(dāng)嚴(yán)峻的。從全球?qū)用鎭砜矗鲊邆涞膽?yīng)對舉措還存在較大的缺點(diǎn)。結(jié)合人工智能技術(shù)特點(diǎn)和應(yīng)用發(fā)展趨勢中可能引發(fā)的各項(xiàng)潛在風(fēng)險,我們認(rèn)為,國家可以從風(fēng)險意識提升、治理體系建設(shè)、加強(qiáng)監(jiān)管能力和國際合作等多個方面來構(gòu)建風(fēng)險分析和應(yīng)對框架,以提升國家安全的韌性。
提升風(fēng)險防范意識是應(yīng)對人工智能時代國家安全風(fēng)險的重要起點(diǎn)。相對于其他領(lǐng)域的安全風(fēng)險,人工智能在國家安全領(lǐng)域的風(fēng)險具有系統(tǒng)性、不確定性、動態(tài)性等特點(diǎn)。此外,人工智能是一個新的風(fēng)險領(lǐng)域,既有的安全治理經(jīng)驗(yàn)很少,人們很難從過去的經(jīng)驗(yàn)中吸取教訓(xùn)。因此,無論是風(fēng)險的識別、預(yù)防和化解都是一項(xiàng)全新的挑戰(zhàn)。建立相應(yīng)的風(fēng)險感知、識別、預(yù)防和化解能力框架是現(xiàn)階段應(yīng)對人工智能風(fēng)險的當(dāng)務(wù)之急。
3.1.1 感知風(fēng)險意識
國家在發(fā)展和應(yīng)用人工智能技術(shù)過程中,應(yīng)當(dāng)重視提高對技術(shù)以及應(yīng)用的風(fēng)險意識。由于人工智能技術(shù)的復(fù)雜性,企業(yè)常常處于技術(shù)創(chuàng)新和發(fā)展的前沿;而國家在某種程度上遠(yuǎn)離技術(shù)的前沿,對技術(shù)的感知存在一定的滯后,并且往往是在事件發(fā)生之后才被動地做出反應(yīng),這樣就會錯過最佳的干預(yù)時期。為了建立主動應(yīng)對的能力,國家首先需要提高對于行業(yè)和領(lǐng)域的風(fēng)險意識,避免由于風(fēng)險意識不足導(dǎo)致的危機(jī)。
例如,在總體國家安全觀以及其包含的政治安全、國土安全、軍事安全、經(jīng)濟(jì)安全、文化安全、社會安全、科技安全、信息安全、生態(tài)安全、資源安全、核安全等在內(nèi)的11個安全領(lǐng)域中高度重視人工智能發(fā)展可能帶來的積極和消極影響。特別是在涉及到政治安全、軍事安全、經(jīng)濟(jì)安全、信息安全、核安全等領(lǐng)域,人工智能所包含的風(fēng)險已經(jīng)開始顯現(xiàn),但相應(yīng)的風(fēng)險意識并沒有跟上風(fēng)險的威脅程度。①Gregory C. Allen,Taniel Chan. Artificial Intelligence and National Security[M].Cambridge: Harvard University, 2017.在這些重點(diǎn)領(lǐng)域和行業(yè),應(yīng)當(dāng)把提升風(fēng)險意識作為制度性工作。
提升風(fēng)險意識需要國家密切關(guān)注人工智能技術(shù)和應(yīng)用的發(fā)展,通過系統(tǒng)思維對其可能在重要安全領(lǐng)域帶來的風(fēng)險進(jìn)行深度思考。提升意識有助于后續(xù)的風(fēng)險識別、預(yù)防和化解的過程,增加國家和社會對風(fēng)險的重視程度,從而加大資源的投入與人才的培養(yǎng)。
3.1.2 識別風(fēng)險能力
識別潛在的風(fēng)險是加強(qiáng)危機(jī)應(yīng)對的重要組成部分,但它又是具有挑戰(zhàn)性的工作。人工智能距離廣泛應(yīng)用還有一段距離,相應(yīng)的風(fēng)險還在逐步地顯現(xiàn),在缺乏足夠的案例的情況下,建立對風(fēng)險的識別能力是一種具有前瞻性和挑戰(zhàn)性的工作。人工智能是一項(xiàng)通用性的技術(shù),有很多方向和突破點(diǎn),這加大了風(fēng)險識別的難度??傮w而言,主要遵循著技術(shù)突破——應(yīng)用創(chuàng)新——新的風(fēng)險這樣一個過程。識別風(fēng)險的階段越早,對于風(fēng)險的控制就越容易。已有的案例和技術(shù)發(fā)展的趨勢表明,人工智能所帶來的風(fēng)險程度高,往往還是具有一定系統(tǒng)性特征,對國家安全所造成的威脅程度較大。對于國家而言,識別人工智能的風(fēng)險能力建設(shè)是一項(xiàng)長期的工作,需要建立跨學(xué)科的知識背景以及相應(yīng)的跨部門協(xié)作機(jī)制,在政治安全、經(jīng)濟(jì)安全、軍事安全、社會安全等領(lǐng)域建立相應(yīng)的風(fēng)險識別機(jī)制,加強(qiáng)相應(yīng)的能力建設(shè)。
3.1.3 風(fēng)險預(yù)防能力
風(fēng)險預(yù)防是指對已經(jīng)識別的風(fēng)險和未能識別的風(fēng)險進(jìn)行預(yù)防。對已經(jīng)能夠識別的風(fēng)險領(lǐng)域,應(yīng)當(dāng)根據(jù)自身的脆弱性,制定相應(yīng)的預(yù)案,并且尋求風(fēng)險降級的方法。對于未能識別的風(fēng)險,則需要投入更多的精力,制定相應(yīng)的規(guī)劃,評估處置措施。在國家安全領(lǐng)域建立風(fēng)險預(yù)防能力對于政府部門的動員能力有很高的要求。在很多風(fēng)險的預(yù)防問題上,政府都缺乏足夠的經(jīng)驗(yàn),缺乏成熟的應(yīng)對機(jī)制,但是卻需要政府部門能夠快速地應(yīng)對,及時的制定相應(yīng)的風(fēng)險預(yù)防計(jì)劃。
3.1.4 風(fēng)險化解能力
風(fēng)險化解的能力,最終決定國家在人工智能時代應(yīng)對國家安全風(fēng)險的結(jié)果。風(fēng)險意識提高、識別能力加強(qiáng)和建立預(yù)防能力都是增加風(fēng)險化解能力的關(guān)鍵。但是,最終如何化解風(fēng)險還取決于多方面的能力要素構(gòu)建。人工智能所具有的跨領(lǐng)域特征,要求首先構(gòu)建相應(yīng)的跨部門協(xié)調(diào)機(jī)制。①M(fèi)iles Brundage, ShaharAvin, Jack Clark, et alia. The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation[M].Cornell:arXiv Archive, Cornell University Library, 2018.人工智能所展現(xiàn)的跨國界特征,則要求建立起相應(yīng)的國際合作機(jī)制??傮w而言,如果化解人工智能的風(fēng)險,就需要持續(xù)的關(guān)注和不斷的加強(qiáng)能力建設(shè),這對國家提出了更高的要求。
最后,風(fēng)險化解一項(xiàng)系統(tǒng)性工程,它并非是要減少和限制人工智能的發(fā)展,相反,它是建立在對人工智能技術(shù)、應(yīng)用、影響等多個維度的精確理解基礎(chǔ)之上,在發(fā)展與安全之間取得平衡的一種能力。風(fēng)險管控越有效,人工智能發(fā)展的空間越大,國家競爭力就越強(qiáng)。因此,提升國家安全領(lǐng)域的人工智能風(fēng)險意識以及建立相應(yīng)的管控機(jī)制,是保障其未來發(fā)展的關(guān)鍵。
在提升風(fēng)險意識和加強(qiáng)風(fēng)險應(yīng)對的同時,國家還應(yīng)當(dāng)主動加強(qiáng)人工智能安全治理體系的建設(shè),將更多的利益攸關(guān)方納入到治理體系當(dāng)中,從技術(shù)、產(chǎn)業(yè)、政策、法律等多個方面建立安全保障體系。
人工智能是知識密集型和資本密集型的領(lǐng)域,人工智能技術(shù)的開發(fā)者,包括算法和數(shù)據(jù)領(lǐng)域的專家以及應(yīng)用開發(fā)領(lǐng)域的人才大多分布在企業(yè)、研究機(jī)構(gòu)當(dāng)中。因此,構(gòu)建多方參與的治理體系是推動人工智能治理的主要方式。①Joseph S. Nye.The Regime Complex for Managing Global Cyber Activities[D].Harvard University, 2014.其中,政府作為監(jiān)管部門,加強(qiáng)與社群和私營部門之間的互動,一方面可以掌握技術(shù)和應(yīng)用發(fā)展的趨勢和方向,另一方面也可以幫助社群和私營部門更好地理解政府的關(guān)切,從而避免因?yàn)楹鲆暫驼`判引起的不必要安全風(fēng)險。
治理不同于管理,很大程度上治理是一種開放、多方參與的過程。很多情況下,治理是自下而上的,強(qiáng)調(diào)技術(shù)導(dǎo)向的治理方式。它與傳統(tǒng)的自上而下、只有政府參與的管理模式存在很大的不同。目前,以多利益攸關(guān)方為主要治理模式的機(jī)制正在人工智能領(lǐng)域出現(xiàn)。②ITU.AI for Good Global Summit Report[EB/OL].Geneva.(2017-06-30).https://www.itu.int/en/ITU-T/AI/Pages/201706-default.aspx.例如,在人工智能的安全與管理領(lǐng)域,正在形成新的以社群為中心的治理機(jī)制,IEEE《以倫理為基礎(chǔ)的設(shè)計(jì)》《阿西洛馬倡議》是其中的代表。而國際電信聯(lián)盟這樣的政府間組織也在通過多利益攸關(guān)方模式發(fā)起《向善的人工智能倡議》。[5]
政府應(yīng)與其他的利益攸關(guān)方之間加強(qiáng)交流合作,通過相應(yīng)的互動機(jī)制幫助各方更好地理解國家安全領(lǐng)域的風(fēng)險,以及共同制定相應(yīng)的風(fēng)險管控機(jī)制;避免由于知識與政策之間的鴻溝影響技術(shù)社群、私營部門與政府之間的溝通障礙,導(dǎo)致風(fēng)險出現(xiàn)以及相應(yīng)的風(fēng)險管控措施無法出臺。
從國家安全角度來看,政府是應(yīng)對風(fēng)險最主要的責(zé)任人,加強(qiáng)政府的監(jiān)管能力是降低人工智能風(fēng)險、保障技術(shù)與產(chǎn)業(yè)長足發(fā)展的關(guān)鍵。從政府角度而言,建立人工智能的技術(shù)標(biāo)準(zhǔn)體系、應(yīng)用開發(fā)的規(guī)范體系以及建立與人工智能時代相適應(yīng)的法律體系是保障監(jiān)管能力的關(guān)鍵。
3.3.1 技術(shù)標(biāo)準(zhǔn)體系
人工智能的技術(shù)標(biāo)準(zhǔn)對于技術(shù)本身是否存在漏洞、符合相應(yīng)的安全要求具有重要的作用。技術(shù)上的漏洞有可能導(dǎo)致人工智能的系統(tǒng)被黑客或其他不法分子利用,從而危害國家安全。例如很多智能音箱所暴露出來對個人隱私的侵犯,以及無人駕駛汽車由于圖像識別能力不足導(dǎo)致的車禍等,都暴露出了人工智能還存著很多的不完善的地方,有可能會引發(fā)新的安全風(fēng)險。對于這些缺陷,應(yīng)當(dāng)不斷提高技術(shù)標(biāo)準(zhǔn)予以克服。
技術(shù)標(biāo)準(zhǔn)由技術(shù)社群主導(dǎo)建立,直接面向工程師和開發(fā)人員,對于提高人工智能應(yīng)用的安全性具有重要作用。例如,作為主要的人工智能技術(shù)社群,IEEE設(shè)立了IEEEP7000標(biāo)準(zhǔn)工作組,設(shè)立了倫理、透明、算法、隱私等10大標(biāo)準(zhǔn)工作組,通過國際化的標(biāo)準(zhǔn)了影響整個技術(shù)社群。[5]2018年1月,中國國家標(biāo)準(zhǔn)化管理委員會宣布成立國家人工智能標(biāo)準(zhǔn)化總體組、專家咨詢組,負(fù)責(zé)全面統(tǒng)籌規(guī)劃和協(xié)調(diào)管理我國人工智能標(biāo)準(zhǔn)化工作。[6]標(biāo)準(zhǔn)雖然是面向開發(fā)者,但是它作為技術(shù)人員所應(yīng)遵循的基本規(guī)范,對于國家安全而言具有重要作用。
3.3.2 程序規(guī)范體系
在標(biāo)準(zhǔn)之上,國家還應(yīng)當(dāng)在不同的部門制定相應(yīng)的規(guī)范流程,確保對安全風(fēng)險的控制。以軍事領(lǐng)域?yàn)槔?,無論是半自主和全自主的武器系統(tǒng),其設(shè)計(jì)應(yīng)允許指揮官和作戰(zhàn)人員在使用武力方面作出適當(dāng)?shù)娜藶榕袛唷T跊Q定是否使用人工智能武器時,應(yīng)當(dāng)制定明確的規(guī)范和流程,避免造成不可預(yù)測的后果。①US DOD, Autonomy in Weapon Systems, No. 3000.09, Nov 21, 2012.同時,還應(yīng)當(dāng)加強(qiáng)對人工智能武器的安全性,避免武器泄露或者隨意轉(zhuǎn)讓相關(guān)技術(shù)。無論是無意或者有意的擴(kuò)散都會增加軍備競賽的風(fēng)險,威脅國際安全體系。
同時對于人工智能軍事領(lǐng)域的使用,也應(yīng)當(dāng)有一套嚴(yán)格的流程,確?!昂戏ㄊ褂谩?,即負(fù)責(zé)授權(quán)使用、指揮使用或操作自動化和半自主武器系統(tǒng)的人必須遵守戰(zhàn)爭法、其他國際條約、武器系統(tǒng)的安全規(guī)則以及適用的交戰(zhàn)規(guī)則(ROE)。
3.3.3 法律法規(guī)體系
為應(yīng)對人工智能時代的安全問題,國家應(yīng)當(dāng)建立相應(yīng)的法律、法規(guī)體系。國際和國內(nèi)法律界對此展開了激烈討論。有學(xué)者認(rèn)為,“智能革命的出現(xiàn),對當(dāng)下的倫理標(biāo)準(zhǔn)、法律規(guī)則、社會秩序及公共管理體制帶來一場前所未有的危機(jī)和挑戰(zhàn)。它不僅與已有法律秩序形成沖突,凸顯現(xiàn)存法律制度產(chǎn)品供給的缺陷,甚至?xí)嵏参覀儤I(yè)已構(gòu)成的法律認(rèn)知?!盵7]具體而言,人工智能已經(jīng)在法律資格的主體、致人傷害的責(zé)任認(rèn)定等多個方面提出了現(xiàn)實(shí)的問題。
從國家安全角度來看,人工智能的法律、法規(guī)所包含的內(nèi)容更加豐富。從軍事領(lǐng)域看,在應(yīng)對人工智能武器攻擊時,如何從國際法角度去認(rèn)定攻擊的性質(zhì)和攻擊的溯源,并應(yīng)采取何種形式的反擊和應(yīng)對舉措?在經(jīng)濟(jì)領(lǐng)域,如何去規(guī)范人工智能造成的金融系統(tǒng)安全問題?如何明確相應(yīng)的責(zé)任,對相關(guān)的企業(yè)和人員進(jìn)行處罰?在政治安全領(lǐng)域,對于類似“劍橋分析”的大數(shù)據(jù)公司和互聯(lián)網(wǎng)社交媒體平臺,應(yīng)當(dāng)如何制定相應(yīng)的法律法規(guī),禁止其通過人工智能對政治安全進(jìn)行干擾和破壞?
人工智能所帶來的問題具有全球?qū)傩?,它不是某一國家或者某一領(lǐng)域的治理問題。從技術(shù)本身來看,人工智能算法與安全問題是人類共同面臨的挑戰(zhàn),具有普適性;從應(yīng)用角度來看,各國在人工智能的發(fā)展和應(yīng)用上對國家安全造成的威脅是跨國界的;從體系角度來看,人工智能對于地緣經(jīng)濟(jì)、地緣安全的顛覆性影響,沖擊甚至重塑著現(xiàn)有的國際政治體系,從而影響體系中每一個行為體的國家安全。因此,加強(qiáng)人工智能領(lǐng)域的國際合作對于應(yīng)對國家安全風(fēng)險具有重要作用。
3.4.1 國際法
聯(lián)合國高度關(guān)注人工智能對于國家安全的影響,經(jīng)過2014年和2015年的兩次非正式會議后,在2016年12月16日關(guān)于特定常規(guī)武器公約的聯(lián)合國會議上成立了致命性自主武器系統(tǒng)(LAWS)政府專家組(GGE)。該小組的任務(wù)是研究致命性自主武器領(lǐng)域的新興技術(shù),評估其對國際和平與安全的影響,并為制定相應(yīng)的國際法和國際治理提供建議。①UNICRI.CBRN National Action Plans: Rising to the Challenges of International Security and the Emergence of Artificial Intelligence[EB/OL].(2015-10-07).http://www.unicri.it/news/article/CBRN_Artificial_Intelligence.2018年9月在日內(nèi)瓦召開的聯(lián)合國常規(guī)武器公約的討論中,各方就制定禁止人工智能驅(qū)動的致命性完全自主武器的條約開展討論。全球約有26個國家支持全面禁止人工智能武器,而絕大多數(shù)國家還在觀望,所以這次會議并未達(dá)成共識。②UNIDIR.The Weaponization of Increasingly Autonomous Technologies: Concerns, Characteristics and Definitional Approaches[EB/OL].Geneva:2017. http://www.unidir.org/files/publications/pdfs/the-weaponization-of-increasingly-autonomous-technologies-concerns-characteristicsand-definitional-approaches-en-689.pdf.但是,在規(guī)則缺失和大國戰(zhàn)略競爭的背景下,軍事領(lǐng)域人工智能的發(fā)展帶來的風(fēng)險和威脅在不斷增加,出臺國際法對于減小人工智能安全風(fēng)險至關(guān)重要。
技術(shù)強(qiáng)國與弱國之間存在不同的觀點(diǎn)是導(dǎo)致相應(yīng)的國際法難以出臺的重要原因。技術(shù)弱國認(rèn)為應(yīng)當(dāng)完全禁止致命性自主武器的開發(fā)使用,技術(shù)強(qiáng)國則持相反意見,認(rèn)為開發(fā)致命性自主武器可以降低人員損傷,有利于打擊恐怖主義和維護(hù)國家安全,并且很多系統(tǒng)已經(jīng)在戰(zhàn)場上進(jìn)入實(shí)戰(zhàn)。軍事是推動技術(shù)進(jìn)步的重要因素,互聯(lián)網(wǎng)就是由美國軍方所發(fā)明,同樣,人工智能的技術(shù)發(fā)展背后也有軍事因素在強(qiáng)力推動。但是,人工智能的軍備競賽也非技術(shù)之福,特別是致命性自主武器的擴(kuò)散會造成更為嚴(yán)重的后果。因此,從聯(lián)合國層面制定相應(yīng)的國際法,并且促成大國之間在發(fā)展致命性自主武器上達(dá)成一定的軍控條約是當(dāng)務(wù)之急。
當(dāng)前,在國際法不明確的情況下,各國應(yīng)克制在軍事領(lǐng)域使用人工智能武器。聯(lián)合國政府專家組也應(yīng)考慮對國際法此前未曾預(yù)見的情況追加法律限制,并以道德或倫理為由盡量減少對人和平民的傷害。更進(jìn)一步的目標(biāo)包括管理以下風(fēng)險,如使用武力的門檻降低、意外導(dǎo)致的傷害、預(yù)期之外的矛盾升級以及軍備競賽和擴(kuò)散。
3.4.2 雙邊及多邊合作
從聯(lián)合國角度來達(dá)成一項(xiàng)談判可能需要十年甚至更長的時間,鑒于越來越多的風(fēng)險,大國之間應(yīng)當(dāng)及早就人工智能在軍事領(lǐng)域應(yīng)用可能帶來的潛在風(fēng)險開展對話,及早啟動相應(yīng)的軍控進(jìn)程,短期內(nèi)促成技術(shù)強(qiáng)國在謀求戰(zhàn)略優(yōu)勢和國際安全體系穩(wěn)定之間的妥協(xié)。同時,各國政府在面對人工智能時代的國家安全問題上面臨著共同的威脅和挑戰(zhàn),加強(qiáng)彼此之間的合作是應(yīng)對威脅的解決之道。
在軍事領(lǐng)域,大國之間可以就人工智能的發(fā)展以及可能觸發(fā)的軍備競賽問題開展對話,避免由于過度、過快的開發(fā)軍事應(yīng)用而引起的倫理問題,以及對國際安全體系的穩(wěn)定造成沖擊??梢灶A(yù)見,人工智能在軍事領(lǐng)域的應(yīng)用會加速發(fā)展,存在的問題也會越來越多。特別是各國之間對于如何看待人工智能武器,如何進(jìn)行有效互動還存在很大的認(rèn)知差距。這種差距的存在,導(dǎo)致各國在沖突發(fā)生時缺乏有效的應(yīng)對手段。因此,各國之間應(yīng)當(dāng)就人工智能的軍事安全問題開展對話,加強(qiáng)管控,增強(qiáng)政策透明度、建立信任措施,降低相應(yīng)的軍事沖突的風(fēng)險,并且在沖突發(fā)生時能夠采取有效的危機(jī)管控和沖突降級措施。
在政治安全、經(jīng)濟(jì)安全、社會安全領(lǐng)域,許多國家也都在積極開展各種實(shí)踐活動,相應(yīng)的做法之間有很大的相互借鑒之處。各國可以就政策實(shí)踐、信息共享、最佳實(shí)踐、案例研究等問題開展有效對話。目前看來,主要的大國并未在雙邊層面開展相關(guān)的對話,由此帶來的后果是相互之間的猜忌和不信任程度的增加。令人值得警惕的是,很多人把中國與美國在包括人工智能在內(nèi)的高科技領(lǐng)域的競爭比作另一個“星球大戰(zhàn)”,或者所謂的“科技冷戰(zhàn)”,不僅導(dǎo)致了雙方之間相互將對方視為敵手,甚至導(dǎo)致了對科學(xué)研究、供應(yīng)鏈、產(chǎn)品的人為設(shè)限。因此,應(yīng)通過相應(yīng)的對話機(jī)制,通過有效的溝通來尋求更多的合作點(diǎn),避免由于相互猜忌導(dǎo)致的惡性競爭。
總體而言,國家安全風(fēng)險是人工智能發(fā)展過程中各國必須直面的挑戰(zhàn),在面臨共同的威脅時,最優(yōu)的做法是攜手應(yīng)對,通過相應(yīng)的國際合作機(jī)制來降低安全威脅,增加合作空間,讓人工智能更好地服務(wù)于人類社會的發(fā)展,增進(jìn)人類社會福祉。