1956年麥卡錫首次提出“人工智能”這一概念,成為人工智能這門新興學(xué)科正式誕生的標(biāo)志。繼21世紀(jì)開始進(jìn)入計(jì)算機(jī)和互聯(lián)網(wǎng)時(shí)代,到2010年后的大數(shù)據(jù)時(shí)代,到2017年人腦與智能機(jī)器人的世紀(jì)圍棋大戰(zhàn)、AlphaGo三連勝擊敗圍棋世界冠軍柯潔,再到機(jī)器人取代工廠的大量員工,到無人機(jī)運(yùn)送快遞、無人駕駛汽車上路,人工智能的應(yīng)用逐步走進(jìn)并深入影響人類的工作和生活?;诳茖W(xué)技術(shù)的優(yōu)劣雙面性,人工智能應(yīng)用給社會(huì)帶來更多便利的同時(shí)也相應(yīng)帶來安全風(fēng)險(xiǎn)和隱患,智能水平提升帶來顛覆人類安全的潛在風(fēng)險(xiǎn)、智能機(jī)器人應(yīng)用于傳統(tǒng)制造業(yè)乃至現(xiàn)代服務(wù)業(yè)打造的智能工廠帶來的失業(yè)性社會(huì)風(fēng)險(xiǎn)、情感機(jī)器人應(yīng)用對(duì)社會(huì)倫理安全帶來的風(fēng)險(xiǎn),人工智能深度學(xué)習(xí)所需人類大量數(shù)據(jù)帶來的隱私性風(fēng)險(xiǎn),人工智能應(yīng)用導(dǎo)致的風(fēng)險(xiǎn)引發(fā)了人類社會(huì)的嚴(yán)重關(guān)注和熱烈討論。
人工智能又稱AI(Artificial Intelligence),是計(jì)算機(jī)學(xué)科的一個(gè)分支,又是與控制論、心理學(xué)、優(yōu)生學(xué)、自動(dòng)化乃至哲學(xué)密切相關(guān)的綜合性的學(xué)科。其開發(fā)主要有三種路徑:符號(hào)主義學(xué)派、連接主義學(xué)派、行為主義學(xué)派[1]。由于“智能”本身含義就不明確,因此關(guān)于人工智能尚未有一個(gè)明確的定義。麥卡錫最早對(duì)人工智能的定義是“機(jī)器可以像人以智能作出行為一樣擁有機(jī)器智能”[2]。隨著技術(shù)發(fā)展,不同學(xué)者對(duì)此作出不同的定義,但核心在于模擬“人類智能”,智能指人類所特有的現(xiàn)象和能力,而其他生物不具備的特征。人類智能的表現(xiàn)形式為學(xué)習(xí)知識(shí)、感知現(xiàn)象、理解本質(zhì)、思維模式,因此可以這樣定義智能:智能是人通過觀察、理解、思維等來認(rèn)識(shí)事物并通過決策和行為來改變世界和解決問題的能力。《人工智能標(biāo)準(zhǔn)化白皮書》上的定義亦體現(xiàn)了這一核心,人工智能即模擬、延伸人的智能、感知環(huán)境和學(xué)習(xí)知識(shí)來解決問題的系統(tǒng)①。雖然定義的描述方式不同,但筆者認(rèn)為人工智能的本質(zhì)屬性就是模仿人類記憶、感知和學(xué)習(xí)等活動(dòng),達(dá)到像人類智能一樣對(duì)外界反應(yīng)作出判斷并解決問題的目標(biāo),總的來說是對(duì)人類智能的擴(kuò)展和延伸。
人工智能之所以叫“智能”是因?yàn)樯疃葘W(xué)習(xí)的能力,能夠像人類一樣識(shí)別圖像、文字、語言等信息,并通過其算法作出自己的反應(yīng)。卷積神經(jīng)網(wǎng)絡(luò)是模擬人類腦神經(jīng)網(wǎng)絡(luò)而創(chuàng)造的“機(jī)器”大腦,人工智能深度學(xué)習(xí)可以像人的視覺,敏銳地觀察世界。如今深度學(xué)習(xí)能力在自動(dòng)駕駛汽車上的應(yīng)用能夠使汽車更加精準(zhǔn)的識(shí)別面臨的障礙、行人,從而保證駕駛安全;在醫(yī)學(xué)中的應(yīng)用能夠使機(jī)器比醫(yī)生在診斷病情上更加準(zhǔn)確。
人工智能在大數(shù)據(jù)的基礎(chǔ)上進(jìn)行深度學(xué)習(xí),這一數(shù)據(jù)思維源于算法但不依賴于算法,能夠隨機(jī)應(yīng)變,因此具備一定的創(chuàng)造性思維模式和一定程度的自主性。人工智能不管如何擁有自主決定、推理、運(yùn)算、創(chuàng)造,但終究不是人腦,也不是人,因?yàn)閮烧叩母緟^(qū)別在于人類擁有復(fù)雜的感情和自由意志(Free Will)。自由意志首先是一個(gè)哲學(xué)概念,是指人們依照其擁有的條件去決定是否做一件事。顯然,人工智能根據(jù)人們對(duì)其特定的設(shè)置而在一定程度上擁有自主決策和行為,不可能像人一樣可以意識(shí)到自我,也不可能像人類一樣可以自由選擇職業(yè)。
人工智能按照智能水平高低可以分為弱人工智能和強(qiáng)人工智能,弱人工智能(Weak-AI)又稱初級(jí)人工智能,是指人工智能按照輸入的特定程序?qū)ν饨缱鞒龇磻?yīng),進(jìn)而可以模仿人類的行為,如下棋、語音識(shí)別、面部識(shí)別等,但是不能作出推理和真正解決問題,也不擁有自我改變和自主意識(shí)。強(qiáng)人工智能是指在弱智能基礎(chǔ)上的跨越式進(jìn)步,不是指運(yùn)算、模仿等能力更加強(qiáng)大的弱人工智能,而是像人一樣可以擁有自主意識(shí),成為世界上的主體的智能[3]。強(qiáng)人工智能一是可以像人一樣思維,二是超越人的思維模式有獨(dú)特的思維習(xí)慣和行為。如李建中教授認(rèn)為機(jī)器只是看起來有智慧,但是不會(huì)像人擁有自主意識(shí)一樣可以真正的推理和解決問題[4]。鄧志東教授認(rèn)為目前人工智能仍處于感知智能階段,其視覺識(shí)別、自然語言處理、語音識(shí)別等方面只是對(duì)外界的感知,遠(yuǎn)遠(yuǎn)達(dá)不到創(chuàng)造性的智能水平[5]。當(dāng)前人工智能應(yīng)用的領(lǐng)域越來越廣,但都是基于程序設(shè)定和深度學(xué)習(xí)的初級(jí)智能,所作出的智能行為依靠大數(shù)據(jù),不能夠根據(jù)情境作出像人一樣的智能反應(yīng)和行為。相當(dāng)于大腦的強(qiáng)人工智能尚未開發(fā)完成,而超越人類大腦的超人工智能還不確定完成時(shí)間。
人工智能技術(shù)在發(fā)展過程中逐步實(shí)現(xiàn)了與行業(yè)的深度融合,以此來改變傳統(tǒng)的生產(chǎn)模式及生活方式。當(dāng)前學(xué)術(shù)界和產(chǎn)業(yè)界共同推動(dòng)的產(chǎn)業(yè)化階段認(rèn)定的發(fā)展方向是:制造業(yè)、農(nóng)業(yè)、物流、金融、商務(wù)、家居、教育、機(jī)器人、運(yùn)載工具、虛擬現(xiàn)實(shí)與增強(qiáng)現(xiàn)實(shí)[6]。
安全,從現(xiàn)代漢語的字面上理解是“沒有危險(xiǎn),不受威脅,不出事故”。從社會(huì)學(xué)角度講,安全是人最基本的需求。在馬斯洛提出的人類五個(gè)層次的需求中,安全需求處于生理需求之上的第二個(gè)層次的需求,安全的需求有對(duì)秩序穩(wěn)定和社會(huì)保護(hù)的依賴,也有對(duì)法律穩(wěn)定、界限明晰的需求,最基本的需求就是不恐懼、不焦躁、不混亂,所處的環(huán)境是可以讓人依賴的[7]。安全價(jià)值是法的價(jià)值中重要內(nèi)容,一些學(xué)者主張將安全提升至法律最高價(jià)值之列,以托馬斯·霍布斯和杰里米·邊沁為代表的法學(xué)家早已對(duì)安全的概念和價(jià)值進(jìn)行過分析?;舨妓箤⑷嗣竦陌踩鳛檎握x和社會(huì)正義的標(biāo)準(zhǔn)和尺度。邊沁認(rèn)為法律最重要的一個(gè)目的就是控制社會(huì)安全,保護(hù)人身和財(cái)產(chǎn)安全。博登海默在論述法律的性質(zhì)和作用時(shí)把安全同秩序和正義作了區(qū)別和聯(lián)系。他認(rèn)為,安全在法律價(jià)值中被界定為實(shí)質(zhì)價(jià)值,是指實(shí)體上真切的感受到安全,沒有侵略和侵害,也沒有財(cái)產(chǎn)的掠奪和不確定的動(dòng)蕩,在生活中不受公害和變故的頻繁影響,在健康中不受疾病的困擾而不得治,在生產(chǎn)和工作中不因?yàn)槟昀虾褪I(yè)而失去生活來源,這些都構(gòu)成了安全的要素[8]。人工智能應(yīng)用的風(fēng)險(xiǎn),主要存在于相當(dāng)于人腦的強(qiáng)人工智能或超越于人腦的超人工智能時(shí)代,但隨著弱人工智能的普遍應(yīng)用,也將不斷引發(fā)人類、社會(huì)和個(gè)人三個(gè)層次的安全問題。
1.智能自主武器的應(yīng)用
人工智能技術(shù)應(yīng)用在戰(zhàn)爭和自主武器以來,對(duì)其風(fēng)險(xiǎn)的擔(dān)憂不亞于對(duì)核武器的擔(dān)憂。軍事機(jī)器人自投入戰(zhàn)場以來在戰(zhàn)爭中的殺傷力也是逐步提升,且已到達(dá)第三代。在美國對(duì)外的戰(zhàn)爭中,人工智能機(jī)器人戰(zhàn)士殺害了上千名對(duì)手的人類士兵,但同時(shí)出現(xiàn)了誤殺、誤傷上百名平民的情況[9]。也有美國對(duì)伊拉克戰(zhàn)爭中出現(xiàn)戰(zhàn)地機(jī)器人失控而對(duì)美方指揮官瞄準(zhǔn)、殺害的苗頭[10]。
另外,智能武器的發(fā)展既有可能導(dǎo)致“人工智能恐怖主義”走向極端。軍用機(jī)器人發(fā)展越發(fā)趨向智能化,其獨(dú)立自主環(huán)境探測能力增強(qiáng)。與普通士兵相比其成本更低,殺傷力更大,且傷亡更小。機(jī)器人作戰(zhàn)更加冷血,不會(huì)有惻隱之心,因此引發(fā)一場戰(zhàn)爭更加容易,也有可能會(huì)被恐怖組織所利用,形成全球恐怖活動(dòng)的更高一輪恐慌和破壞。即使是中立的技術(shù),被恐怖組織所利用,會(huì)造成更危險(xiǎn)的后果,就有可能出現(xiàn)反對(duì)論所說的人類滅亡。正如霍金說:“人工智能的全方位發(fā)展可能招致人類的滅亡。如最大化使用智能性自主武器[11]。”
2.人工智能應(yīng)用“失控”的風(fēng)險(xiǎn)
對(duì)人工智能失控的擔(dān)憂根本原因在于所謂“奇點(diǎn)”的到來。人工智能先驅(qū)雷·庫茲韋爾在他的書中大膽預(yù)測,十年后人類大腦可以相互傳遞信息,二十年后人工智能系統(tǒng)可以植入大腦而形成人機(jī)融合體,而三十年后人工智能就會(huì)超越人類智能出現(xiàn)可怕的奇點(diǎn)。等到智能水平發(fā)展足夠高時(shí),我們不能預(yù)測人是人工智能輔助的人類,還是有大腦的機(jī)器人[12]。中國Mindputer實(shí)驗(yàn)室制造出世界首個(gè)“人工腦連接體”(True-Brain)的到來使驅(qū)雷·庫茲韋爾的預(yù)言多了幾分可能,人工腦指的是對(duì)大腦神經(jīng)結(jié)構(gòu)進(jìn)行結(jié)構(gòu)性、網(wǎng)絡(luò)狀分析,使機(jī)器能夠模擬大腦的活動(dòng)過程,實(shí)現(xiàn)人工腦對(duì)生物腦活動(dòng)狀態(tài)的追蹤,到那時(shí)與人腦的結(jié)構(gòu)和功能就極其相似,此時(shí)出現(xiàn)的就是類腦人工智能超越人類智能的奇點(diǎn)時(shí)刻②。正如霍金認(rèn)為的,人工智能失控實(shí)質(zhì)是對(duì)智能發(fā)展水平超過人類而成為和人一樣的主體,他可以決定自己的復(fù)制權(quán)和其他需求,而人類失去對(duì)其系統(tǒng)的控制,此時(shí)人類可能就會(huì)被傷害和邊緣化,也有可能會(huì)被毀滅,甚至顛覆人類。
1.社會(huì)性失業(yè)風(fēng)險(xiǎn)
人工智能工作的效率遠(yuǎn)遠(yuǎn)高出人類,尤其是在一些重復(fù)性、輔助性、制造業(yè)等低技術(shù)要求的工作領(lǐng)域,人工智能不需要休息也不會(huì)抱怨,效率高且精準(zhǔn)性也比人類要高的多,此類行業(yè)被機(jī)器人取代的可能性最大。在勞動(dòng)密集型行業(yè)中,如果勞動(dòng)者由人工智能取代,失業(yè)問題將極其嚴(yán)峻。對(duì)于容易被取代而失業(yè)的這部分人來說,較快掌握更多機(jī)器人所取代不了的技術(shù)也是不現(xiàn)實(shí)的,因此社會(huì)的就業(yè)穩(wěn)定性將大大降低,不安定因素升高。麥肯錫全球研究院發(fā)布的報(bào)告也對(duì)中國人工智能自動(dòng)化工作即將取代人類約一半的工作內(nèi)容作出預(yù)測,并認(rèn)為這一可能性在中國極有可能出現(xiàn)[13]。中國智能化帶來的失業(yè)已經(jīng)開始上演,銀行的裁員③和阿里巴巴啟用人工智能員工和客服來取代人類客服、快遞員等工作崗位已經(jīng)有所顯現(xiàn)。
人工智能應(yīng)用取代一些行業(yè)既是必然趨勢,是當(dāng)代經(jīng)濟(jì)發(fā)展中不可阻止和逆轉(zhuǎn)的事實(shí),即使人們會(huì)提升自身能力創(chuàng)造其他的就業(yè)崗位,但這一過程的速度與人工智能應(yīng)用發(fā)展速度相比顯然是緩慢的,個(gè)人對(duì)社會(huì)生產(chǎn)資料分配的需求將在一定時(shí)間內(nèi)得不到滿足,失業(yè)一旦成為規(guī)模必然引起社會(huì)秩序的混亂,犯罪率或群體性事件有可能上升,成為威脅社會(huì)安全的重大隱患。
2.社會(huì)倫理安全挑戰(zhàn)
雖然人類與機(jī)器的根本區(qū)別在于自由意志和人類情感,但機(jī)器突破情感限制而擁有情感并不是不可能的,現(xiàn)有研究已有可以感知到人類情緒的陪伴機(jī)器人,可以在人類情緒失落時(shí)進(jìn)行安慰。人工智能領(lǐng)域有專家認(rèn)為人工智能可以獲得情感,強(qiáng)人工智能和超人工智能更是具備情感和意志的人類大腦。人類社會(huì)是群體性社會(huì),是由人和人之間的關(guān)系維系起來的社會(huì),人類需要家人、朋友等的陪伴,情感的交流互通,這是人類的基本需求和人類社會(huì)的一般倫理規(guī)范。人類的婚姻家庭、工作環(huán)境等,都可能會(huì)因?yàn)闄C(jī)器人擁有感情而使人類孤立,由群居變?yōu)楠?dú)居,社會(huì)結(jié)構(gòu)會(huì)發(fā)生重大顛覆。可能會(huì)發(fā)生人和機(jī)器人相愛,人面對(duì)機(jī)器而選擇逃避更加復(fù)雜、需要付出努力維系的人的關(guān)系。具備意志和情感的人工智能將會(huì)造成人與人的關(guān)系、人與人工智能的關(guān)系和人工智能與人工智能的關(guān)系更加復(fù)雜化和多樣化,對(duì)人類社會(huì)的倫理安全提出重大挑戰(zhàn)。
1.人身損害的安全風(fēng)險(xiǎn)
與其他純工具性的技術(shù)所不同的是,人工智能應(yīng)用有獨(dú)立于人的自主學(xué)習(xí)能力和一定程度脫離人的控制作出智能化決定,及人工智能設(shè)計(jì)者也不能完全確保人工智能的絕對(duì)安全。如中國國際高新技術(shù)成果交易會(huì)上,應(yīng)用于教育的“小胖”機(jī)器人發(fā)生了砸展柜并傷人的事件,2015年德國大眾汽車機(jī)器人伸手擊打工作人員造成死亡的事件,2018年3月美國亞利桑那州優(yōu)步公司的一輛自動(dòng)駕駛汽車撞死一名過路行人,成為全球首例自動(dòng)駕駛汽車撞擊行人致死案件,另外用于外科手術(shù)的機(jī)器人造成大量病人感染、燒傷等傷害、死亡案件。將人工智能應(yīng)用在制造、交通、醫(yī)療、教育等重要領(lǐng)域的過程中會(huì)發(fā)生侵害人身、財(cái)產(chǎn)安全的事故和危險(xiǎn),成為不可忽視的安全風(fēng)險(xiǎn),無疑構(gòu)成法律上的侵權(quán)。
之所以會(huì)出現(xiàn)人工智能應(yīng)用的侵權(quán)問題,一是由于人工智能本身具有的復(fù)雜性和不可預(yù)見性;二是技術(shù)和應(yīng)用處于萌芽階段,產(chǎn)業(yè)發(fā)展只關(guān)注創(chuàng)新、市場和經(jīng)濟(jì)效益,安全因素未能充分考量④;三是有關(guān)人工智能應(yīng)用的法律法規(guī)、行業(yè)規(guī)范、責(zé)任體系等較應(yīng)用水平來講相對(duì)滯后和缺失,安全監(jiān)測和行業(yè)監(jiān)管不明確,應(yīng)用處于混亂和原始的狀態(tài),因此應(yīng)用過程中的人身安全威脅成為首當(dāng)其沖應(yīng)當(dāng)考慮的安全問題。
然而人工智能應(yīng)用的自主性、獨(dú)立性、擬人性使侵害責(zé)任劃分面臨責(zé)任主體、歸責(zé)原則等的復(fù)雜性。以自動(dòng)駕駛汽車致人死亡案件為例,交通法中侵權(quán)責(zé)任的劃分首先是按照過錯(cuò)責(zé)任原則追究駕駛員的責(zé)任,但是當(dāng)汽車處于自動(dòng)駕駛模式時(shí)駕駛員對(duì)汽車是沒有操作的,駕駛員此時(shí)對(duì)汽車安全行使的注意義務(wù)就轉(zhuǎn)移到自動(dòng)駕駛系統(tǒng)上,按照侵權(quán)責(zé)任法的歸責(zé)原則是以行為人的行為為基礎(chǔ)追究責(zé)任的,這種情況下就無法追究駕駛員的過錯(cuò)責(zé)任。正如美國優(yōu)步汽車撞死行人的案件中,司機(jī)沒有駕駛不承擔(dān)侵權(quán)責(zé)任,而自動(dòng)駕駛系統(tǒng)也不是責(zé)任主體,因而對(duì)行人的侵權(quán)責(zé)任無人承擔(dān),這對(duì)被侵權(quán)者來說顯然是不公平的⑤。該案例引起各方對(duì)無人駕駛汽車安全性的顧慮,如何衡量其安全性,如何設(shè)立無人駕駛汽車的通用安全標(biāo)準(zhǔn),如何處理司機(jī)與無人駕駛的角色分工,如何劃分各方侵權(quán)責(zé)任等等一系列問題都亟需法律給予規(guī)范。
2.數(shù)據(jù)信息安全與隱私權(quán)風(fēng)險(xiǎn)
關(guān)于隱私、個(gè)人數(shù)據(jù)保護(hù)等問題的討論自互聯(lián)網(wǎng)快速發(fā)展以來就是學(xué)者研究的重點(diǎn)和難點(diǎn),但不同于之前的是,風(fēng)險(xiǎn)的防控目的已經(jīng)由防止不合理的攫取信息謀取不正當(dāng)利益轉(zhuǎn)為協(xié)調(diào)數(shù)據(jù)作為人工智能發(fā)展的基礎(chǔ)和保護(hù)個(gè)人隱私的權(quán)益之間的取舍,這是由人工智能發(fā)展的云計(jì)算、大數(shù)據(jù)技術(shù)是人工智能發(fā)展的基礎(chǔ),數(shù)據(jù)的收集和挖掘是智能水平發(fā)展的重要?jiǎng)恿碓?。人工智能發(fā)展規(guī)劃提出既要為人工智能發(fā)展建立海量數(shù)據(jù)的大數(shù)據(jù)資源,但又要強(qiáng)化數(shù)據(jù)安全和隱私保護(hù),為數(shù)據(jù)風(fēng)險(xiǎn)和智能發(fā)展提出較為中立的態(tài)度⑥。美國科技網(wǎng)站 Techcrunch 專欄作家 Natasha Lomas 評(píng)論稱,人工智能對(duì)數(shù)據(jù)的需求量是巨大的,比互聯(lián)網(wǎng)、大數(shù)據(jù)等的需求都要大,因?yàn)闄C(jī)器學(xué)習(xí)依賴于海量數(shù)據(jù)的驅(qū)動(dòng)才能發(fā)揮功能提高智能水平[14]。如智能聊天工具就是通過對(duì)用戶手機(jī)中的信息、通訊、聊天習(xí)慣、購物等許多信息的獲取的分析,才能在和人類交談的過程中更加了解人類,達(dá)到圖靈測試的效果,而這樣就使個(gè)人在人工智能應(yīng)用面前變?yōu)椤巴该魅恕薄?/p>
人工智能應(yīng)用的深度學(xué)習(xí)技術(shù)是在數(shù)據(jù)基礎(chǔ)上發(fā)展的,數(shù)據(jù)是人工智能應(yīng)用的前提和基礎(chǔ)。人工智能時(shí)代下個(gè)人信息和數(shù)據(jù)的威脅主要來自兩點(diǎn),一是智能系統(tǒng)漏洞和黑客攻擊本身帶來的數(shù)據(jù)泄露的潛在風(fēng)險(xiǎn),二是由于目前個(gè)人一味追求互聯(lián)網(wǎng)、人工智能帶來的便利而對(duì)個(gè)人信息的保護(hù)意識(shí)低下,人工智能企業(yè)為了追求利益而對(duì)個(gè)人信息以明示或默示的形式加以收集、利用、倒賣,從而使個(gè)人在精準(zhǔn)營銷的便利中落入精準(zhǔn)詐騙的圈套,最終給個(gè)人人身、財(cái)產(chǎn)等都帶來了巨大隱患。
人工智能在指紋識(shí)別、面部識(shí)別、語音識(shí)別以及通過各種應(yīng)用對(duì)個(gè)人隱私進(jìn)行學(xué)習(xí)的過程中,精細(xì)地記錄著個(gè)人生活,掌握個(gè)人隱私,讓侵犯個(gè)人隱私的行為更加方便,需要相應(yīng)的法律和標(biāo)準(zhǔn)對(duì)個(gè)人隱私給予更有力的保護(hù)。當(dāng)前對(duì)隱私的保護(hù)模式采取的是“同意收集”的模式,即對(duì)隱私信息的管制包括對(duì)使用者明示或未明示同意的收集。利用人工智能技術(shù)很容易推導(dǎo)出公民不愿意泄露的隱私,例如從公共數(shù)據(jù)中推導(dǎo)出私人信息,從個(gè)人信息中推導(dǎo)出和個(gè)人有關(guān)的其他人員(如朋友、親人、同事)信息(在線行為、人際關(guān)系等)。這類信息超出了最初個(gè)人同意披露的個(gè)人信息范圍。
法學(xué)對(duì)風(fēng)險(xiǎn)社會(huì)問題的研究的重點(diǎn)是法律制度與法律秩序,在安全風(fēng)險(xiǎn)的管理中,哪怕是一個(gè)細(xì)枝末節(jié)的危險(xiǎn)因子或者可能性較小的災(zāi)難勢頭,都應(yīng)當(dāng)由法律規(guī)則和法律秩序來規(guī)范和預(yù)防[15]20。因此,法律明確人工智能應(yīng)用范圍和程度是預(yù)防和解決安全問題的重要防控途徑。
人工智能“擬人性”的行為特征,使人們懷疑可以自主決定的人工智能應(yīng)用是否會(huì)取代人類,挑戰(zhàn)人類主體地位。同時(shí)人工智能在應(yīng)用過程中的類人性也對(duì)現(xiàn)行法律關(guān)系造成挑戰(zhàn),法學(xué)領(lǐng)域?qū)ζ浞扇烁襁M(jìn)行了討論,目的是為了在人工智能參與下的社會(huì)關(guān)系,明確人和機(jī)器的權(quán)利、義務(wù)關(guān)系和責(zé)任體系。人工智能是否可以獲得法律人格或者說是法律主體資格,意味著人工智能是否可以成為法律上的“人”。當(dāng)前法學(xué)領(lǐng)域關(guān)于人工智能法律人格的討論呈現(xiàn)出否定說和肯定說兩種相反的觀點(diǎn):
第一種是對(duì)人工智能法律人格持否定態(tài)度,主要有王利明、吳漢東教授的客體控制說和鄭戈的工具說。吳漢東教授認(rèn)為從法理學(xué)主客體二分法來說,人工智能不是有生命的自然人也非有獨(dú)立意志的法人,是受法律主體控制的機(jī)器人,不足以取得獨(dú)立的主體地位[15]5;王利明教授從人工智能產(chǎn)生的屬性即代替人類從事一定行為,是作為客體而出現(xiàn)的,不能獨(dú)立享有權(quán)利和承擔(dān)義務(wù),現(xiàn)行的法律體制和規(guī)則可以解決人工智能帶來的挑戰(zhàn),沒必要賦予其民事主體資格[16];鄭戈認(rèn)為人工智能作為人類的工具,造成傷害以后承擔(dān)責(zé)任的還是人,賦予其法律主體地位是多余的[17]。
第二種是對(duì)人工智能法律人格持支持態(tài)度,主要有電子人說、有限人格說和電子代理人。將人工智能視為電子人在實(shí)踐中初見端倪,歐盟、韓國、愛沙尼亞對(duì)人工智能“電子人”或“代理人”已經(jīng)表現(xiàn)出了立法動(dòng)向[18]。郭少飛則從實(shí)踐、法史以及自主能力的本質(zhì)屬性認(rèn)為人工智能符合“電子人”的要求⑦。袁曾認(rèn)為人工智能作為有獨(dú)立意識(shí)的智慧工具,應(yīng)當(dāng)享有權(quán)利承擔(dān)義務(wù)具備法律人格,但是與自然人和法人人格不同的是,人工智能承擔(dān)責(zé)任的能力有限,因此應(yīng)該采用有限人格。電子代理人實(shí)則是將人工智能看作了人的“代理人”,因?yàn)榇砣吮举|(zhì)上也是具有法律人格的人。有學(xué)者以“自主意識(shí)”為標(biāo)準(zhǔn),認(rèn)為人工智能發(fā)展過程中,人工智能會(huì)由原來的保守“工具論”最終實(shí)現(xiàn)“擬制論”的轉(zhuǎn)變[19]。
以上各位學(xué)者支持或否定的態(tài)度是從人工智能是否具有“自主意識(shí)”以及法律主客體要素等進(jìn)行分析,可謂“百花齊放,百家爭鳴”。但從人工智能本質(zhì)及安全角度來看,筆者贊同第一種觀點(diǎn),認(rèn)為人工智能應(yīng)用法律人格的態(tài)度應(yīng)當(dāng)更加保守和謹(jǐn)慎,科技和時(shí)代的發(fā)展推動(dòng)著法律的變革,但并非新興事物的產(chǎn)生都必然引起傳統(tǒng)法律價(jià)值和法律框架體系的變化,尤其是與人類越來越相似的人工智能,更應(yīng)當(dāng)采取理性的態(tài)度去對(duì)待。美國著名哲學(xué)家希拉里·普特南認(rèn)為,人工智能法律地位的有無不是科技發(fā)展程度決定的,而是法律是否賦予它主體資格[20]。從人工智能本質(zhì)屬性出發(fā),任何科技進(jìn)步和發(fā)明都是由人類為主導(dǎo)創(chuàng)造并服務(wù)人類的工具,自產(chǎn)生之日便不具有和人平等的法律屬性。人工智能只是幫助人類的工具,不具有自然人的獨(dú)立意志,不能賦予其法律主體地位[21]。之所以會(huì)產(chǎn)生法律人格的觀點(diǎn)無非是工具能夠像人類一樣有智慧,但仍不能改變它作為工具的屬性?;谝陨戏治鲆约鞍踩珵楹诵牡姆蓛r(jià)值,筆者對(duì)人工智能應(yīng)用法律人格采取否定的態(tài)度,即仍將人工智能應(yīng)用視為人類智能延伸的工具,堅(jiān)持人工智能“工具論”的法律客體原則。
對(duì)于人工智能的應(yīng)用,應(yīng)當(dāng)按照其對(duì)于安全的影響劃分為自由應(yīng)用領(lǐng)域、限制應(yīng)用領(lǐng)域和禁止應(yīng)用領(lǐng)域,采用負(fù)面清單制度明確限制應(yīng)用領(lǐng)域和禁止應(yīng)用領(lǐng)域,并分別采用許可制及嚴(yán)格禁止的方式予以規(guī)范。
1.自由應(yīng)用領(lǐng)域的自由生產(chǎn)制度
人工智能應(yīng)用整體是符合社會(huì)發(fā)展要求的,技術(shù)的越來越成熟在很多領(lǐng)域的應(yīng)用是符合安全和發(fā)展雙重要求的,因此在產(chǎn)業(yè)升級(jí)背景和社會(huì)化應(yīng)用中可以自由應(yīng)用,除法律明確限制應(yīng)用和禁止應(yīng)用的領(lǐng)域之外,均應(yīng)以自由生產(chǎn)為原則,允許企業(yè)自由應(yīng)用人工智能技術(shù)并自由生產(chǎn)。
2.限制應(yīng)用領(lǐng)域的審批制度
自主意識(shí)是人和機(jī)器最大的差別,人工智能目前雖然已經(jīng)可以具有獨(dú)立意識(shí),可以做出獨(dú)立的行為,但仍不具備人類的情緒和感情。但是人工心理和人工情感的研究在世界范圍內(nèi)都處于熱門研究領(lǐng)域,世界上研究帶有情感的機(jī)器人最先進(jìn)的國家就是日本[22]。在應(yīng)用領(lǐng)域兒童和老人陪伴機(jī)器人可以賦予一定情感,這不會(huì)危及人的安全,也不會(huì)引起法律、倫理方面的挑戰(zhàn)。然而像電影《人工智能》中出現(xiàn)的人工智能孩子、人工智能性伴侶等都是像人一樣擁有感情和情緒,他們的應(yīng)用不僅引起了倫理風(fēng)險(xiǎn),還會(huì)在收養(yǎng)、婚姻制度等方面引發(fā)風(fēng)險(xiǎn)。當(dāng)然電影中的都是科幻色彩,但是隨著技術(shù)的進(jìn)步,使機(jī)器富有情感不是沒有可能,但在應(yīng)用范圍中應(yīng)當(dāng)予以嚴(yán)格的限制。
有學(xué)者認(rèn)為人工智能情感和自主意識(shí)應(yīng)當(dāng)為技術(shù)禁區(qū),因?yàn)樽灾饕庾R(shí)作為機(jī)器和人最大的區(qū)別,禁止人工智能擁有自主意識(shí)是保證人作為這個(gè)世界唯一能夠意識(shí)到“我”的獨(dú)立存在的個(gè)體,是保證人自身安全的最重要的屏障。王治東教授認(rèn)為人工智能如果有了“我”的概念和意識(shí),不僅是對(duì)人的模擬,而且具有了人的核心內(nèi)核。在這個(gè)層面而言,人工智能就在個(gè)體上可以成為另一個(gè)物種的“人”[23]。而人工智能一旦有了“我”的自我意識(shí),就會(huì)視人類為異類,這時(shí)將會(huì)對(duì)人類生存造成實(shí)質(zhì)的威脅。但具備情感和自主意識(shí)的人工智能技術(shù)應(yīng)用于孤獨(dú)人陪伴、自閉兒童治療等方面卻有著不可替代的作用,基于此,筆者認(rèn)為在堅(jiān)持人工智能“工具論”的法律原則之下,對(duì)于人工智能情感和自主意識(shí)技術(shù)應(yīng)用的領(lǐng)域,應(yīng)確定為限制應(yīng)用領(lǐng)域,并通過審批制度予以法律監(jiān)管。
同時(shí),限制應(yīng)用的領(lǐng)域要使人工智能的自主化程度和智能水平處于人類可控制的范圍。人工智能應(yīng)用作為人類的工具必然有超過人的強(qiáng)大的能力,但隨著其深度學(xué)習(xí)能力加深,智能是否會(huì)超過人類智能仍是未知,因此要確保人類對(duì)其應(yīng)用程度的把控。如哪些事情可以由智能系統(tǒng)自行決定,哪些又必須靠人來決策,對(duì)于限制應(yīng)用的領(lǐng)域,只有符合安全標(biāo)準(zhǔn)并得到安全許可才能投入商業(yè)應(yīng)用[24]。
3.禁止應(yīng)用領(lǐng)域的嚴(yán)格禁止
正如克隆技術(shù)在成功克隆出一只羊,又克隆出一只狗、一只豬,盡管技術(shù)已經(jīng)成熟,但是無論如何都不能允許克隆人,克隆人不僅面臨復(fù)雜的道德倫理困境,還會(huì)面臨人的生存問題的挑戰(zhàn),因此,目前全世界法律均禁止克隆人。但是這一技術(shù)不是絕對(duì)的被禁止,應(yīng)用在克隆器官方面在醫(yī)療領(lǐng)域卻是一大進(jìn)步,對(duì)人類健康和生命也是有利的。相比較而言,人工智能更具有復(fù)雜性和不可預(yù)測性,對(duì)于全人類造成危險(xiǎn)并顛覆人類的人工智能技術(shù),應(yīng)確定為禁止應(yīng)用領(lǐng)域并嚴(yán)格禁止。首先被確定為禁止應(yīng)用的應(yīng)是智能自主武器的應(yīng)用,其他可能會(huì)被毀滅甚至顛覆人類的人腦技術(shù)也應(yīng)限制于研究領(lǐng)域,明確禁止這一技術(shù)的生產(chǎn)應(yīng)用。
隨著人工智能技術(shù)的發(fā)展,其應(yīng)用的安全風(fēng)險(xiǎn)是不可避免。法律對(duì)于技術(shù)調(diào)控的核心在于規(guī)范技術(shù)的應(yīng)用,在鼓勵(lì)技術(shù)發(fā)展、轉(zhuǎn)化之余,更應(yīng)當(dāng)站在安全的視角,對(duì)技術(shù)應(yīng)用加以安全風(fēng)險(xiǎn)防范,使技術(shù)應(yīng)用達(dá)到最大限度的安全,真正促進(jìn)人類社會(huì)的發(fā)展。人工智能時(shí)代追求高速、自由發(fā)展應(yīng)當(dāng)充分考慮到安全這一人類的基本需求,并立足當(dāng)下分析存在的安全風(fēng)險(xiǎn),明確人工智能與人的關(guān)系,建立多層次的人工智能發(fā)展規(guī)范和模式,走向?qū)崿F(xiàn)健康、安全、穩(wěn)定的人工智能新時(shí)代。
注釋
① 中國電子技術(shù)標(biāo)準(zhǔn)化研究院.人工智能標(biāo)準(zhǔn)化白皮書.2018.1.
② 華春雷.人工腦連接體:類腦人工智能的奇點(diǎn)時(shí)刻來臨.華春雷科學(xué)網(wǎng)博客.
③ 向家瑩.五大銀行集體裁員撤點(diǎn) 競速“智能化轉(zhuǎn)型”.經(jīng)濟(jì)參考報(bào).2018.4.9。銀行柜員的工作和部分銀行網(wǎng)點(diǎn)已經(jīng)被裁撤掉,主要的幾大銀行如工行、農(nóng)行、建行等紛紛裁員,預(yù)計(jì)每家銀行接近有上萬人失業(yè),取而代之的是智能化網(wǎng)點(diǎn)和柜臺(tái)、以及智能客服。中國銀行的年報(bào)提出了智能化網(wǎng)點(diǎn)超過百分之八十覆蓋率的目標(biāo)。
④ 央廣網(wǎng).高交會(huì)官方回應(yīng)機(jī)器人傷人事件:員工操作不當(dāng)所致.2016.11.19,世界機(jī)器人大會(huì)秘書長、中國電子學(xué)會(huì)副理事長徐曉蘭表示,我國服務(wù)機(jī)器人的應(yīng)用還屬于萌芽狀態(tài)或是試用階段,但很多企業(yè)忙于或是急于做市場推廣,更多的是注重它的功能和應(yīng)用,而對(duì)安全方面的設(shè)計(jì)恰恰是它的弱點(diǎn)。這次事件給我們帶來了一個(gè)警示,提醒我們要更加注重服務(wù)機(jī)器人的安全設(shè)計(jì)。
⑤ 曹建峰.全球首例自動(dòng)駕駛致死案背后,“誰來擔(dān)責(zé)”的法理探討.騰訊研究院.
⑥ 2017年7月國務(wù)院《新一代人工智能發(fā)展規(guī)劃》.中華人名共和國政府網(wǎng).
⑦ 郭少飛.“電子人”法律主體論[J].東方法學(xué).2018:10.他認(rèn)為人工智能可以作為電子人的依據(jù)在于:實(shí)踐中人工智能主體已有成例或官方建議;歷史上,自然人、動(dòng)物或無生命體法律主體的演化表明,存在充足的法律主體制度空間容納 “電子人”;法理上,現(xiàn)有法律主體根植之本體、能力與道德要素,“電子人”皆備。由外部視之,人工智能現(xiàn)有及潛在的經(jīng)濟(jì)、社會(huì)、文化、倫理影響以及對(duì)哲學(xué)范式的沖擊,促使既有觀念、模式、體系開始轉(zhuǎn)換,“電子人”的法外基礎(chǔ)已然或正在生成并強(qiáng)化。