(青島大學(xué) 山東 青島 266000)
1950年,圖靈在論文《計(jì)算機(jī)器與智能》中提出了“機(jī)器能夠思維嗎?”,人們開始關(guān)注人工智能??v觀人工智能的發(fā)展史,在20世紀(jì)70-80年代主要是以計(jì)算機(jī)啟發(fā)式編程為基礎(chǔ)來(lái)模擬人類的某一類智能行為。此時(shí)的人工智能并不具備認(rèn)知、意識(shí)等高級(jí)智能,僅僅使機(jī)器能替代人類做一些繁雜勞作。90年代,神經(jīng)網(wǎng)絡(luò)等技術(shù)的突破,使人工智能從基于邏輯走向社會(huì)智能。其超越了只能簡(jiǎn)單模擬人腦邏輯的“人類助手”,變?yōu)榭赡軗碛凶灾饕庾R(shí)的存在。21世紀(jì),隨著各類新興技術(shù)不斷進(jìn)步,人工智能載體材料日益豐富,由模擬人到類人的技術(shù)路徑也日趨成熟。
目前人工智能的研究方法主要使用系統(tǒng)建模,并以此為手段模擬人腦機(jī)制。雖然距離“人工智能超越人類”這一終極目標(biāo)的實(shí)現(xiàn)還有漫長(zhǎng)的道路要走,但是反觀人類科學(xué)與發(fā)展的歷史可以看到,人類的選擇具有盲目性,并非全部具有理性思維。如果量子計(jì)算機(jī)等技術(shù)的發(fā)展可以賦予人工智能某種意義上的意識(shí),最終可能會(huì)讓人類喪失對(duì)該技術(shù)的控制。況且我們對(duì)于世界的認(rèn)知總是基于先行的概念框架才得以可能的,而人類目前對(duì)于宇宙的認(rèn)知范圍還太過狹窄,運(yùn)行于自然界間的客觀規(guī)律尚難以被確切把握,人工智能最終將走向何處將很大可能突破人類現(xiàn)有認(rèn)知,難以為人類所把控。
如今數(shù)據(jù)成為未來(lái)世界最寶貴的資產(chǎn),權(quán)威將會(huì)從人類身下轉(zhuǎn)移到算法上,“人類已從中心主義滾向了X”①。計(jì)算機(jī)的發(fā)展帶來(lái)足夠大的計(jì)算能力,再輔以生物學(xué)中腦科學(xué)研究獲取的大量生物數(shù)據(jù)。兩者的結(jié)合,就有可能創(chuàng)造出比人類更了解自己的算法。而“一個(gè)擁有足夠多的關(guān)于我的數(shù)據(jù)、也有足夠算力的算法能理解我的欲望、情緒、想法、決策,進(jìn)而能夠在很大程度上控制我、操縱我?!贝藭r(shí),在政治、文化等各體系,決策的只能更加依托于大數(shù)據(jù)算法,而人類將會(huì)失去決策能力。正如曼紐爾·卡斯特在《千年終結(jié)》中闡述的那樣,數(shù)據(jù)時(shí)代下人民將與權(quán)利日漸遙遠(yuǎn)。當(dāng)我們放棄以人為中心的世界觀,而秉持以數(shù)據(jù)為中心的世界觀,就難免會(huì)淪落為單純“數(shù)字人類”的社會(huì),②引發(fā)人類身份認(rèn)知的危機(jī)。
隨技術(shù)的發(fā)展,人工智能將在越來(lái)越多領(lǐng)域超過人類,在越來(lái)越多任務(wù)上表現(xiàn)的比人類更出色,其將一步步取代重復(fù)性的人力生產(chǎn)勞動(dòng),且由于具有極高效的信息處理能力,未來(lái)一些高端行業(yè)例如醫(yī)藥制造、金融業(yè)等也將會(huì)由人工智能所操控。少數(shù)擁有先進(jìn)算力與算法的精英階層將控制著經(jīng)濟(jì)與政治話語(yǔ)權(quán)。在此之下工作崗位的減少,大面積失業(yè)現(xiàn)象將到來(lái)。人類社會(huì)很可能在此后被分成兩大階層,一部分是非常少的能創(chuàng)造和使用技術(shù)的階層;另外一部分則是在此經(jīng)濟(jì)體系下難以繼續(xù)創(chuàng)造價(jià)值,將被系統(tǒng)的排除在能使他們自主的地方之外的“無(wú)用階級(jí)”。③人們不禁要擔(dān)憂:“21世紀(jì)經(jīng)濟(jì)學(xué)最重要的問題,可能就是多余的人能有什么用。一旦擁有高度智能而本身沒有意識(shí)的算法接手幾乎一切工作,而且能比有意識(shí)的人類做得更好時(shí),人類還能做什么?”④這部分無(wú)事可做的“無(wú)用階級(jí)”將與全球體系毫無(wú)邏輯、毫無(wú)干系,陷入極端空虛、縹緲的生活狀態(tài)。對(duì)于世界而言,這一部分群體可能成為隨時(shí)爆發(fā)的潛在危機(jī)。
根據(jù)赫拉利的觀點(diǎn),人與其他物種不同,之所以能夠創(chuàng)造生產(chǎn)、發(fā)展經(jīng)濟(jì)。這得益于人類可以進(jìn)行靈活的大規(guī)模合作。而這種合作體系的建構(gòu)是基于人類構(gòu)造了不同于客觀現(xiàn)實(shí)世界的第二層虛擬世界。而在人工智能環(huán)境下,人們的歷史文化意識(shí)將被改變,漂流到虛擬的數(shù)字文化中;生產(chǎn)關(guān)系發(fā)生變革;國(guó)家和政府的力量被逐漸削弱;社會(huì)失去政治權(quán)力的控制等等。這些生產(chǎn)、權(quán)力和經(jīng)驗(yàn)關(guān)系的改變將匯聚成社會(huì)生活、時(shí)間與空間的物質(zhì)基礎(chǔ)的轉(zhuǎn)化,最終使得人類無(wú)法繼續(xù)當(dāng)前集體合作的模式,目前已經(jīng)建構(gòu)的二層虛擬世界將很可能面臨崩塌。在此種境況下,人與人之間如何產(chǎn)生凝聚的力量,重建共存的意識(shí),迫切的需要一種全新的認(rèn)同。
從人本主義的角度出發(fā),技術(shù)發(fā)展的目的是為人所用的。但在現(xiàn)實(shí)生活中,技術(shù)常常突破其應(yīng)為范疇而被濫用。從利用互聯(lián)網(wǎng)技術(shù)進(jìn)行高科技犯罪的現(xiàn)象中我們可以看出,運(yùn)用復(fù)雜技術(shù)的犯罪相較于普通犯罪,其更難事前管控、做出預(yù)測(cè)、且更易為極端分子所操縱;從犯罪后果來(lái)說(shuō)其波及范圍亦更廣、破壞力更強(qiáng);事后追責(zé)懲戒也更為困難。人工智能技術(shù)是通過代碼和算法來(lái)實(shí)現(xiàn)的,對(duì)于參與人員有著極高的專業(yè)性要求;且大多數(shù)人工智能系統(tǒng)是黑盒的,其內(nèi)部原理的隱蔽性可以幫助罪犯規(guī)避審查?,F(xiàn)有法律無(wú)法有效的防范人工智能被濫用。而算法在開發(fā)過程中如果包含價(jià)值偏好和不公正的因素,那么憑借算法的優(yōu)勢(shì)去侵害大眾權(quán)益的案件將會(huì)屢見不鮮。更需要警惕的是,這種濫用的風(fēng)險(xiǎn)不僅僅體現(xiàn)在經(jīng)濟(jì)領(lǐng)域,侵犯人身權(quán)利的范疇更應(yīng)該被關(guān)注。例如,人工智能領(lǐng)域的軍備競(jìng)賽已經(jīng)展露苗頭,一旦人工智能得以武器化,最終毀滅的將會(huì)是全人類。
1978年9月,世界上第一宗機(jī)器殺人案件發(fā)生于日本廣島,一名值班工人死于切割機(jī)器人刀下。2016年5月,世界第一宗自動(dòng)駕駛汽車致人死亡案正是由于特斯拉公司自動(dòng)駕駛技術(shù)的缺陷造成的。2018年11月,由于機(jī)器人錯(cuò)誤的將心臟放錯(cuò)位置,最終使得英國(guó)首例機(jī)器人心瓣修復(fù)手術(shù)以失敗告終,病人也于一周后死亡。我們可以預(yù)見,未來(lái)隨著人工智能技術(shù)的發(fā)展與廣泛應(yīng)用,人工智能造成的人身侵權(quán)案件將會(huì)以更多的形態(tài)呈現(xiàn)。而這一系列侵權(quán)乃至侵害事件的責(zé)任界定將成為人工智能應(yīng)用領(lǐng)域的一個(gè)重要法律問題。以機(jī)器人修復(fù)心臟手術(shù)失敗為例,這一事件中主刀的達(dá)芬奇機(jī)器人是目前世界上最先進(jìn)的手術(shù)機(jī)器人,尚且造成了病人死亡的后果。這些案件中機(jī)器人應(yīng)當(dāng)被賦予何種身份?誰(shuí)來(lái)為它的行為負(fù)責(zé)?機(jī)器人生產(chǎn)商還是程序編寫員還是技術(shù)測(cè)評(píng)師還是該醫(yī)院還是主治醫(yī)生亦或是同意使用機(jī)器人手術(shù)的病人?如果由多方主體共同負(fù)責(zé),那么他們之間的責(zé)任如何劃分?又該適用怎樣的評(píng)判標(biāo)準(zhǔn)?這一過程亦存在著證據(jù)的收集,舉證責(zé)任的分配等難題。
在社交網(wǎng)絡(luò)時(shí)代,人工智能包括3個(gè)核心要素:深度學(xué)習(xí)的算法、高質(zhì)量的數(shù)據(jù)收集、高性能的計(jì)算能力。人工智能技術(shù)發(fā)展主要依賴于大數(shù)據(jù)包括敏感數(shù)據(jù)的收集和使用,在這一過程中,數(shù)據(jù)一旦被披露,將對(duì)個(gè)人隱私產(chǎn)生直接影響。有媒體報(bào)道,2017年5月Google旗下的DeepMind獲取了英國(guó)皇家慈濟(jì)NHS信托基金運(yùn)營(yíng)的3家醫(yī)院160萬(wàn)病人的NHS(英國(guó)國(guó)家醫(yī)療服務(wù)體系)數(shù)據(jù),其中包括HIV感染狀況、過去的吸毒過量和墮胎信息等私密數(shù)據(jù)。該新聞在英國(guó)掀起了軒然大波。此外,在社交網(wǎng)絡(luò)下,個(gè)人隱私遭到無(wú)所不在的窺探,人類實(shí)現(xiàn)了與肉體相分離的數(shù)字化生存。但凡通過鍵盤留下的痕跡都會(huì)迅速系統(tǒng)的被數(shù)據(jù)商收集,通過這些網(wǎng)絡(luò)環(huán)境中所采集的點(diǎn)滴數(shù)據(jù)的集合,可以立體的構(gòu)建出真實(shí)世界中的個(gè)體形象。個(gè)人的行蹤、言談、取向等一系列隱私,都已經(jīng)全面暴露在數(shù)據(jù)的洪流中,基本權(quán)益面臨巨大的威脅。
根據(jù)美國(guó)Narrative Science提供的數(shù)據(jù),在未來(lái)新聞?lì)I(lǐng)域?qū)⒂?0%的稿件由機(jī)器人完成,同時(shí)人工智能也將用于藝術(shù)創(chuàng)作。關(guān)于這些人工智能的生成作品,在涉及到著作權(quán)法領(lǐng)域有兩個(gè)主要問題需要解決:第一,機(jī)器生產(chǎn)的作品是否享有與人創(chuàng)作出的作品相同的權(quán)利?依照我國(guó)現(xiàn)行《著作權(quán)法》,其保護(hù)的作品應(yīng)當(dāng)具有獨(dú)創(chuàng)性并能以某種有形形式復(fù)制。而人工智能的生產(chǎn)是將網(wǎng)絡(luò)中已經(jīng)存儲(chǔ)的數(shù)據(jù)進(jìn)行匯編整理,這是否可以被認(rèn)定為具有獨(dú)創(chuàng)性?是否可以將其認(rèn)定為一項(xiàng)智力成果?第二,該項(xiàng)權(quán)利的權(quán)利享有主體應(yīng)歸屬于機(jī)器還是創(chuàng)制該機(jī)器的人?《著作權(quán)法》中將著作權(quán)人分為兩類:一類是作者,即直接創(chuàng)作作品的人;另一類是非作者,即通過某種法律關(guān)系獲得著作權(quán)的公民、法人或者非法人單位。對(duì)于“作者”亦有明確的說(shuō)明,只有公民即自然人才能成為作者。而人工智能現(xiàn)階段還不具有獨(dú)立的人格意義,不具備法律上的主體地位,因此無(wú)法成為《著作權(quán)法》中的“作者”。但在未來(lái)的發(fā)展中,人工智能必然會(huì)生產(chǎn)出大量的創(chuàng)造物,這些創(chuàng)造物的性質(zhì)、形式和價(jià)值可能將具備甚至高于《著作權(quán)法》所要保護(hù)的法益,對(duì)這部分內(nèi)容進(jìn)一步具體規(guī)制具有非常重要的現(xiàn)實(shí)意義。
人工智能是人類實(shí)現(xiàn)自身解放的重大機(jī)遇,但機(jī)會(huì)與風(fēng)險(xiǎn)及法律問題總是相伴而行。雖然文中的社會(huì)風(fēng)險(xiǎn)當(dāng)前尚未切實(shí)發(fā)生在每一個(gè)個(gè)體身上,但人工智能革命引發(fā)的倫理、意識(shí)形態(tài)、法律問題僅是剛剛開始,伴隨技術(shù)發(fā)展的日新月異,亟需相關(guān)理論的創(chuàng)新和制度創(chuàng)新以跟進(jìn)。在預(yù)防和規(guī)制方面,應(yīng)以理性主義為指導(dǎo),切實(shí)可行的將人工智能納入現(xiàn)有法律體系中來(lái)。
注釋:
① [美]戴維·魯本.《法律現(xiàn)代主義》[M].北京:中國(guó)政法大學(xué)出版社,2004:23.
② 馬長(zhǎng)山.《人工智能的社會(huì)風(fēng)險(xiǎn)及其法律規(guī)制》[J].《法律科學(xué)》,2018,6.
③ [美]曼紐爾·卡斯特.《千年終結(jié)》[M].北京:社會(huì)科學(xué)文獻(xiàn)出版社,2006.
④ [以色列]尤瓦爾·赫拉利.《未來(lái)簡(jiǎn)史》[M].北京:中信出版社,2017.