国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能對法律價值的挑戰(zhàn)與應(yīng)對

2022-11-23 05:26
關(guān)鍵詞:正義秩序算法

金 欣

(陜西師范大學(xué) “一帶一路”建設(shè)與中亞研究協(xié)同創(chuàng)新中心,陜西 西安 710119)

隨著人工智能(artificial intelligence)在科技領(lǐng)域和人們?nèi)粘I钪械膹V泛應(yīng)用,人類社會已經(jīng)步入人工智能時代。新科技的出現(xiàn)必然推動法律制度的變革,人工智能是一種對人類智能造成挑戰(zhàn)的新科技,因此更需要法律變革來應(yīng)對[1]。自2017年國家《新一代人工智能發(fā)展規(guī)劃》等指導(dǎo)性文件發(fā)布后,法律與人工智能的研究成為熱門的法學(xué)研究議題,許多學(xué)者相繼討論了人工智能對法律本身和司法等方面的挑戰(zhàn)[2-6],一些部門法學(xué)者討論了人工智能的法律主體地位、人工智能作品的知識產(chǎn)權(quán)問題以及人工智能的刑事責(zé)任能力等具體的法律問題[7-9]。當(dāng)然,也有一些學(xué)者對人工智能對法律的挑戰(zhàn)提出質(zhì)疑[10],認(rèn)為“人工智能并未對法律基礎(chǔ)理論、法學(xué)基本教義提出挑戰(zhàn),受到挑戰(zhàn)的只是如何將傳統(tǒng)知識適用于新的場景”[11]。

這些研究或著眼人工智能對現(xiàn)有法律規(guī)范的挑戰(zhàn),或關(guān)注人工智能對現(xiàn)有法律規(guī)范的基礎(chǔ)理論的沖擊。但法律不僅是“一套規(guī)則的體系”,更是“一套意義的體系”[12],作為意義體系的法律意味著其規(guī)則中包含著一些特定的價值訴求和價值判斷[13],或者說蘊含、提倡和追求著一些價值,這些價值在立法、法律解釋和司法中都起著重要的作用[14-15],表現(xiàn)了“在人(主體)與法(客體)的關(guān)系中體現(xiàn)出來的法律的積極意義或有用性”[16]。這些價值被稱為法律價值(legal values),一般包括秩序(order)、正義(justice)和自由(freedom)(1)相關(guān)研究參見張文顯:《法哲學(xué)范疇研究》(修訂版),中國政法大學(xué)出版社2001年版,第187-223頁;張恒山:《“法的價值”概念辨析》,《中外法學(xué)》1999年第5期;[英]彼得·斯坦,約翰·香德:《西方社會的法律價值》,王獻平譯,中國法制出版社2004年版;周永坤:《法理學(xué)——全球視野》(第四版),法律出版社2016年版,第176-201頁。秩序、正義和自由并不是法律價值的全部,本文僅以這3個具有代表性的價值來討論人工智能對法律價值的挑戰(zhàn)?!,F(xiàn)代科技首先對人類社會的價值和理念帶來挑戰(zhàn)[17],法律是社會的主要規(guī)則,因此研究人工智能對法律的挑戰(zhàn),更應(yīng)該從法律價值入手。

當(dāng)代人類社會的生產(chǎn)力已經(jīng)高度發(fā)達,但發(fā)展中也面臨著眾多風(fēng)險,而且與工業(yè)社會相比,這些新的風(fēng)險“完全脫離人類感知能力”[18]8,存在于科技發(fā)展的內(nèi)部,人類日常經(jīng)驗通常無法感知。同時,雖然不斷有對技術(shù)和工業(yè)的批判之聲,但技術(shù)統(tǒng)治和自然主義在當(dāng)代社會中仍處于核心地位,而科技發(fā)展“無意間把人僅僅視作有機體”,其掩蓋了許多科技帶來的“現(xiàn)代化風(fēng)險在社會、文化和政治上的內(nèi)涵及后果”[18]11。人工智能作為一種新科技,在對現(xiàn)有法律價值有促進作用的同時,更多的是帶來了前所未有的風(fēng)險和挑戰(zhàn)。

一、人工智能對法律秩序的解構(gòu)

法律是國家給人和公權(quán)力提供的一套具有可預(yù)期性的規(guī)則體系,所以秩序是法律保護和體現(xiàn)的首要價值。法律為國家和社會提供秩序,同時法律也維護現(xiàn)有的秩序,因此法律在追求安定性的同時,還具有一定的保守性。亞里士多德在《政治學(xué)》中曾言:“法律就是某種秩序,良好的法律必然就是良好的秩序。”[19]這說明了秩序?qū)α己梅傻闹匾?。法律體現(xiàn)、維持和保護的秩序主要有兩類,即“關(guān)于財產(chǎn)和人身安全的秩序”“與公權(quán)力的設(shè)立、運行有關(guān)的秩序”[20]。人工智能的出現(xiàn)和發(fā)展對法律所維系的這兩種基本秩序都造成了挑戰(zhàn)。

人工智能的產(chǎn)生得益于數(shù)據(jù)量的增加和計算機運算能力的提升,這兩個條件的發(fā)展與互聯(lián)網(wǎng)的發(fā)展相伴隨。互聯(lián)網(wǎng)的發(fā)展激發(fā)了一個不同于以往社會和地理空間的網(wǎng)絡(luò)空間(cyberspace)的產(chǎn)生。人工智能的活動空間不局限在傳統(tǒng)的社會和地理空間,更多的是在網(wǎng)絡(luò)空間。網(wǎng)絡(luò)空間雖然具有虛擬性,但卻實實在在影響著人類社會秩序,比如網(wǎng)絡(luò)虛擬財產(chǎn)已成為一種重要的新型財產(chǎn),在我國受到《中華人民共和國民法典》等相關(guān)法律保護。網(wǎng)絡(luò)本身也是人類原有秩序的延伸,但因為網(wǎng)絡(luò)空間的虛擬性并缺乏嚴(yán)格的國家性界限,因此在給人類帶來新活動空間的同時,也增加了人類的生存風(fēng)險。

而對主權(quán)國家來說,網(wǎng)絡(luò)主權(quán)與領(lǐng)土主權(quán)相比具有一定的模糊性,所以網(wǎng)絡(luò)空間在法律規(guī)制上跟領(lǐng)土空間相比更難,人工智能在網(wǎng)絡(luò)空間的活動不僅可能破壞網(wǎng)絡(luò)原有的社會秩序,侵害民族國家的網(wǎng)絡(luò)主權(quán),挑戰(zhàn)國家權(quán)力的權(quán)威,還可能通過網(wǎng)絡(luò)空間擾亂人類的現(xiàn)實秩序。同時,決定人工智能活動的是算法(algorithm),設(shè)計和掌握算法的多是像谷歌、微軟之類的大型科技公司,對人工智能和網(wǎng)絡(luò)空間來說,因為在技術(shù)上擺脫了純粹的工具性,在不透明性之上具有了自主性,隨之也產(chǎn)生了“算法權(quán)力”[21]。因此,掌握或開發(fā)算法的大公司在人工智能領(lǐng)域和網(wǎng)絡(luò)空間中的影響力會超越民族國家法律的規(guī)制能力,算法權(quán)力通過網(wǎng)絡(luò)空間和人工智能影響社會秩序和法律秩序。因為算法本身是一個“黑箱”,法律對算法的開發(fā)和運作無法進行有效的規(guī)制,而且算法的結(jié)果具有不確定性和不可預(yù)測性,所以法律對算法權(quán)力的行為和結(jié)果也缺乏有效的制約手段。

人工智能是對人類智能的模擬,這是對人作為法律秩序中主體的雙重解構(gòu),一方面人不再壟斷高級智能,另一方面基于機器和人的結(jié)合,人工智能可以增強人的智能,還可能產(chǎn)生人工智能與人腦結(jié)合的“合成人”。除了模擬能力之外,人工智能更具有獨特的機器學(xué)習(xí)(machine learning)能力,機器學(xué)習(xí)是人工智能不同于其他科技的自我發(fā)展方式,其獨特之處在于算法可以在沒有特定程序的基礎(chǔ)上以數(shù)學(xué)模型進行預(yù)測并做出決定[22],同時產(chǎn)生新的算法。藝術(shù)曾是人類的專屬,但現(xiàn)在已經(jīng)出現(xiàn)了大量人工智能創(chuàng)作的音樂專輯和油畫等藝術(shù)作品。所以有學(xué)者指出:“所有知識,無論是過去的、現(xiàn)在的還是未來的,都可以通過單個通用學(xué)習(xí)算法來從數(shù)據(jù)中獲得。”[23]也就是說,在知識獲取上,人工智能可能遠(yuǎn)遠(yuǎn)超過人,具有代表性的是較多應(yīng)用于醫(yī)學(xué)和技術(shù)領(lǐng)域的人工智能專家系統(tǒng)(expert system),它們在很多方面已經(jīng)超過了單個的人類專家。

如果人工智能發(fā)展到高級階段,以強人工智能為基礎(chǔ)的機器人可以深度學(xué)習(xí),并具有了自主行為能力,自然會成為法律關(guān)系的新主體。這意味著在自然人和團體人之外(團體人的實際運作者也是人),機器人會成為新的法律關(guān)系主體[24],因此需要具有法律權(quán)利并承擔(dān)法律責(zé)任,而在機器人與人的關(guān)系上會從傳統(tǒng)的人機交互發(fā)展到人機共存,形成新的法律關(guān)系,這在現(xiàn)有的法律體系中都很難解決,需要法律秩序的重構(gòu)。這是對現(xiàn)有以自然人和團體人為主體的法律秩序的解構(gòu),相應(yīng)的社會和政治秩序也將被打破。現(xiàn)階段,在基于人工智能的自動駕駛交通事故的責(zé)任分配上,已經(jīng)出現(xiàn)了不少爭議[25]。

一直以來,科技的發(fā)展都會給人類社會帶來一定的次生風(fēng)險,但往往在生產(chǎn)力提升和財富增長的表象中被許可或故意忽視[18]63-68,但這些次生風(fēng)險極可能會危害人類的社會秩序和人類的發(fā)展。就人工智能而言,首先,人工智能可以促進常態(tài)的社會控制,但也潛藏了許多新的風(fēng)險,而且在例外狀態(tài)之時人工智能不僅不能促進社會秩序的維持,還可能加速社會失序[26]。其次,人工智能基于數(shù)據(jù)的運算,可以達到效率最高和利益最大化,但會侵犯社會固有秩序中的公序良俗。比如現(xiàn)在普遍出現(xiàn)的大數(shù)據(jù)殺熟現(xiàn)象,就是通過數(shù)據(jù)運算和信息不對稱達到利益的最大化,這種行為是算法對社會倫理和公序良俗的侵害,在事實上也侵犯了消費者的權(quán)益,但現(xiàn)有法律很難對之進行規(guī)制[27-28]。再次,人工智能會替代許多產(chǎn)業(yè),導(dǎo)致很多人失業(yè),甚至可能代替一切人類勞動。勞動在人類社會發(fā)展中有極為重要的作用,約翰·洛克把勞動看成是財產(chǎn)權(quán)的根源;而亞當(dāng)·斯密認(rèn)為勞動是財富的來源;馬克思則把勞動看成生產(chǎn)力的來源,他還認(rèn)為勞動創(chuàng)造了人,“人與其他動物不同的地方在于勞動”[29]151,更重要的是在這些經(jīng)典思想家看來,“勞動是人至高無上的建構(gòu)世界的能力”[29]164-165。當(dāng)人們因人工智能而放棄勞動,人自身和社會本身都會發(fā)生根本性改變,法律對秩序的維持變得困難。

最后,因為計算機的成本在不斷降低,而數(shù)據(jù)量和運算速度每年至少以50%的速度在增長,新的算法也會讓人工智能的學(xué)習(xí)能力不斷提高,當(dāng)可以深度學(xué)習(xí)的人工智能機器人成為法律主體,就會挑戰(zhàn)啟蒙運動以來形成的以人為基礎(chǔ)、兼顧自然和社會可持續(xù)發(fā)展的現(xiàn)代法律秩序。而且隨著生物科技的不斷發(fā)展,人的大腦中可能會植入智能芯片,其運算速度和數(shù)據(jù)存儲量是一般人的幾何倍數(shù),這種人加上人工智能功能的“新人”會進一步挑戰(zhàn)以人類為基礎(chǔ)的現(xiàn)代法律,法律所維護的秩序也會發(fā)生翻天覆地的變化。而且開發(fā)人工智能和生產(chǎn)機器人的速度遠(yuǎn)遠(yuǎn)超過人類繁衍的速度,如果人工智能機器人數(shù)量不斷增加,超過人類的總數(shù),社會秩序可能不再以人為基礎(chǔ),而是以人工智能為基礎(chǔ)。

阿西莫夫“機器人三定律”所針對的是工具性機器人,但隨著人工智能技術(shù)(特別是強人工智能)的不斷發(fā)展,機器人已經(jīng)從工具性角色轉(zhuǎn)變?yōu)閾碛凶灾餍袨槟芰Γ鼈儾辉賰H僅是人類的助手,而是會有自己獨立的行為能力,甚至利益。政治社會學(xué)家斯科克波在討論國家時提出了國家的“潛在自主性”問題[30],也就是說國家不僅會維護公共利益,國家自身也有其邏輯和利益,且不一定與社會支配階級和全部成員團體的利益一致。如上文所述,人工智能的快速發(fā)展,經(jīng)過不斷的學(xué)習(xí),可能產(chǎn)生機器人和人工智能的自主性,并有了自身的利益。此時機器人和人工智能已經(jīng)不僅僅是工具,也很難遵守阿西莫夫“機器人三定律”。從運算能力和對利益最大化的計算來說,人可能完全不是人工智能的對手(比如阿爾法狗等機器人戰(zhàn)勝人類棋手),因此一旦人工智能發(fā)展到具有完全自主性的階段,人工智能就會從現(xiàn)在的幫助人或替代人的工作,變成威脅人的主體地位,甚至與人類爭奪和競爭生存空間,這不僅會打破現(xiàn)代法律秩序,還會對原來人類社會秩序產(chǎn)生沉重打擊。

總之,網(wǎng)絡(luò)空間拓展了人類的活動范圍,同時也增加人工智能的活動范圍,但網(wǎng)絡(luò)空間中的主權(quán)具有模糊性,因此人工智能可能在網(wǎng)絡(luò)空間中挑戰(zhàn)國家的權(quán)威。更重要的是人工智能挑戰(zhàn)了以人基礎(chǔ)的法律秩序,還可能產(chǎn)生自主性,動搖現(xiàn)有的法律秩序。

二、人工智能侵蝕下的法律正義

正義是維持社會健康發(fā)展的基礎(chǔ),是法律中蘊含的最重要的價值,也是人們評判和認(rèn)同法律的重要標(biāo)準(zhǔn),“人們期待法服務(wù)于正義,并實現(xiàn)正義”[31]153。拉德布魯赫認(rèn)為“實在法的價值標(biāo)準(zhǔn)和立法的目標(biāo)是正義”[32]28,而正義的本質(zhì)和核心是平等思想。法律之下的正義意味著法律需要維持人們之間負(fù)擔(dān)和利益的平等,同時維護和重建社會的平衡或均衡,因此法律正義的核心元素是需要“相同的情況同樣的對待,不同的情況不同對待”[33]153。亞里士多德將正義分為分配正義(distributive justice)和矯正正義(corrective justice)兩類[32]29,前者主要是指國家用公法對財產(chǎn)和利益進行分配,后者是指社會中各主體在物質(zhì)和利益交換中的平等和對價,所以也有人將其稱為交換正義或平衡正義,主要是私法問題。現(xiàn)代法律所追求的正義通常分為程序正義和實質(zhì)正義,體現(xiàn)在法律本身和立法、司法和執(zhí)法的過程中。

作為法律主體的人生活在世界上,每個人都會有不同的運氣,但法律是一般性的社會規(guī)則,是一種抽象簡約的社會規(guī)則,法律“無法區(qū)分個體之間的異同”[33]154,它所蘊含和追求的正義建立在認(rèn)為法律適用對象運氣均等(luck equal)的基礎(chǔ)上(2)這里所論的運氣均等受到平等理論中運氣均等主義(luck egalitarianism)的啟發(fā),但與之不同。運氣均等主義的核心理念是指:“源于人們的自愿選擇所造成的利益上的不平等是可以接受的,但源于人們非自愿選擇的環(huán)境所造成的不平等是不公正的?!眳⒁姼呔爸骸哆\氣均等主義理論:證成與反對》,《世界哲學(xué)》2010年第4期。。也就是說,每部法律都會假設(shè)適用該法律的所有人的運氣是一樣的,因而法律在此基礎(chǔ)上運行,對每個人都是平等的,程序上是正義的。比如一個國家的《民法》或《刑法》會把該國內(nèi)適用這兩部法律的所有人視作擁有均等的運氣的個體,而《殘疾人保護法》會假設(shè)適用該法的所有殘疾人的運氣是均等的。運氣均等作為法律正義價值的起點,更多的體現(xiàn)在對程序正義的追求上。但運氣均等僅僅是一種簡約的假設(shè),實際上每個人的運氣是不同的,所以法律還需要追求實質(zhì)正義來彌補程序正義的不足。人類生活中的運氣可以分為兩類:一類是自然運氣,比如家庭出身、自然災(zāi)害等;另一類是個人選擇的運氣,比如工作地點和職業(yè)的選擇等[34]。這兩種運氣的許多情況都可以通過人工智能的算法來提升,使之往好的方向發(fā)展。但因為不同群體和階層對人工智能的使用程度不同,人和機器人的運算能力和水平也不同,所以會產(chǎn)生巨大的運氣不均等,其破壞了現(xiàn)代法律追求程序正義的前提條件,會把更多的“不正義”轉(zhuǎn)化成了“不幸”(3)對不正義和不幸之區(qū)別的討論,參見(美)朱迪絲·N.施克萊:《不正義的多重面孔》,錢一棟譯,上海人民出版社2020年版。。

美國學(xué)者用“數(shù)字鴻溝”(digital divide)一詞來指在互聯(lián)網(wǎng)時代,由于技術(shù)發(fā)展和分配的不平衡,帶來了不同階層、不同地區(qū)和不同國家之間的巨大差距[35]。由于數(shù)字鴻溝的存在,導(dǎo)致不同人群和不同地區(qū)在獲取信息和獲得機會上的差距,進而產(chǎn)生了巨大的不正義。人類發(fā)展到人工智能時代,互聯(lián)網(wǎng)、大數(shù)據(jù)和人工智能的結(jié)合會讓“數(shù)字鴻溝”進一步加劇,進而產(chǎn)生了“人工智能鴻溝”(AI divide)。換而言之,“人工智能鴻溝”意味著處于一些階層或一些地區(qū)的人很容易接觸和使用人工智能,并因人工智能的幫助讓自己的生活變得更加便利,同時也帶來了自我提升。他們在獲得更多的信息和知識同時,人工智能還可以幫助他們規(guī)避社會風(fēng)險,但還有些人則無法享受人工智能提供的服務(wù)或幫助,甚至接觸不到人工智能。

以我國為例,北京、上海和深圳等一線城市,已經(jīng)率先步入了人工智能時代,但是一些生活在偏遠(yuǎn)地區(qū)的人還使用著非智能手機;年輕人可以很容易使用人工智能產(chǎn)品,而對很多老年人來說人工智能是新生事物;中國和西方發(fā)達國家的人工智能日新月異,而一些非洲國家的人工智能尚未起步。事實上,不了解和不使用人工智能就會失去很多發(fā)展機會,但人工智能在偏遠(yuǎn)地區(qū)的運行因缺乏足夠的基礎(chǔ)設(shè)施而發(fā)展較為緩慢,所以生活在這些地區(qū)的人自然失去了相應(yīng)的發(fā)展機會,這會導(dǎo)致國家內(nèi)部的不平等和地區(qū)發(fā)展不平衡。此外,因為算法的不斷發(fā)展和數(shù)據(jù)量的不斷增加,“人工智能鴻溝”會比“數(shù)字鴻溝”表現(xiàn)得更大、更為突出,如果人工智能作為主體進入法律運作和社會秩序中,人與機器人之間的數(shù)字鴻溝將會有更大。而最棘手的問題是“人工智能鴻溝”帶來的這些不正義目前已經(jīng)初見端倪,但在現(xiàn)行法律體系下卻是合法的,法律一定程度上對此也無能為力。

在“數(shù)字鴻溝”和“人工智能鴻溝”的基礎(chǔ)上,會產(chǎn)生嚴(yán)重的信息不對稱(information asymmetry),阻礙矯正正義的實現(xiàn)。處在人工智能鴻溝一側(cè)掌握和獲得人工智能幫助的一方可以獲得更多的信息和知識,在交易過程中占據(jù)優(yōu)勢,但另一方可能因為無法獲得信息,而處于弱勢地位。信息不對稱出現(xiàn)在交易或合同行為前,則會導(dǎo)致逆向選擇(adverse selection),而出現(xiàn)在交易之后會導(dǎo)致道德風(fēng)險(moral hazard)[36]。矯正正義是私法自治的表現(xiàn),以交易雙方的合意為基礎(chǔ),由交易或合同雙方自主決定[31]165,但是由于人工智能的出現(xiàn)或參與,產(chǎn)生了巨大的信息不對稱,在事前會阻礙市場信任的建立,出現(xiàn)逆向選擇。經(jīng)濟學(xué)家阿克洛夫在《檸檬的市場:質(zhì)量的不確定性和市場機制》中分析了信息不對稱導(dǎo)致逆向選擇的情形,他認(rèn)為在很多市場上,由于買家無法在事前獲取商品質(zhì)量的實際信息,所以不愿意購買高價商品,掌握信息的賣家就有動力提供低質(zhì)量的商品,因為“某種質(zhì)量商品的價格主要決定于所有同類商品質(zhì)量的統(tǒng)計數(shù)據(jù),而非取決于該商品的實際質(zhì)量”[37],這會使高質(zhì)量的商品賣不出應(yīng)有的價格。低質(zhì)量商品會把高質(zhì)量商品驅(qū)逐出市場,造成了劣幣驅(qū)良幣的結(jié)果,阻礙市場良性交易,還可能破壞整個市場秩序。信息不對稱發(fā)生在交易之后的情況是,如果擁有信息的一方甘愿冒道德風(fēng)險偷懶或為自己謀取利益,就會讓缺乏信息的一方蒙受損失而不知。所以人工智能帶來的信息不對稱不管發(fā)生在事前還是事后,都會阻礙矯正正義的實現(xiàn)。

進而言之,人工智能帶來的信息不均衡、智能水平不平衡以及破壞現(xiàn)代法律運氣均等基礎(chǔ)等造成了法律體系之中不正義的增加。法律是面向全社會的規(guī)則,從程序上說它假定適用一部法律的每個人都擁有相同的運氣,因此該法律才能保證實現(xiàn)程序正義。在弱人工智能時代,由于人工智能鴻溝的存在,不同地區(qū)和不同階層的人使用人工智能的機會和程度不同,因此在做出行為和做出決策的時候獲得的信息和幫助不同,人工智能對事件的預(yù)測和評估能力遠(yuǎn)遠(yuǎn)大于人類[38]11,所以運氣變得不均等。而到了強人工智能時代,人工智能不僅會成為法律主體,還可能參與人類社會的競爭,而人工智能算法通過快速的計算可以預(yù)測行為并計算事件發(fā)生的概率,會讓它們擁有更多的運氣。所以法律保障的程序正義很難實現(xiàn),加上矯正正義又要面對太過復(fù)雜和多變的社會狀況,難以實施,正義變成了虛無縹緲的幻影。

人工智能對法律正義價值的挑戰(zhàn)在于人工智能不僅可以服務(wù)人類、模仿人類、增強人類,甚至可能代替人類。在這個過程中會破壞現(xiàn)有法律正義體系的基礎(chǔ)性預(yù)設(shè),進而腐蝕法律所蘊含和實現(xiàn)的正義價值。

三、人工智能干預(yù)下限縮的法律自由

人類社會的進步是人類不斷擺脫奴役和壓迫,個體逐漸獲得自由和解放的過程,所以在馬克思和恩格斯設(shè)想的共產(chǎn)主義社會中,“每個人的自由發(fā)展是一切人的自由發(fā)展的條件”[39]。法律中所蘊含的自由并不是寬泛意義上無拘無束的自由,而是法律之下的自由,如孟德斯鳩所言:“自由,不是無拘無束;自由,是做法律允許之事的權(quán)利。倘若可以做法律禁止之事,就不可能擁有自由,蓋其他人也會享有這種權(quán)利?!盵40]所以法律所推動和實現(xiàn)的自由是不同人的自由相互共存與和平相處的一種方式,是為了社會更和諧、更好的發(fā)展,正因為如此,密爾將自由定義為:“社會所能合法施加予個人的權(quán)力的性質(zhì)和限度。”[41]法律中所蘊含的自由價值表現(xiàn)在法律對私人領(lǐng)域的保護和對公共領(lǐng)域的維持。換言之,法律要保護私人領(lǐng)域的自由,使個人在私人領(lǐng)域不受非法干預(yù),同時維持公共領(lǐng)域來保持公共領(lǐng)域內(nèi)的自由,使個人有參與公共事務(wù)的能力和機會。人工智能的出現(xiàn)已經(jīng)開始對人在私人領(lǐng)域和公共領(lǐng)域的自由造成了威脅。

首先,人工智能壓縮了私人領(lǐng)域,使個人隱私受到威脅,事實上限制了人在私人領(lǐng)域的自由。私人領(lǐng)域,主要是指個人的私人生活(private life)空間,“是家庭生活以及個人良知的領(lǐng)域”[42],主要包括個人的興趣、欲望、情感、信仰、隱私和生活必需品的獲得等方面[43]。但在智能互聯(lián)網(wǎng)時代,人的絕大多數(shù)行為都會被以數(shù)據(jù)的形式收集起來,私人領(lǐng)域也例外。無處不在的攝像頭和生物識別設(shè)備,手機上各種App和GPS定位系統(tǒng)、語音識別系統(tǒng),時時刻刻都在搜集數(shù)據(jù),這種搜集的過程是智能且悄無聲息進行的,很多網(wǎng)絡(luò)服務(wù)的條款讓人在不知情的情況下把自己的行為數(shù)據(jù)上傳。這些數(shù)據(jù)中的許多信息對人來說是終身性的,比如人臉信息一旦被識別,就終生不可更改。這種情況下,私人生活開始公開化和公共化,也就是說每個人都在有意或無意的把自己私人領(lǐng)域的信息通過微信等智能應(yīng)用應(yīng)用程序分享出去[44],這種自我披露的行為通常是在商家或算法設(shè)計者的鼓勵下進行的,而這些私人信息會被轉(zhuǎn)化成數(shù)據(jù)收集使用。這些數(shù)據(jù)構(gòu)成了不斷增長的大數(shù)據(jù),其實是在侵蝕個人私人領(lǐng)域的自由,使個人的私人領(lǐng)域壓縮。因為“匿名化對大數(shù)據(jù)的無效性”[45],人工智能通過對大數(shù)據(jù)的分析和運算,會對你的私人領(lǐng)域了如指掌,再用算法影響、引導(dǎo),甚至控制你的私人領(lǐng)域,讓你不知不覺生活在人工智能算法的規(guī)劃和引領(lǐng)中。

因此,在互聯(lián)網(wǎng)、大數(shù)據(jù)和人工智能的結(jié)合之下,人的生活看似更加便利了,但其實人就像住進了一個邊沁所言的“全景敞視監(jiān)獄”,無時無刻不在被數(shù)據(jù)采集設(shè)備監(jiān)控、操控和規(guī)訓(xùn)(discipline),雖然??抡J(rèn)為全景敞視監(jiān)控模式已經(jīng)通過紀(jì)律擴散到整個現(xiàn)代社會結(jié)構(gòu)中,并被國家權(quán)力使用,因而已成為現(xiàn)代社會的常態(tài)[46],但人工智能無疑大大加強了全景敞視式的監(jiān)控和規(guī)訓(xùn)的能力。人工智能對人的操控和規(guī)訓(xùn)是通過數(shù)據(jù)分析后向人進行智能精準(zhǔn)信息推送和指導(dǎo)實現(xiàn)的,比如推送某種品牌的商品,推送某些特定的知識給你,從而控制你的選擇和知識來源。這種推送和指導(dǎo)是以特定利益為目的(通常是商業(yè)公司或政府),但在不知不覺中改變和影響你的私人空間的行為方式和生活模式,甚至改變或影響了思想方式和內(nèi)容。也就是說你在私人空間的行為實際上是被人工智能侵犯了。而這些行為多數(shù)并不違反當(dāng)下的法律,或法律難以規(guī)制。

其次,人工智會增強企業(yè)和政府的控制力,減少人在公共領(lǐng)域的自由。人工智能的開發(fā)和使用主體多為擁有雄厚資金的大型科技企業(yè)或政府部門,因此在設(shè)計人工智能算法的時候,會以企業(yè)和政府利益為目的,同時由于企業(yè)和政府獲取數(shù)據(jù)的數(shù)量和范圍在不斷擴大,它們對社會和普通人的控制能力會越來越強,很可能成為“技術(shù)利維坦”[47]。人工智能時代的社會控制不同于智能網(wǎng)絡(luò)出現(xiàn)之前的狀態(tài),而是會打破私人領(lǐng)域和公共領(lǐng)域的界限,更精準(zhǔn)地達到細(xì)致入微的程度,因此有學(xué)者稱人工智能產(chǎn)生的“新型的監(jiān)控技術(shù)為未來的獨裁者提供了前所未有的希望”[48]258。在這種情況下,大公司或者跨國公司的影響力可能大于政府,而政府也可能和大公司聯(lián)合起來,用人工智能加大對人民的“控制”。因為信息和數(shù)據(jù)獲取的不對稱性,大公司和公權(quán)力機關(guān)更可能蒙蔽民眾,讓壓迫人民自由的法律得以在立法機構(gòu)順利通過,可以一步一步剝奪人民參與政治的機會和能力。因而可能產(chǎn)生一種基于大數(shù)據(jù)的人工智能極權(quán)主義[48]258。進一步看,如果如前文所言,強人工智能產(chǎn)生了自主性,那么也可能形成人工智能對人類的壓迫和限制,讓公私兩方面的自由都不復(fù)存在。

最后,人工智能從選擇的角度改變了人的自由觀念。人之所以稱之為人是因為人有高級的智能,因而有自由意志,人可以在合法的范圍內(nèi)選擇自己想要的生活方式和物質(zhì)需求。對一個來人來說,自由取決于向他敞開的選項的范圍和質(zhì)量,“以及他在這些選項中做出選擇的能力”[49],簡言之就是有選擇,同時進行了選擇[50]。但人工智能通過算法可以縮減人的選擇范圍,讓人只在算法推送的范圍內(nèi)選擇,而人工智能提供的選擇范圍是基于某種目的或利益,所以給人的選擇數(shù)量可能會越來越多,但是會越來越同質(zhì)化,實際的選擇范圍會越來越窄,而大部分人對這種有限的選擇全然不知,所以在不知不覺中降低了人的選擇能力。雖然這一切都是在現(xiàn)有法律規(guī)制的范圍內(nèi)進行的,但是實質(zhì)上減少了法律所賦予人的自由,進而會讓人原有的自由觀念被改變。此外,人工智能的運算能力和數(shù)據(jù)量大大的高于人腦,所以人工智能的廣泛使用會讓人依賴人工智能來決策,這種決策本身是以理性、效率和功利計算為基礎(chǔ)的,缺乏人性化的考慮,實質(zhì)上是對人自由意志的剝奪。而同時如果發(fā)展到強人工智能時代,人依然依靠人工智能來決策,那么作為法律主體之一的人很可能被強人工智能蒙騙。

人工智能對法律自由價值的挑戰(zhàn)首先會影響人在私人領(lǐng)域的自由,接著增強公權(quán)力和大企業(yè)的監(jiān)控能力,減少人在公共領(lǐng)域的自由,還可能會影響人的自由觀念。所以最后人工智能可以讓法律純粹變成壓迫人和控制人的工具,消滅法律中的自由價值。

四、應(yīng)對人工智能對法律價值的挑戰(zhàn)

2020年5G的推廣和使用,讓“萬物互聯(lián)”,加速了人工智能時代發(fā)展的步伐。人工智能對法律價值帶來的挑戰(zhàn)中,不少問題看似只是未來的設(shè)想,但是可能很快就要到來。因此應(yīng)對人工智能對法律價值的挑戰(zhàn)是維護人類法律秩序和法律體系良性運轉(zhuǎn)必須要面對的問題,所以探討人工智能對法律價值的挑戰(zhàn)并非杞人憂天。基于前文對人工智能的分析,從法政哲學(xué)出發(fā),需要從以下幾個方面回應(yīng)人工智能對法律價值的挑戰(zhàn)。

首先,保護以人為基礎(chǔ)的法律秩序。人是自然界中智慧最高的生命體,人的發(fā)展是人類社會發(fā)展的標(biāo)志,如康德所言,人“永遠(yuǎn)只能當(dāng)作目的而不是單純的手段”[51],因此法律秩序的根本性基礎(chǔ)是人。人工智能的出現(xiàn)和科技的不斷發(fā)展,需要始終堅持以人類中心主義為一切制度和規(guī)則的基礎(chǔ)。這并不是說忽視自然界的萬物,而是在面對價值和利益權(quán)衡的時候,要把人的生命、尊嚴(yán)和發(fā)展放在第一位,同時保護自然萬物和生態(tài)環(huán)境,保持人類社會的可持續(xù)發(fā)展。如果在弱人工智能階段,以人類為基礎(chǔ)的秩序就是人工智能對法律秩序的影響要以人為目的,不能把人當(dāng)成手段。而到強人工智能階段,需要在秩序選擇和利益權(quán)衡的時候把人放在人工智能等其他存在之前,并對人工智能的主體性保持警惕。如果出現(xiàn)人工智能和人結(jié)合的“新型人”,則要對這種結(jié)合設(shè)置界限,不能超越人性的底線和人類社會基本的道德倫理,從而保護人類社會秩序的良性發(fā)展。

日本和德國在規(guī)范人工智能發(fā)展中的做法可以參考和借鑒,日本總務(wù)省信息通訊政策研究所提出的人工智能開發(fā)指導(dǎo)方案,其中提出的人工智能開發(fā)五大理念之首是人與人工智能的“共生”,“建立一個尊重人的尊嚴(yán)和個體自主性的‘以人為本’的社會”[52]。2018年由德國聯(lián)邦交通和數(shù)字基礎(chǔ)設(shè)施部(Federal Ministry of Transport and Digital Infrastructure)牽頭,聯(lián)合英國、奧地利和歐盟委員會等國家和組織組成了倫理特別小組,發(fā)布了針對自動駕駛的研究報告,其中提出的建議都是以人的生命為首要價值:“在我們所有的價值中,保護人的生命是最高價值。在遇到不可避免的傷害之情況時,它具有無條件的優(yōu)先性?!盵53]

此外,人需要對人工智能參與的一些活動進行把關(guān)。比如人工智能在司法中的應(yīng)用,雖然可能帶來一視同仁,但是法律畢竟不能與算法等同,它有精確性的同時還有模糊性,人工智能提供的建議是依靠算法得出的概率和相關(guān)性,無法提供法律裁判所需要的因果關(guān)系和實現(xiàn)正義的實質(zhì)判斷(4)雖然科學(xué)家進行了很多嘗試,但是“如何將人類價值觀轉(zhuǎn)入電子計算機依然尚不清楚”。參見(英)尼克·波斯特洛姆:《超級智能:路線圖、危險性與應(yīng)對策略》,張體偉、張玉青譯,中信出版社2015年版,第25頁。[54-55]。同時,司法過程中需要法官的自由心證和自由裁量,而心證和自由裁量需要人性化的斟酌和判斷[5,56],這些是人工智能無法實現(xiàn)的。因此,在司法的過程中對因果關(guān)系的確立和自由裁量等問題,需要人類對人工智能的主導(dǎo)或輔助,以此來維持人性化的法律秩序。

其次,讓每個人都有機會使用和接觸人工智能,減小“人工智能鴻溝”,避免“人工智能鴻溝”破壞運氣均等。減小“人工智能鴻溝”是再分配的過程,需要政府在人工智能資源分配上進行地區(qū)和階層的平衡,對人工智能資源進行再分配,讓欠發(fā)達地區(qū)和收入低下階層也有機會接觸和使用人工智能。而應(yīng)對人工智能對運氣均等的破壞,政府和企業(yè)需要發(fā)展人工智能的公益性,同時對人工智能的使用需要設(shè)定一定的限度,在一些領(lǐng)域和行為中禁止使用人工智能,以此來保持基本的運氣均等。比如在一定時期內(nèi)禁止人工智能和人腦結(jié)合來增強人腦。

再次,嚴(yán)格保護人的基本權(quán)利(特別是自由和隱私權(quán)),維護人的尊嚴(yán)。面對人工智能的快速發(fā)展,強人工智能時代會在不久之后到來,因此面對人工智能可能成為法律主體,甚至參與立法的情況,必須嚴(yán)格保護憲法賦予的人的基本權(quán)利和自由。這些基本權(quán)利和自由不可剝奪,不可被其他法律侵犯,同時應(yīng)立法限制對私人領(lǐng)域數(shù)據(jù)搜集的范圍。如果不堅持這個憲法的底線,法律蘊含的基本價值就會被以效率和功利為主要準(zhǔn)則的技術(shù)立法消耗掉,加上人工智能助長了大公司和公權(quán)力的監(jiān)控能力,人可能成為技術(shù)的奴役,成為人工智能的附庸,甚至出現(xiàn)人工智能極權(quán)主義政府。所以不僅要有專門針對個人隱私數(shù)據(jù)保護的立法,憲法中需要加入不可修改的基本權(quán)利、自由條款和人的尊嚴(yán)條款,用來應(yīng)對人工智能對人自由的侵犯。2018年實施的歐盟《一般數(shù)據(jù)保護條例》(General Data Protection Regulation),對個人的敏感數(shù)據(jù)進行了嚴(yán)格保護,同時賦予個人“免于自動化決策”的權(quán)利[57]。

最后,人文社科工作者和律師需要參與人工智能開發(fā),并對人工智能進行嚴(yán)格的法律和倫理審查[58-59]?,F(xiàn)代科技把一切數(shù)據(jù)化,人工智能所依靠的算法是典型的代表,而算法本身是沒有人性的,所以在人工智能開發(fā)過程中,需要人文社會科學(xué)工作者和律師參與其中,對人工智能可能產(chǎn)生危害人倫、道德和法律的可能性進行外部審核。如果能培養(yǎng)出一批具有人文素養(yǎng)的科學(xué)家、工程師和有計算機背景的律師,將是最好的選擇,這樣可以從內(nèi)部對人工智能的開發(fā)進行審核和監(jiān)控。目前已經(jīng)有一些大學(xué)設(shè)置了法律和人工智能交叉學(xué)科的學(xué)位項目,就是要培養(yǎng)出人工智能時代的跨學(xué)科人才。此外,也需要國家進行人工智能倫理的立法工作,對人工智能設(shè)計中和完成后可能危害社會倫理和秩序的行為進行規(guī)制。

五、結(jié)語

在智能互聯(lián)網(wǎng)時代,人工智能的發(fā)展日新月異,實實在在的進入了我們的日常生活。雖然目前仍處在弱人工智能的階段,但比爾·蓋茨和埃隆·馬斯克等人都對人工智能的發(fā)展持警惕和悲觀的態(tài)度,科學(xué)家霍金更警告說:“強人工智能的發(fā)展可能會讓人類滅亡?!盵60]事實上,弱人工智能和強人工智能并不是遞進發(fā)展的關(guān)系,而是兩種不同的研究分支[38]11,這意味著弱人工智能和強人工智能在同時發(fā)展,只不過目前我們所能見到的大多是弱人工智能產(chǎn)品。因此,隨著強人工智能的不斷發(fā)展,未來在社會生活中被廣泛應(yīng)用,法律價值也將會面臨更多的挑戰(zhàn)。

2016年7月,中共中央辦公廳、國務(wù)院辦公廳印發(fā)了《國家信息化發(fā)展戰(zhàn)略綱要》,旨在規(guī)范和指導(dǎo)此后10年的國家信息化發(fā)展,該綱要第29條提出:“建設(shè)'智慧法院',提高案件受理、審判、執(zhí)行、監(jiān)督等各環(huán)節(jié)信息化水平,推動執(zhí)法司法信息公開,促進司法公平正義?!盵61]最高人民法院在2019年和2021年分別印發(fā)了《人民法院信息化建設(shè)五年發(fā)展規(guī)劃(2016-2020)》和《人民法院信息化建設(shè)五年發(fā)展規(guī)劃(2021-2025)》,布局和指導(dǎo)智慧法院的建設(shè),重點強調(diào)和突出了人工智能在智慧法院建設(shè)中的應(yīng)用。雖然本文所提出的人工智能對法律價值的挑戰(zhàn)在現(xiàn)階段的弱人工智能時代只是初見端倪,但隨著人工智能在社會生活和司法中應(yīng)用的不斷深入,強人工智能時代也將在不久到來,如果不及時應(yīng)對人工智能對法律價值的挑戰(zhàn),將會對現(xiàn)代人類社會長期形成的法律體系造成巨大的沖擊,阻礙司法實現(xiàn)公平正義,也會成為人類社會和人本身的威脅。所以應(yīng)對人工智能對法律價值的挑戰(zhàn),就是要防止人工智能侵害現(xiàn)代法律價值,讓人工智能造福于人類,或者在未來與人類和諧共處。

猜你喜歡
正義秩序算法
打擊惡意搶注商標(biāo) 讓市場競爭更有秩序
用正義書寫文化自信
國際秩序的裂變及其未來
秩序
Travellng thg World Full—time for Rree
學(xué)習(xí)算法的“三種境界”
算法框圖的補全
算法初步知識盤點
正義必勝!和平必勝!人民必勝!
正義必勝!和平必勝!人民必勝!
宝兴县| 苍梧县| 安阳县| 张家界市| 高台县| 宝兴县| 崇义县| 阿鲁科尔沁旗| 武川县| 灵山县| 乐东| 成武县| 阜平县| 禹城市| 聂荣县| 庆阳市| 柏乡县| 盐山县| 泽州县| 土默特左旗| 安阳县| 长宁县| 渝北区| 大英县| 大渡口区| 平塘县| 婺源县| 巴马| 鹤山市| 江阴市| 商南县| 长葛市| 深泽县| 临清市| 洱源县| 正定县| 繁昌县| 罗山县| 黄山市| 嘉荫县| 绥棱县|