周玲敏
摘要:人工智能是如今廣受人們關(guān)注的一項(xiàng)科學(xué)技術(shù),其發(fā)展的速度之快超乎人們的想象。我們有理由相信人工智能的迅速發(fā)展在未來將會深刻影響整個(gè)社會,不僅會在物質(zhì)層面改變?nèi)藗兊纳?,也會在倫理道德等價(jià)值層面對傳統(tǒng)觀念產(chǎn)生沖擊,其中不乏與法律的沖突。本文主要以人工智能產(chǎn)生的法律問題為出發(fā)點(diǎn)進(jìn)行闡述與分析。
關(guān)鍵詞:人工智能;法律問題;隱私權(quán);法律人格;預(yù)防原則
中圖分類號:TP182文獻(xiàn)標(biāo)識碼:A文章編號:2095-4379-(2016)17-0231-01
今年3月份,Google的人工智能系統(tǒng)AlphaGo大戰(zhàn)圍棋世界冠軍李世石的新聞引起了人們的廣泛關(guān)注和討論。經(jīng)過5場比賽,最終AlphaGo以總比分4:1戰(zhàn)勝李世石。這讓人們不得不驚嘆人工智能技術(shù)的發(fā)展,因?yàn)閲寰哂袔浊暧凭玫臍v史,其走法的可能性甚至比宇宙原子數(shù)量的總和還多,極具智慧,而機(jī)器是難以掌握的。但AlphaGo的出現(xiàn)讓人們對人工智能有了新的認(rèn)識,也許其無所不能,甚至有人提出了“人工智能威脅論”的觀點(diǎn)。
關(guān)于什么是人工智能,美國麻省理工學(xué)院的Winston教授是這樣定義它的:“人工智能就是研究如何使計(jì)算機(jī)去做過去只有人才能做的智能的工作。[1]”隨著AlphaGo在圍棋上的出色表現(xiàn),人們看到了人工智能技術(shù)在學(xué)習(xí)和掌握知識上的巨大潛力。因此,人工智能在未來的發(fā)展也許會超乎人們的想象并改變傳統(tǒng)的生活模式。其中必定會帶來一些法律問題,這是值得我們思考的。主要有以下幾個(gè)方面:
一、從事科學(xué)研究是公民的自由與權(quán)利,各國的憲法都對此予以保護(hù)。但憲法對科研自由有嚴(yán)格的界限,只保護(hù)那些有利于人類進(jìn)步事業(yè)的。我們無法預(yù)知人工智能是否符合憲法上的標(biāo)準(zhǔn)。因?yàn)榭茖W(xué)技術(shù)具有極強(qiáng)的不確定性,會帶來很大的風(fēng)險(xiǎn)。正如有人擔(dān)心人工智能的發(fā)展是人類所能控制的嗎,如果程序設(shè)計(jì)者在研究過程中出現(xiàn)錯(cuò)誤或者違背人類倫理道德,這該如何應(yīng)對。
二、人工智能的發(fā)展離不開數(shù)據(jù)的支撐,如今是一個(gè)大數(shù)據(jù)時(shí)代,也是一個(gè)數(shù)據(jù)泛濫的時(shí)代,而這些數(shù)據(jù)大多來自于公民個(gè)人。就像每個(gè)網(wǎng)站都擁有自己用戶的信息,那么在這樣的情形下,人工智能的數(shù)據(jù)搜集是否會侵犯公民的隱私權(quán)。人工智能的發(fā)展是否會讓每個(gè)人都處于一種數(shù)據(jù)網(wǎng)絡(luò)之中,而這些數(shù)據(jù)是否會帶有某些鑒別身份的功能,從而讓人處于一種不安全狀態(tài)。那么個(gè)人該如何保護(hù)自己的隱私,法律是否應(yīng)在保護(hù)公民隱私權(quán)的方面做出相應(yīng)的調(diào)整,這也是值得思考的。三、智能機(jī)器人是人工智能的典型代表,而且也會在生活中發(fā)揮巨大的作用。工業(yè)4.0背景下,人工智能和新一代人機(jī)交互技術(shù)將參與到制造業(yè)的所有關(guān)鍵領(lǐng)域。在工廠,機(jī)器人將會被投入到生產(chǎn)工作中,這會提高企業(yè)效率,那么那些被機(jī)器人取代的勞動者該如何維護(hù)自己的權(quán)利,比如勞動權(quán)。社會又該如何安置他們。另外,陪伴型機(jī)器人的運(yùn)用使機(jī)器人更加具有了人的一些特征,在情感識別系統(tǒng)下,機(jī)器人可以對人類的情感進(jìn)行識別并對此作出回應(yīng)。那么這樣的機(jī)器人是否具有法律上的人格,是否享有人類的某些權(quán)利呢。[2]對于這個(gè)問題,首先需要明白法律人格指的是法律關(guān)系主體維持和行使法律權(quán)利,服從法律義務(wù)和責(zé)任的條件。要成為法律上的獨(dú)立人格者必須具備兩個(gè)條件,一是社會存在,這意味著能夠獨(dú)立自主地作出意思表示,具備獨(dú)立的權(quán)利能力和行為能力,并能夠?yàn)樽约旱男袨槌袚?dān)責(zé)任。二是法律的確認(rèn)。自然人、法人及其他非法人組織據(jù)此都具有獨(dú)立的法律人格。[3]然而智能機(jī)器人雖然在一定程度上能夠做出自己的意思表示,但其難以對自己的行為承擔(dān)責(zé)任,所以機(jī)器人不符合法律人格的要求。如果智能機(jī)器人不具有法律人格,那么由機(jī)器人所引發(fā)的法律糾紛又該如何解決。比如之前發(fā)生的谷歌無人駕駛汽車與公交車相撞的事件,無人駕駛汽車的法律責(zé)任由誰承擔(dān)。
四、結(jié)語:對于人工智能的發(fā)展帶來的法律問題,現(xiàn)階段還沒有凸顯,但我們無法預(yù)知和評判未來,因此這些法律問題不容忽視。法律總是滯后于社會的發(fā)展,但這并不意味著我們不能采取相應(yīng)的預(yù)防措施,比如環(huán)境法中的預(yù)防原則,為了避免環(huán)境損害,應(yīng)該通過全面調(diào)查和研究來檢測環(huán)境和健康的危險(xiǎn)而進(jìn)行前瞻性計(jì)劃,并在未得到損害的確定性證據(jù)前采取措施。[4]這對于人工智能的發(fā)展也有借鑒意義。人工智能的未來,機(jī)器與人的關(guān)系,歸根結(jié)底在于人類自身,機(jī)器是由人類設(shè)計(jì)的,機(jī)器的使用,對社會的影響主要還是在于設(shè)計(jì)和制造機(jī)器的人[5]。因此,人工智能的發(fā)展帶來的法律問題的解決之道還是在于如何去規(guī)范人工智能技術(shù)背后的設(shè)計(jì)者和制造者的行為。對此,可以加強(qiáng)相關(guān)法律規(guī)則的制定,從而加強(qiáng)人工智能發(fā)展過程的法律監(jiān)督達(dá)到一定的預(yù)防效果,讓這項(xiàng)科技朝著有利于人類事業(yè)的方向邁進(jìn)。[參考文獻(xiàn)]
[1]胡勤.人工智能概述[J].電腦知識與技術(shù),2010(13).
[2]王邵源,崔文芊.國外機(jī)器人倫理學(xué)的興起及其問題域分析[J].未來與發(fā)展,2013(6):48-52.
[3]陳亮.電子代理人法律人格分析[J].牡丹江大學(xué)學(xué)報(bào),2009,18(6):66-67.
[4]陳秀萍,盧庭庭.我國環(huán)境保護(hù)中風(fēng)險(xiǎn)預(yù)防原則的缺失及完善[J].行政與法,2014(10):