国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能時(shí)代的風(fēng)險(xiǎn)及法律應(yīng)對(duì)

2020-03-03 13:39:08
關(guān)鍵詞:機(jī)器人人工智能法律

張 恰

(遼寧大學(xué),遼寧 沈陽(yáng) 110035)

人類歷史上的每一次革命與創(chuàng)新都會(huì)推動(dòng)社會(huì)的發(fā)展和進(jìn)步,技術(shù)的革新與進(jìn)步更是如此。一場(chǎng)技術(shù)革命往往會(huì)導(dǎo)致一場(chǎng)社會(huì)革命。這些革新影響著社會(huì)管理模式的變革,而社會(huì)管理模式的變革則會(huì)導(dǎo)致法律的相應(yīng)變革。人工智能的全面應(yīng)用和發(fā)展,無疑會(huì)對(duì)傳統(tǒng)的法律理念和既有的法律體系帶來極大沖擊。

一、人工智能時(shí)代的風(fēng)險(xiǎn)

就像一把雙刃劍,人們?cè)谙硎苋斯ぶ悄芩鶐淼母@耐瑫r(shí),也面臨著人工智能可能引發(fā)的風(fēng)險(xiǎn)。由于安全方面的風(fēng)險(xiǎn),使得公民的隱私和自由等權(quán)利可能被侵犯;由于行為上的風(fēng)險(xiǎn),算法的黑箱可能導(dǎo)致社會(huì)分化的加?。辉诮?jīng)濟(jì)方面,則可能出現(xiàn)人被機(jī)器人取代而造成的失業(yè),以及某些超級(jí)平臺(tái)不斷擴(kuò)張進(jìn)而形成壟斷的情況。此外,我們還要考慮因?yàn)槿狈r(jià)值觀的引導(dǎo)而引發(fā)的倫理風(fēng)險(xiǎn)等。

(一)對(duì)個(gè)人隱私保護(hù)產(chǎn)生影響的安全風(fēng)險(xiǎn)

人工智能引發(fā)的安全風(fēng)險(xiǎn)主要表現(xiàn)為對(duì)個(gè)人隱私數(shù)據(jù)信息保護(hù)的喪失。數(shù)據(jù)和算法的應(yīng)用掀起了新一輪人工智能的發(fā)展潮流。人工智能的基礎(chǔ)是數(shù)據(jù),本質(zhì)是算法,智能化的程度和水平依賴于數(shù)據(jù)的喂養(yǎng)和算法的支持(1)參見鄭志鋒:《人工智能時(shí)代的隱私保護(hù)》,載《法律科學(xué)》,2019年第2期,第59頁(yè)。。在智能互聯(lián)網(wǎng)時(shí)代,“網(wǎng)上的個(gè)人信息全方位覆蓋了你從搖籃到墳?zāi)沟娜克饺松?,慢慢地積累所有數(shù)據(jù),直至在計(jì)算機(jī)數(shù)據(jù)庫(kù)中形成一個(gè)‘人’”(2)參見[英]約翰·帕克著,關(guān)立深譯:《全民監(jiān)控——大數(shù)據(jù)時(shí)代的安全與隱私困境》,北京:金城出版社,2015年出版,第14頁(yè)。。由于這些信息數(shù)據(jù)大多掌握在平臺(tái)、公司等私權(quán)力手中,這種情形下數(shù)據(jù)的使用者和管理者由于缺乏有效的監(jiān)督和管理,將會(huì)導(dǎo)致大量的個(gè)人信息數(shù)據(jù)處于無法律保護(hù)的“裸奔”地帶。一旦這些信息被不法分子侵入獲得,把分散在不同平臺(tái)的信息匯總、對(duì)比、分析,那么個(gè)人信息所涉及的各類下游犯罪都將在人工智能技術(shù)的幫助下變得更加簡(jiǎn)單、精準(zhǔn)、高效,且成功率更高。

刷臉支付、上課簽到、刷臉住宿、銀行開戶等人臉識(shí)別技術(shù)的普遍應(yīng)用,減少了很多輸入密碼的繁瑣過程,給人們的生活帶來了極大的便捷。但是這些卻是我們犧牲了個(gè)人隱私與生活安全才換來的便利性和可預(yù)測(cè)性。作為活體數(shù)據(jù)的人臉信息甚至不需要刻意收集,現(xiàn)在只要我們走上街,就會(huì)被無數(shù)的攝像頭拍下我們的人臉信息;只要擁有人臉信息,我們的行蹤和行為就可能一直受到監(jiān)控,毫無個(gè)人隱私可言。

人臉識(shí)別技術(shù)的不成熟還可能帶來其他安全風(fēng)險(xiǎn)。上班族們?cè)诠ぷ鲿r(shí)間會(huì)選擇讓快遞員將快遞商品投放到住處的智能快遞柜中,其中豐巢智能快遞柜還推出了更為便捷的刷臉開柜功能。然而不久前,嘉興一所外國(guó)語學(xué)校的課外科學(xué)實(shí)驗(yàn)課中,一支由小學(xué)生組成的科學(xué)小隊(duì)發(fā)現(xiàn):只需使用簡(jiǎn)單的打印照片,就能夠代替真人刷臉解鎖豐巢智能柜,從而取走父母?jìng)兊目爝f。這樣的嚴(yán)重技術(shù)漏洞如果被不法分子利用,將會(huì)侵犯法律所保護(hù)的隱私權(quán)、財(cái)產(chǎn)權(quán)等多個(gè)法益。

(二)對(duì)社會(huì)公平正義產(chǎn)生影響的行為風(fēng)險(xiǎn)

行為風(fēng)險(xiǎn)指的是算法黑箱或者是算法偏見、錯(cuò)誤、確定性等風(fēng)險(xiǎn)。

1.算法黑箱的形成原因主要是人工智能的深度學(xué)習(xí)與傳統(tǒng)機(jī)器學(xué)習(xí)不同,并不遵循數(shù)據(jù)輸入、特征提取、特征選擇、邏輯推理、預(yù)測(cè)的過程,而是由計(jì)算機(jī)直接從事物原始特征出發(fā),自動(dòng)學(xué)習(xí)和生成高級(jí)的認(rèn)知結(jié)果。在人工智能輸入的數(shù)據(jù)和其輸出的答案之間,存在著我們無法洞悉的“隱層”,學(xué)界通常稱之為“黑箱”(black box)。

美國(guó)華盛頓特區(qū)的一所學(xué)校曾在2009年使用以少數(shù)學(xué)生成績(jī)?yōu)橐罁?jù)編寫的人工智能程序來評(píng)價(jià)教師的表現(xiàn),導(dǎo)致一位優(yōu)秀的教師因?yàn)樵u(píng)分很低而被解雇,直到今天學(xué)校也無法就此給出合理的解釋。其實(shí)這背后深層次的原因就是由于存在算法黑箱所造成的結(jié)果偏差。

隨著大數(shù)據(jù)的不斷發(fā)展,我們依賴人工智能系統(tǒng)做出決策的時(shí)候越來越多??墒撬惴ê谙涞拇嬖谑沟迷O(shè)計(jì)者也無法得知人工智能如何運(yùn)算并得出結(jié)論,那么這樣的決策或者結(jié)論是否公平、是否合乎道德就有待商榷了。

2.算法偏見或歧視則是因?yàn)樗惴ㄊ怯扇祟悇?chuàng)造出來的,一個(gè)算法設(shè)計(jì)者的認(rèn)知能力、知識(shí)水平、設(shè)計(jì)意圖、價(jià)值觀念都會(huì)在算法中得到體現(xiàn)。

當(dāng)前正處于信息爆炸的時(shí)代,海量信息充斥著社會(huì)生活的方方面面。對(duì)于數(shù)據(jù)應(yīng)用者來說,更重要的不是接收消息的數(shù)量,而是處理和篩選消息的能力。但是大部分情況下決定消息的價(jià)值排序和重要程度的并不是我們自己,而是算法。算法通過選擇什么樣的信息上了頭條、上了熱搜,來決定哪些種類的信息是人們更應(yīng)該去關(guān)注和相信的。我們只是在有限的選擇中做了自認(rèn)為自由的決定。最后我們會(huì)發(fā)現(xiàn),是算法的價(jià)值觀在影響著人類的價(jià)值觀。

同時(shí),我們生活的點(diǎn)滴都會(huì)被記錄下來,被觀察、被分析,然后被運(yùn)用。例如網(wǎng)上購(gòu)物后,電商會(huì)根據(jù)你的喜好來推薦相關(guān)的產(chǎn)品或者服務(wù)。我們?cè)谙硎苄畔⒒⒕W(wǎng)絡(luò)化、智能化帶給我們便利的同時(shí),卻無法避免算法偏見或者歧視帶給我們的各種問題。某旅游網(wǎng)站就曾采用“大數(shù)據(jù)殺熟”的手段,利用信息的不對(duì)稱,嚴(yán)重侵害老客戶的利益。這種商家們?yōu)榱俗约旱睦嫠O(shè)計(jì)出來的帶有偏見的算法,不僅侵犯了公民的合法權(quán)益,還會(huì)帶來價(jià)值觀的混亂,嚴(yán)重侵害社會(huì)公平正義。

二、 人工智能對(duì)現(xiàn)代法律的沖擊

(一)人工智能對(duì)現(xiàn)代法律沖擊的思考

數(shù)學(xué)家約翰·麥卡錫第一次提出Artificial Intelligence這個(gè)術(shù)語至今已有60多年的歷史,但在前期人工智能卻一直沒有取得突破性的進(jìn)展。當(dāng)時(shí)的人工智能只是以隱秘的方式存在于人們的生活中,代替人類完成一些程序簡(jiǎn)單但任務(wù)量繁瑣的工作。進(jìn)入互聯(lián)網(wǎng)時(shí)代以來,人工智能的發(fā)展出現(xiàn)了突飛猛進(jìn)的局面。從AlphaGo擊敗了世界圍棋冠軍的那一刻開始,人工智能終于得到了人們的廣泛關(guān)注,人們對(duì)人工智能的熱情再一次被點(diǎn)燃。

在智能互聯(lián)網(wǎng)社會(huì),人工智能充斥在人類生活的方方面面:從購(gòu)物網(wǎng)站智能客服到“嘿Siri”虛擬個(gè)人助理;從合同起草到智能醫(yī)療;從“阿爾法狗”到機(jī)器人Sophia被沙特授予公民身份,智能機(jī)器人在現(xiàn)代社會(huì)生活中扮演著越來越重要的角色,由此所引發(fā)的法律問題也越來越多。當(dāng)前已經(jīng)出現(xiàn)的主要有機(jī)器人能否享有著作權(quán)、知識(shí)產(chǎn)權(quán),以及機(jī)器人致害的責(zé)任問題等。更為重要的是,人工智能技術(shù)的飛速進(jìn)步開啟了人機(jī)共處的新時(shí)代,人工智能不僅成為人類決策的延伸——利用智能機(jī)器人進(jìn)行股票分析和交易、智能醫(yī)療、自動(dòng)駕駛等,還會(huì)與人類本身自然屬性有所結(jié)合,導(dǎo)致難以區(qū)分人與機(jī)器人的區(qū)別。比如,一個(gè)人因?yàn)橥炔砍霈F(xiàn)嚴(yán)重傷病安裝了一個(gè)假肢,這種情況下我們不會(huì)因?yàn)樗纳眢w有機(jī)械成分而否認(rèn)他是一個(gè)人;但如果這個(gè)人四肢完全使用機(jī)械乃至心臟也換成機(jī)器心臟,或者他的大腦中植入了芯片,兼具了人和機(jī)器雙重屬性的時(shí)候,他究竟應(yīng)當(dāng)被視為人還是機(jī)器?這些問題不斷沖擊著傳統(tǒng)的法律體系和倫理道德體系,導(dǎo)致相關(guān)的法律制度設(shè)計(jì)也面臨重大變革。

(二) 人工智能對(duì)法律地位的挑戰(zhàn)

法律主體是在從事法律活動(dòng)時(shí)享有權(quán)利、負(fù)有義務(wù)且能夠承擔(dān)責(zé)任的主體。只有擁有法律主體資格,才能享有知識(shí)產(chǎn)權(quán)等民事權(quán)利,負(fù)擔(dān)起民事責(zé)任、刑事責(zé)任等相應(yīng)的法律責(zé)任。確定人工智能的法律地位,有助于互聯(lián)網(wǎng)社會(huì)民商事關(guān)系的處理。比如隨著人工智能技術(shù)的進(jìn)一步發(fā)展,可能會(huì)出現(xiàn)人類對(duì)人工智能機(jī)器人產(chǎn)生諸如婚姻關(guān)系、親子關(guān)系等情感上的需求,這就需要從法律方面對(duì)這種人與人工智能的新型關(guān)系給予界定。

人工智能的法律地位到底是主體、客體,還是其他新型法律關(guān)系,必須在法律上盡快加以明確。法律地位的確定是人與人工智能法律關(guān)系到底如何的基礎(chǔ),是人類對(duì)待人工智能的行為方式的決定性因素,也是法律適用上探討一切人工智能相關(guān)問題的前提。

人工智能在理論上普遍被劃分為弱人工智能與強(qiáng)人工智能,兩者區(qū)分的關(guān)鍵在于是否具有自主意識(shí)、是否能在設(shè)計(jì)和編制的程序范圍之外進(jìn)行決策。沒有自主意識(shí),只能在算法設(shè)計(jì)者設(shè)計(jì)的范圍內(nèi)進(jìn)行運(yùn)算處理,最后形成決策的是弱人工智能;有自主意識(shí),可以自我學(xué)習(xí),并可以在算法設(shè)計(jì)者設(shè)計(jì)之外通過自身意志做出決策的是強(qiáng)人工智能。

2019年8月30日舉辦的世界人工智能大會(huì)法治論壇上發(fā)布了《人工智能安全與法治導(dǎo)則(2019)》(以下簡(jiǎn)稱《導(dǎo)則》)。此次發(fā)布的《導(dǎo)則》在人工智能的法律主體方向方面有了新的突破,很好地解決了弱人工智能時(shí)代智能機(jī)器人能否成為法律主體等問題。它明確了弱人工智能的法律主體地位,將弱人工智能純粹地定位為人類的“工具”,本身并不具有法律主體資格,不能獨(dú)立承擔(dān)責(zé)任。對(duì)于弱人工智能的責(zé)任承擔(dān),采用設(shè)計(jì)者、生產(chǎn)者、使用者按照過程程度分別承擔(dān)相應(yīng)的法律責(zé)任的方式。但是隨著人機(jī)協(xié)作、人機(jī)競(jìng)爭(zhēng)、人機(jī)混合等問題的出現(xiàn),現(xiàn)代科技逐步走向強(qiáng)人工智能時(shí)代。這種情況下智能機(jī)器人的法律地位應(yīng)當(dāng)如何界定,是當(dāng)前立法界急需關(guān)注的新問題。

關(guān)于人工智能機(jī)器人法律地位的現(xiàn)有觀點(diǎn)主要有客體說、主體說和電子人格說等。由于強(qiáng)人工智能是可以產(chǎn)生自主意識(shí)、隨著人工智能技術(shù)的發(fā)展可能產(chǎn)生與人類相當(dāng)甚至超越人類智能的機(jī)器人,所以筆者認(rèn)為,將強(qiáng)人工智能單純類比成產(chǎn)品或動(dòng)物的客體說不適合強(qiáng)人工智能機(jī)器人,智能機(jī)器人擺脫人類的純粹工具地位而獲取主體身份是科技發(fā)展的必然趨勢(shì)。因此下文我們主要討論主體說與擬制主體說。

1.主體說:主體說又分為代理說和電子人格說。

①代理說:將機(jī)器人作為其“所有人”的代理人。

2017年2月歐盟表決通過的《歐盟機(jī)器人民事責(zé)任法律規(guī)則》第52條提出“非人類的代理人”的概念,這一概念的提出直接肯定了人工智能體具有一定的法律人格。

在代理說下,機(jī)器人的操作者與人工智能機(jī)器人的關(guān)系被認(rèn)定為法律代理關(guān)系中本人與代理人的關(guān)系。而根據(jù)我國(guó)法律規(guī)定,代理人必須是具有法律主體資格且擁有一定行為能力的人,且民法上把代理分為法定代理與委托代理。由于缺乏法律的明確規(guī)定和理論上的基礎(chǔ),代理說目前還不是很完善,并沒有詳細(xì)說明智能機(jī)器人作為代理人應(yīng)屬于哪一種代理方式。

②最新觀點(diǎn):電子人格說

歐盟在《歐盟機(jī)器人民事法律草案》第59f中提出了電子人格說,這是到目前為止最為具體的學(xué)說,得到了很多學(xué)者的支持。電子人格說規(guī)定智能機(jī)器人并不會(huì)因?yàn)楸辉O(shè)計(jì)或者制造出來就自動(dòng)擁有機(jī)器人人格,而是需要通過申請(qǐng)獲得一個(gè)電子人格。電子人格說并沒有把智能機(jī)器人歸到任何一種現(xiàn)有法律主體類別中,而是重新創(chuàng)造了一個(gè)特殊的新型法律地位。

但是電子人格說也存在著一些需要進(jìn)一步加以明確的問題:如果智能機(jī)器人不是同自然人一樣,在“出生”時(shí)就自動(dòng)享有法律上的人格,而是要通過申請(qǐng)獲得,那么誰應(yīng)該作為智能機(jī)器人電子人格的申請(qǐng)人呢?申請(qǐng)通過的標(biāo)準(zhǔn)又是什么?這些問題還需要通過今后的立法加以具體化和完善。

2.擬制主體說

擬制主體說的理論參考是以法人法律主體資格的確立方式來規(guī)范智能機(jī)器人的法律地位。同樣作為法律主體資格中不同于自然人的存在,法人通過法律擬制的方法確立了其在法律行為中的法律地位。這種方式的優(yōu)點(diǎn)是完全回避了關(guān)于智能機(jī)器人本身智能的爭(zhēng)論,直接簡(jiǎn)單地給予其擬制的法律主體資格。但是這種資格條件下,機(jī)器人的意志會(huì)由自然人決定,而如何處理機(jī)器人與自然人的關(guān)系當(dāng)前還不夠明確。

三、人工智能時(shí)代相關(guān)法律的完善

人工智能給人類社會(huì)帶來了顛覆性的改變,它既可以極大地造福人類,也可能對(duì)人類產(chǎn)生嚴(yán)重危害。筆者認(rèn)為,對(duì)于人工智能的飛速發(fā)展不需要過分擔(dān)憂,就如電話的發(fā)明者亞歷山大·貝爾說的那樣,“一扇門關(guān)了,另一扇門正在敞開。可我們當(dāng)中許多人浪費(fèi)了太長(zhǎng)的時(shí)間幽怨地盯著那扇關(guān)上的門,卻對(duì)那扇正在敞開的門視而不見”。盡管如此,我們?nèi)孕枰从昃I繆,盡早調(diào)整和完善現(xiàn)有的法律制度和法律體系,以便更好地應(yīng)對(duì)人工智能時(shí)代給人類社會(huì)帶來的各種風(fēng)險(xiǎn)與挑戰(zhàn)。

(一)數(shù)據(jù)安全方面法律的完善

人工智能的發(fā)展基于大數(shù)據(jù)的掌握,這也意味著安全風(fēng)險(xiǎn)中所涉及的個(gè)人信息等問題亟待解決。目前世界范圍內(nèi)最先較為完善地解決這個(gè)問題的是歐盟。2018年5月25日,歐洲聯(lián)盟出臺(tái)了史上最嚴(yán)的信息保護(hù)條例——《一般數(shù)據(jù)保護(hù)條例》(GDPR),它通過拓寬“個(gè)人信息”的定義范圍,增設(shè)數(shù)據(jù)被遺忘權(quán)、可攜帶權(quán)、限制處理權(quán)和加大處罰力度等方式,對(duì)新時(shí)代的個(gè)人信息予以法律上的保護(hù)。

我國(guó)已經(jīng)有多部法律、法規(guī)、規(guī)章涉及個(gè)人信息保護(hù),《刑法》《民法總則》《消費(fèi)者權(quán)益保護(hù)法》《網(wǎng)絡(luò)安全法》《電子商務(wù)法》等都針對(duì)個(gè)人信息保護(hù)作出了相關(guān)規(guī)定。但這些規(guī)定都散見于各種法律、法規(guī)和規(guī)章中,尚未形成統(tǒng)一規(guī)范,需要根據(jù)形勢(shì)的發(fā)展制定有針對(duì)性的專門法律來加以規(guī)范,以形成合力。就此而言,《統(tǒng)一數(shù)據(jù)保護(hù)條例》成為我國(guó)可資借鑒的他山之石。它不僅僅提供了一系列具象的法律規(guī)則,更重要的是它在“數(shù)據(jù)效率”之外,傳遞出“數(shù)據(jù)正義”(data justice)的理念。

筆者認(rèn)為,我國(guó)在制定個(gè)人信息保護(hù)專門法律法規(guī)過程中應(yīng)著重注意以下幾點(diǎn)。一是要對(duì)個(gè)人信息的范圍重新進(jìn)行明確的法律界定,并明確本人以及他人合理使用的邊界。二是尊重個(gè)人的選擇權(quán),非必要情況下人們有權(quán)決定是否要受到自動(dòng)化決策的限制。三是要嚴(yán)格把控有關(guān)種族、政治傾向、性取向等個(gè)人敏感數(shù)據(jù)在自動(dòng)化決定中的應(yīng)用。這些數(shù)據(jù)涉及的是更為敏感的個(gè)人隱私,一旦遭到泄露或不當(dāng)利用,會(huì)對(duì)個(gè)人產(chǎn)生相當(dāng)不良的影響。四是應(yīng)當(dāng)明確數(shù)據(jù)的歸屬和利用。比如數(shù)據(jù)到底屬于用戶還是屬于平臺(tái),還是屬于大數(shù)據(jù)的網(wǎng)絡(luò)公司或者是其他單位;政府在利益相關(guān)者之間怎么進(jìn)行權(quán)利分配,這些都應(yīng)當(dāng)在新的立法中予以體現(xiàn)。

(二)算法黑箱、算法偏見方面法律的完善

在公共政策或公共服務(wù)自動(dòng)化中的算法設(shè)計(jì)中,“程序員們被賦予了過多的決策權(quán),而且不受到任何審查”(3)參見[美]盧克·多梅爾著,胡小銳等譯:《算法時(shí)代:新經(jīng)濟(jì)的新引擎》,北京:中信出版社,2016年出版,第220頁(yè),第141頁(yè)。,導(dǎo)致了算法黑箱、算法偏見和歧視等問題的必然存在。人工智能專家、華盛頓大學(xué)教授 Pedro Domingos 曾公開表示,歐盟制定的《一般數(shù)據(jù)保護(hù)條例》中要求所有算法解釋其輸出原理的做法,使深度學(xué)習(xí)成為了非法的方式。這些爭(zhēng)議使得人工智能的可解釋化和透明化成為當(dāng)今這一領(lǐng)域面臨的最大挑戰(zhàn)之一。

筆者認(rèn)為,雖然隨著人工智能技術(shù)由弱人工智能走向強(qiáng)人工智能,算法黑箱變成了一個(gè)越來越無法避免的問題,但法律看重的是“可理解”,并不是“可闡釋”。我們可以不去探究人工智能的內(nèi)部究竟如何運(yùn)作,但是要明確輸入數(shù)據(jù)和輸出結(jié)果之間的關(guān)聯(lián),因此算法的設(shè)計(jì)者有義務(wù)通過檢視輸入數(shù)據(jù)和重現(xiàn)執(zhí)行過程來化解人們的質(zhì)疑。

從立法的角度來說,我們應(yīng)當(dāng)明確人工智能要遵循透明處理原則,要求算法具有可解釋性。

1.推動(dòng)技術(shù)倫理的算法導(dǎo)入

法律要強(qiáng)化基于人類倫理規(guī)范的算法橫型設(shè)計(jì),要求人工智能開發(fā)者設(shè)計(jì)可解釋性的智能系統(tǒng),促進(jìn)人工智能算法邏輯與人類社會(huì)價(jià)值規(guī)范的持續(xù)校準(zhǔn)。

2.加強(qiáng)智能算法的透明監(jiān)督

創(chuàng)新算法監(jiān)管模式,建立多層級(jí)監(jiān)管體系。政府必須依法開展針對(duì)人工智能的產(chǎn)品和服務(wù)監(jiān)管,人工智能企業(yè)、行業(yè)應(yīng)建立相應(yīng)的算法監(jiān)管體制,保持與政府監(jiān)管的協(xié)同。

(三)人工智能產(chǎn)品法律責(zé)任承擔(dān)方式的完善

在前文中,我們論述了人工智能的法律主體地位之后,人工智能從事法律行為產(chǎn)生法律后果、承擔(dān)法律責(zé)任的問題就可以得到解決。弱人工智能從事法律行為的后果如前所述是不需要它自己承擔(dān)的,因?yàn)樗鼏渭兊闹皇且环N“工具”,不具有法律主體資格。但強(qiáng)人工智能機(jī)器人在法律上無論是按照“主體說”還是“電子人格說”都具有主體地位,那么就代表著強(qiáng)人工智能機(jī)器人在社會(huì)生活中不僅可以行使權(quán)利、履行義務(wù),且當(dāng)它基于其自身的辨認(rèn)和控制能力,在程序設(shè)計(jì)范圍以外實(shí)施了能夠產(chǎn)生法律后果的行為,機(jī)器人本身要承擔(dān)責(zé)任。從罪責(zé)刑相適應(yīng)原則的角度來講,此時(shí)如果只追究智能機(jī)器人研發(fā)者、使用者、管理者或監(jiān)督者的責(zé)任,是與法律原則相違背的。那么,強(qiáng)人工智能機(jī)器人主體實(shí)施的法律行為的后果到底應(yīng)該如何承擔(dān)呢?

強(qiáng)人工智能是“非人”的法律主體,這與現(xiàn)有法律制度中法人的主體地位相似,所以我們可以借鑒法人從事法律活動(dòng)的后果承擔(dān)來設(shè)立智能機(jī)器人的責(zé)任承擔(dān)制度。法人作為依法獨(dú)立享有民事權(quán)利和承擔(dān)民事義務(wù)的組織,以其自身全部財(cái)產(chǎn)為限對(duì)其從事的法律活動(dòng)產(chǎn)生的后果承擔(dān)責(zé)任,而股東們僅以其出資為限承擔(dān)責(zé)任。但是人工智能卻沒有財(cái)產(chǎn)可供執(zhí)行,因此我們可以考慮從以下幾個(gè)方面完善人工智能的責(zé)任承擔(dān)制度。

1.為人工智能強(qiáng)制投保責(zé)任保險(xiǎn)

當(dāng)人工智能由于其本身原因造成損害時(shí),如果讓所有者承擔(dān)責(zé)任,將可能會(huì)抑制消費(fèi)者購(gòu)買人工智能商品的想法,造成消費(fèi)市場(chǎng)低迷,從而間接阻礙人工智能技術(shù)的發(fā)展;如果讓設(shè)計(jì)者承擔(dān)責(zé)任,更是直接導(dǎo)致設(shè)計(jì)者可能會(huì)因害怕承擔(dān)責(zé)任而喪失了開發(fā)和鉆研的精神。由此看來,人工智能的法律責(zé)任承擔(dān)問題是單一群體或者企業(yè)所無法獨(dú)自應(yīng)對(duì)的。

基于此,我們可以采用強(qiáng)制為每一臺(tái)人工智能機(jī)器人投保責(zé)任保險(xiǎn)的方式,使其在造成人們難以預(yù)料到的危害時(shí),可以通過保險(xiǎn)分擔(dān)風(fēng)險(xiǎn),以較小的經(jīng)濟(jì)成本更加合理地解決糾紛。美國(guó)一些州的立法已經(jīng)針對(duì)自動(dòng)駕駛汽車做了類似規(guī)定。依據(jù)這種規(guī)定,在產(chǎn)生糾紛時(shí)可以直接在保險(xiǎn)賠償金范圍內(nèi)進(jìn)行賠償,如此將很大程度上減少人工智能侵權(quán)時(shí)的賠償糾紛問題,使得人工智能行業(yè)可以更快更好地發(fā)展。

3.建立由政府或行業(yè)主導(dǎo)的儲(chǔ)備金制度

可以讓消費(fèi)者和開發(fā)商以特定的金額比例,在強(qiáng)人工智能機(jī)器人原來的成本上多承擔(dān)一部分費(fèi)用,以建立一種由政府主導(dǎo)或行業(yè)主導(dǎo)的儲(chǔ)備金。

與人工智能保險(xiǎn)不同,人工智能儲(chǔ)備金不是通過額外支付保險(xiǎn)費(fèi)用,而是通過銷售時(shí)分?jǐn)偢郊淤M(fèi)用的方式,建立起一個(gè)整個(gè)人工智能行業(yè)所共有的資金池。任何有關(guān)責(zé)任賠償?shù)膯栴}所涉及的賠償費(fèi)用都由儲(chǔ)備資金池進(jìn)行支付,開發(fā)商與消費(fèi)者不再承擔(dān)其他任何由人工智能本身過錯(cuò)而帶來的賠償責(zé)任。

這兩種方式不僅可以減少不必要的糾紛,而且符合我們對(duì)人工智能機(jī)器人法律地位的肯定,使其獨(dú)立承擔(dān)責(zé)任。這兩種方式通過讓所有者、開發(fā)商、制造商預(yù)先支付一定可預(yù)知的成本,來避免未來可能出現(xiàn)的他們無法預(yù)測(cè)到的未知風(fēng)險(xiǎn),這種可預(yù)知性也能夠讓所有者可以更為安心地使用產(chǎn)品;開發(fā)商和制造商也不用過于擔(dān)心對(duì)未來可能會(huì)為突然出現(xiàn)的、以現(xiàn)在科技發(fā)展水平還無法預(yù)測(cè)的風(fēng)險(xiǎn)承擔(dān)責(zé)任,避免由于無法預(yù)測(cè)的責(zé)任問題阻礙人工智能的發(fā)展。

四、結(jié)語

人工智能是引領(lǐng)新一輪科技革命和產(chǎn)業(yè)革命的顛覆性技術(shù),在為人類社會(huì)創(chuàng)造巨大福祉的同時(shí),也催生出各種全新的風(fēng)險(xiǎn)。在法律方面,這是一場(chǎng)可能會(huì)顛覆傳統(tǒng)理論的革新;在數(shù)據(jù)安全、算法安全、法律主體、法律責(zé)任等領(lǐng)域,人類社會(huì)都面臨著全新的挑戰(zhàn)。為應(yīng)對(duì)人工智能時(shí)代可能出現(xiàn)的風(fēng)險(xiǎn),法律應(yīng)重視預(yù)防機(jī)制建設(shè),同時(shí)設(shè)置更好的事后矯正機(jī)制。筆者從宏觀的角度提出了人工智能目前可能面臨的風(fēng)險(xiǎn)和法律上的應(yīng)對(duì)措施,但是事實(shí)上的挑戰(zhàn)與困難可能遠(yuǎn)遠(yuǎn)不止于此。

作為高速發(fā)展中的世界大國(guó),我國(guó)應(yīng)當(dāng)在國(guó)際上承擔(dān)起更多的責(zé)任,為人類命運(yùn)共同體做出更大的貢獻(xiàn)??紤]到人工智能對(duì)人類命運(yùn)的影響,努力完善治理人工智能的中國(guó)方案,消除人工智能可能帶來的法律上的風(fēng)險(xiǎn)和倫理上的危機(jī),推進(jìn)人工智能全球治理和健康發(fā)展,是當(dāng)代中國(guó)法律人應(yīng)當(dāng)承擔(dān)的歷史使命。

猜你喜歡
機(jī)器人人工智能法律
法律解釋與自然法
法律方法(2021年3期)2021-03-16 05:57:02
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
讓人死亡的法律
山東青年(2016年1期)2016-02-28 14:25:30
“互助獻(xiàn)血”質(zhì)疑聲背后的法律困惑
機(jī)器人來幫你
認(rèn)識(shí)機(jī)器人
機(jī)器人來啦
黎城县| 应城市| 泽库县| 准格尔旗| 通化市| 曲沃县| 钟山县| 鄂伦春自治旗| 滨州市| 双江| 三明市| 周至县| 军事| 常宁市| 德令哈市| 新泰市| 任丘市| 吉安县| 鲁山县| 博白县| 宁南县| 龙州县| 临武县| 南通市| 昆山市| 建平县| 司法| 乃东县| 广州市| 鄂托克前旗| 阿城市| 高阳县| 安塞县| 赣州市| 隆子县| 桐乡市| 汉寿县| 万源市| 江门市| 进贤县| 尼玛县|