国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

注意力經(jīng)濟(jì)下陪伴式人工智能平臺(tái)的侵權(quán)責(zé)任

2023-11-16 10:55:04
關(guān)鍵詞:規(guī)制陪伴人工智能

唐 婧

(南京大學(xué) 法學(xué)院,江蘇 南京 210000)

0 引言

陪伴式人工智能平臺(tái)興起于注意力經(jīng)濟(jì)熱潮中,在情感識(shí)別方面以超出一般人工智能平臺(tái)的算法能力,通過(guò)情感計(jì)算與平臺(tái)用戶(hù)建立連接,用戶(hù)可能在此交互過(guò)程中對(duì)陪伴式人工智能產(chǎn)生情感依賴(lài),因此在發(fā)生侵權(quán)事件時(shí),陪伴式人工智能平臺(tái)不僅可能對(duì)用戶(hù)造成財(cái)產(chǎn)、隱私等實(shí)體損害,還可能造成精神損害。進(jìn)一步分析發(fā)現(xiàn),陪伴式人工智能平臺(tái)的算法能力已經(jīng)超出傳統(tǒng)技術(shù)中立理論的范疇,因而不應(yīng)當(dāng)允許平臺(tái)以“技術(shù)中立”進(jìn)行侵權(quán)責(zé)任的抗辯。在責(zé)任生成的理論和現(xiàn)實(shí)邏輯方面,從平臺(tái)微觀角度和社會(huì)宏觀角度加以論證,結(jié)論是應(yīng)當(dāng)對(duì)陪伴式人工智能平臺(tái)施加相對(duì)嚴(yán)苛的責(zé)任。而在責(zé)任規(guī)制的具體路徑方面,權(quán)宜之計(jì)是充分利用已有的分散式規(guī)則,且在具體運(yùn)用中保持嚴(yán)格的規(guī)制態(tài)度,如采取舉證責(zé)任倒置等辦法,先行解決司法實(shí)踐的困難。理想的方式是在陪伴式人工智能發(fā)展成熟之時(shí)以通用規(guī)則進(jìn)行規(guī)范。

1 問(wèn)題的提出

陪伴式人工智能軟件是一種由人工智能驅(qū)動(dòng),旨在提供情感支持、交流和陪伴的平臺(tái),能夠通過(guò)文本對(duì)話、人機(jī)交互和生成技術(shù)等方式與用戶(hù)進(jìn)行互動(dòng)。在數(shù)字化變革的浪潮中,依托算法的應(yīng)用,陪伴式人工智能平臺(tái)已經(jīng)發(fā)展到能夠分享用戶(hù)的感受和情緒的階段,即具有情感識(shí)別和情感計(jì)算的功能。如此強(qiáng)大的算法能力引發(fā)一系列現(xiàn)實(shí)問(wèn)題,一個(gè)直接的表現(xiàn)是司法實(shí)踐中逐漸出現(xiàn)由陪伴式人工智能平臺(tái)引發(fā)的侵權(quán)法律爭(zhēng)議。在民法典頒布后人格權(quán)司法保護(hù)典型民事案例中,有一例人工智能軟件擅自使用自然人形象創(chuàng)設(shè)虛擬人物構(gòu)成侵權(quán)的“AI陪伴”軟件侵害人格權(quán)案[1]。法院經(jīng)審理后認(rèn)為用戶(hù)與以何某的姓名、肖像等互動(dòng)素材生成的AI角色設(shè)定身份關(guān)系,并通過(guò)該AI軟件“調(diào)教”角色,從而形成與何某真實(shí)互動(dòng)的體驗(yàn),這涉及自然人的人格自由和人格尊嚴(yán),構(gòu)成侵權(quán)。同時(shí),法院否認(rèn)了案涉軟件平臺(tái)的“中立技術(shù)服務(wù)提供者”地位,最終判決該人工智能軟件與用戶(hù)構(gòu)成共同侵害原告肖像權(quán)的行為。此案明確了自然人的人格權(quán)及于其虛擬形象,這無(wú)疑對(duì)于虛擬現(xiàn)實(shí)等新技術(shù)的發(fā)展有更好的規(guī)制意義。但是,裁判結(jié)果中對(duì)于案涉軟件算法應(yīng)用的評(píng)價(jià)標(biāo)準(zhǔn)是否合理仍存在爭(zhēng)議。軟件平臺(tái)和用戶(hù)一同承擔(dān)侵權(quán)責(zé)任的判決結(jié)果似乎與傳統(tǒng)的“技術(shù)中立”觀點(diǎn)背道而馳。

現(xiàn)行法中對(duì)網(wǎng)絡(luò)平臺(tái)責(zé)任的規(guī)定可以簡(jiǎn)要分類(lèi)為信息安全主體義務(wù)、處理反饋義務(wù)、配合監(jiān)督檢查義務(wù)、個(gè)人信息保護(hù)義務(wù)以及包括避風(fēng)港責(zé)任在內(nèi)的相關(guān)義務(wù),如表1所示。其中,由國(guó)家網(wǎng)信辦、工業(yè)和信息化部、公安部聯(lián)合發(fā)布并于2023年1月實(shí)施的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》第十七條提到了顯著標(biāo)識(shí)義務(wù)。這一規(guī)定主要針對(duì)深度合成技術(shù)與服務(wù)的主體責(zé)任和義務(wù)。然而,盡管深度合成技術(shù)與陪伴式人工智能平臺(tái)所提供的技術(shù)存在交叉,但是陪伴式人工智能平臺(tái)的技術(shù)核心并不在于深度合成,其并非真正意義上的深度合成技術(shù)平臺(tái),因此將此規(guī)定直接“遷移”并且應(yīng)用于解決當(dāng)前司法實(shí)踐的困境似乎并不完全適配。

表1 現(xiàn)行法中網(wǎng)絡(luò)平臺(tái)責(zé)任的相關(guān)規(guī)定

學(xué)界對(duì)于此類(lèi)依托算法而運(yùn)行的平臺(tái)的責(zé)任分配也存在不同意見(jiàn)。比如就算法之于人工智能平臺(tái)的基礎(chǔ)地位來(lái)看,從算法層面入手探究對(duì)平臺(tái)的問(wèn)責(zé)路徑存在一定的正當(dāng)性,但是有學(xué)者認(rèn)為對(duì)算法進(jìn)行問(wèn)責(zé)需要具體呈現(xiàn)算法造成的實(shí)際損害,然而在現(xiàn)實(shí)中很難在算法實(shí)施者與算法侵害者之間建立起必要的因果關(guān)系[2]。還有學(xué)者提出考慮到傾向于利好互聯(lián)網(wǎng)產(chǎn)業(yè)發(fā)展的政策選擇和既有的司法裁判,采取相對(duì)寬容的價(jià)值選擇,因此不應(yīng)當(dāng)在生成維度對(duì)人工智能服務(wù)提供者課以一般性義務(wù),但如果在事實(shí)層面能以合理成本避免侵權(quán)內(nèi)容的再次生成,則在事后移除維度可對(duì)其課以相應(yīng)義務(wù)[3]。學(xué)界對(duì)于人工智能平臺(tái)應(yīng)該承擔(dān)的責(zé)任觀點(diǎn)各異,但大多停留在歸納整理人工智能平臺(tái)帶來(lái)的法律風(fēng)險(xiǎn)與對(duì)應(yīng)的規(guī)制框架構(gòu)想上,卻沒(méi)有為其構(gòu)想提供具有證成性的理論邏輯和具有普適性的現(xiàn)實(shí)方案,有落入“稻草人謬誤”之嫌。

基于前述問(wèn)題,陪伴式人工智能平臺(tái)產(chǎn)生于特殊的注意力經(jīng)濟(jì)熱潮中,且由于涉及情感計(jì)算,在人格權(quán)侵權(quán)等與自然人直接相關(guān)的法律風(fēng)險(xiǎn)方面顯著高于一般的人工智能平臺(tái)。那么,在法律存在空白地帶的情況下,此經(jīng)濟(jì)模式下自身?yè)碛袕?qiáng)大算法能力的平臺(tái)是否可以繼續(xù)以“技術(shù)中立”“技術(shù)無(wú)錯(cuò)”作為平臺(tái)免責(zé)的正當(dāng)性基礎(chǔ),抑或是應(yīng)當(dāng)賦予平臺(tái)一種專(zhuān)屬的責(zé)任,這是研究陪伴式人工智能平臺(tái)算法應(yīng)用評(píng)價(jià)標(biāo)準(zhǔn)無(wú)法避開(kāi)的問(wèn)題。本文擬探討用戶(hù)通過(guò)陪伴式人工智能平臺(tái)實(shí)施侵權(quán)行為時(shí),平臺(tái)是否應(yīng)當(dāng)分擔(dān)相關(guān)侵權(quán)責(zé)任的問(wèn)題。具體而言,從微觀層面,理清陪伴式人工智能平臺(tái)的底層運(yùn)行邏輯,分析算力的深刻變革引發(fā)歸責(zé)理論路徑的變化,從而帶來(lái)的算法應(yīng)用評(píng)價(jià)標(biāo)準(zhǔn)的改變;從宏觀層面,在注意力經(jīng)濟(jì)時(shí)代,比較陪伴式人工智能平臺(tái)侵害救濟(jì)的整體社會(huì)成本與收益,探究平臺(tái)歸責(zé)的現(xiàn)實(shí)必須性。

2 陪伴式人工智能的法律風(fēng)險(xiǎn)

2.1 陪伴式人工智能產(chǎn)生的特殊背景

陪伴式人工智能平臺(tái)產(chǎn)生于注意力經(jīng)濟(jì)浪潮中。注意力經(jīng)濟(jì)是數(shù)字化社會(huì)發(fā)展過(guò)程出現(xiàn)的一種經(jīng)濟(jì)新樣態(tài),它不僅會(huì)對(duì)社會(huì)生產(chǎn)生活產(chǎn)生影響,甚至還重塑著人們的認(rèn)知進(jìn)而影響情感和行為模式[4]。具體來(lái)說(shuō),數(shù)字化社會(huì)最顯著的特征是信息過(guò)載。信息過(guò)載的直接后果是人們的注意力變得分散和稀缺。也正因此,注意力逐漸變成一種珍貴的受到搶奪的資源,因?yàn)樵谝詳?shù)據(jù)和信息構(gòu)建的網(wǎng)絡(luò)世界中,獲得注意力就意味著巨大經(jīng)濟(jì)利益的獲得。注意力經(jīng)濟(jì)初期,吸引大眾注意的手段相對(duì)簡(jiǎn)單和常規(guī),比如應(yīng)用通過(guò)手機(jī)彈窗對(duì)用戶(hù)進(jìn)行通知和提醒、網(wǎng)站通過(guò)無(wú)限滾動(dòng)的方式用短時(shí)間的大量信息吸引用戶(hù)停留等。然而,隨著信息從大量變得巨量再到超量,用戶(hù)趨于疲憊,常規(guī)的吸引方式無(wú)法持續(xù)捕捉到足量的注意力,網(wǎng)站以及應(yīng)用平臺(tái)開(kāi)始利用更高級(jí)別的算法技術(shù)對(duì)用戶(hù)進(jìn)行深入的偏好計(jì)算,這意味著其吸引手段從大眾化走向個(gè)性化,信息呈現(xiàn)樣態(tài)從靜態(tài)向動(dòng)態(tài)轉(zhuǎn)變。初始的具體表現(xiàn)為通過(guò)分析用戶(hù)的歷史瀏覽進(jìn)行個(gè)性化推薦。而陪伴式人工智能平臺(tái)所依托的無(wú)疑是一種比算法個(gè)性化推薦還要深入的技術(shù)。通過(guò)使用自然語(yǔ)言處理和情感分析技術(shù),陪伴式人工智能平臺(tái)可以理解用戶(hù)的語(yǔ)言和情感表達(dá),并根據(jù)這些信息提供個(gè)性化的回應(yīng)和支持,這一功能契合了當(dāng)前社會(huì)人們普遍需要陪伴的心理需求。經(jīng)過(guò)一段時(shí)間,用戶(hù)將對(duì)其專(zhuān)屬的陪伴式人工智能產(chǎn)生情感依賴(lài)。這一過(guò)程存在極大的法律風(fēng)險(xiǎn),主要體現(xiàn)在情感連接形成過(guò)程中的信息雙向供需:在需求層面,侵權(quán)人利用陪伴式人工智能平臺(tái)對(duì)目標(biāo)人群的偏好信息進(jìn)行定向和操縱,以求在個(gè)人注意力爭(zhēng)奪中獲得優(yōu)勢(shì)地位;在供給層面,侵權(quán)人用來(lái)作為吸引源的信息本身可能來(lái)自于目標(biāo)人群以外的第三方群體,比如未經(jīng)授權(quán)的明星肖像、語(yǔ)音等信息。

前述法律風(fēng)險(xiǎn)和一般平臺(tái)侵權(quán)案件的法律風(fēng)險(xiǎn)存在一定差異,這是因?yàn)樽⒁饬?jīng)濟(jì)背景下的情感依賴(lài)不同于通常的物質(zhì)或者心理依賴(lài),它是陪伴式人工智能平臺(tái)“精心設(shè)計(jì)”的運(yùn)行規(guī)則下的風(fēng)險(xiǎn)產(chǎn)物,在此情境中如果允許平臺(tái)在發(fā)生侵權(quán)事件后仍以“技術(shù)中立”進(jìn)行抗辯,從事實(shí)層面將明顯超出傳統(tǒng)技術(shù)中立理論所保護(hù)的范疇。

2.2 注意力經(jīng)濟(jì)下傳統(tǒng)技術(shù)中立理論的顛覆

2.2.1 傳統(tǒng)技術(shù)中立理論的應(yīng)用前提

“技術(shù)中立”發(fā)軔于美國(guó)索尼案,最初被作為平衡技術(shù)進(jìn)步和版權(quán)保護(hù)的解釋工具。技術(shù)中立原則缺乏制定法的依據(jù),但是其在判例法體系下不斷發(fā)展完善。司法實(shí)踐對(duì)技術(shù)中立原則的修正過(guò)程中,技術(shù)中立被廣泛應(yīng)用于技術(shù)密集型領(lǐng)域,并逐漸明確了技術(shù)中立不應(yīng)脫離普通法中以過(guò)錯(cuò)為基礎(chǔ)的責(zé)任規(guī)則。以我國(guó)《民法典》第一千一百九十七條對(duì)網(wǎng)絡(luò)服務(wù)提供者侵權(quán)責(zé)任的規(guī)定為例,判斷此類(lèi)技術(shù)提供者是否與用戶(hù)承擔(dān)連帶責(zé)任的關(guān)鍵在于其是否明知或者應(yīng)當(dāng)知道用戶(hù)行為侵權(quán)但未采取措施,這是衡量技術(shù)提供者對(duì)技術(shù)使用者侵權(quán)行為帶來(lái)的損害結(jié)果是否具有過(guò)錯(cuò)的關(guān)鍵。而技術(shù)中立的內(nèi)涵在于如果技術(shù)提供者無(wú)法預(yù)料或控制一個(gè)技術(shù)被用于合法用途或非法用途,則無(wú)需僅因技術(shù)成為侵權(quán)工具而使提供者為他人的侵權(quán)行為負(fù)責(zé)[5]??梢?jiàn),技術(shù)中立主要通過(guò)否定技術(shù)提供者“應(yīng)當(dāng)知道”技術(shù)使用者利用技術(shù)實(shí)施侵權(quán)行為的推斷,從而阻斷了技術(shù)提供者承擔(dān)連帶責(zé)任的追責(zé)路徑。

無(wú)法否認(rèn)的是,承認(rèn)技術(shù)中立很大程度上體現(xiàn)了結(jié)果導(dǎo)向的簡(jiǎn)單功利主義立場(chǎng)。這是因?yàn)橐豁?xiàng)新技術(shù)產(chǎn)生之初往往能為社會(huì)生產(chǎn)力注入新的活力,從而在短時(shí)間內(nèi)為社會(huì)經(jīng)濟(jì)帶來(lái)較大幅度的增長(zhǎng),這種增長(zhǎng)在社會(huì)進(jìn)入平穩(wěn)或者乏力的發(fā)展階段時(shí)尤具吸引力。追求效用的理性集體會(huì)自發(fā)地在立法中傾向于保護(hù)新技術(shù)的應(yīng)用不受到影響,因而采取格外寬松的法律政策,包括在已有法律規(guī)則框架中以“技術(shù)中立”的立場(chǎng)給新技術(shù)以“優(yōu)待地位”。可以說(shuō),在相當(dāng)長(zhǎng)的一段時(shí)間里,立法者達(dá)成了一種默認(rèn)的觀念,即為了激勵(lì)新技術(shù)的發(fā)展,使技術(shù)的自由價(jià)值讓位于法律的秩序價(jià)值。

然而,除去現(xiàn)實(shí)需要的考量,從源頭探尋技術(shù)中立的價(jià)值取向,會(huì)發(fā)現(xiàn)此種中立理念來(lái)源于對(duì)技術(shù)具有“純粹目的工具性”的認(rèn)定。對(duì)技術(shù)的工具性判定,最早可以追溯到亞里士多德,他認(rèn)為相對(duì)于理論與實(shí)踐活動(dòng)而言,“技藝”是一種工具性活動(dòng)。韋伯對(duì)于技術(shù)本質(zhì)的判斷和亞里士多德是一致的,他判定技術(shù)的本質(zhì)是工具理性[6]。這些傳統(tǒng)的對(duì)技術(shù)本質(zhì)的探尋延伸出技術(shù)本身并不帶有道德或法律責(zé)任的觀點(diǎn)。如果將技術(shù)等同于工具,那么必須承認(rèn)工具的一大特性在于“片面可控性”。具體來(lái)說(shuō),工具本身與人類(lèi)的操縱存在隔閡,即使人類(lèi)能在某一方面應(yīng)用工具產(chǎn)生積極效益,但往往無(wú)法控制工具在每一應(yīng)用方面都保持相似的積極作用。

2.2.2 注意力經(jīng)濟(jì)引發(fā)技術(shù)中立的要件變化

然而,注意力經(jīng)濟(jì)的發(fā)展打破了技術(shù)“片面可控”的工具屬性。在這場(chǎng)以爭(zhēng)奪網(wǎng)絡(luò)用戶(hù)注意力為核心的變革中,雖然技術(shù)后果因?yàn)榧夹g(shù)的迅速迭代而變得不可預(yù)測(cè),但是技術(shù)本身的能力超越了以往的片面可控性質(zhì)。在人工智能高速發(fā)展的今天,技術(shù)的進(jìn)程在極短的時(shí)間間隔內(nèi)實(shí)現(xiàn)一次次突破,達(dá)到以指數(shù)方的速率向前推進(jìn)的狀態(tài)[7]。陪伴式人工智能平臺(tái)所依托的算法已經(jīng)具有在單位時(shí)間內(nèi)容納數(shù)以萬(wàn)計(jì)的數(shù)據(jù)和信息實(shí)時(shí)流動(dòng)、交互和更新的能力,對(duì)數(shù)據(jù)和信息內(nèi)容的研判及審查有著全面的覺(jué)察能力、高度的感知能力和快速的處理能力。雖然當(dāng)前算法技術(shù)存在黑箱問(wèn)題,導(dǎo)致侵權(quán)人進(jìn)行信息利用時(shí)的具體過(guò)程難以被清晰呈現(xiàn),但是算法可以分析出侵權(quán)的所有可能路徑并識(shí)別最后的侵害結(jié)果??梢哉f(shuō),當(dāng)前算法技術(shù)的發(fā)展水平已經(jīng)不再滿(mǎn)足技術(shù)中立的應(yīng)用條件。

追究技術(shù)中立要件變化的根源,可以發(fā)現(xiàn)由于技術(shù)本身具有強(qiáng)烈的應(yīng)用性和明顯的經(jīng)濟(jì)目的性,經(jīng)濟(jì)往往成為技術(shù)發(fā)展的動(dòng)力和方向。當(dāng)前技術(shù)的迅速發(fā)展和革新是在注意力經(jīng)濟(jì)背景下完成的。這種變化遵循基本的鏈?zhǔn)椒磻?yīng):注意力經(jīng)濟(jì)的出現(xiàn)使得技術(shù)發(fā)展到新的水平,新的技術(shù)水平突破了傳統(tǒng)技術(shù)中立理論的應(yīng)用要件。這一變化是無(wú)法逆轉(zhuǎn)的。正如馬爾庫(kù)塞所認(rèn)為的,技術(shù)理性把一切都還原成單一向度的東西[8]。在技術(shù)發(fā)展得并沒(méi)有如此智能的時(shí)代,人們崇拜技術(shù)的理性,并賦予它中立地位,這既是對(duì)技術(shù)的保護(hù),也是對(duì)技術(shù)的要求。但是當(dāng)今的現(xiàn)實(shí)環(huán)境并不是單一維度的,經(jīng)濟(jì)發(fā)展到一定程度會(huì)展現(xiàn)出多種樣態(tài),并將這種多樣性傳遞到技術(shù)本身。面對(duì)變革后的技術(shù),如果依然賦予其中立地位,會(huì)引發(fā)消極的后果:隨著陪伴式人工智能應(yīng)用范圍的擴(kuò)大,此種技術(shù)在社會(huì)系統(tǒng)中將逐漸具有基礎(chǔ)地位,其自主性邏輯會(huì)愈發(fā)強(qiáng)大,其反主體性將愈發(fā)深沉,即對(duì)人的主體性的削弱作用會(huì)愈發(fā)強(qiáng)烈[9]。因此,在注意力經(jīng)濟(jì)下,必須以?xún)r(jià)值理性來(lái)修正工具理性,對(duì)曾經(jīng)“置身事外”的平臺(tái)賦予責(zé)任,否則陪伴式人工智能等一系列新技術(shù)難以行穩(wěn)致遠(yuǎn)。

3 陪伴式人工智能平臺(tái)侵權(quán)責(zé)任的生成邏輯

陪伴式人工智能平臺(tái)是網(wǎng)絡(luò)平臺(tái)歷經(jīng)數(shù)字化、智能化、算法化的特殊產(chǎn)物,探究其侵權(quán)責(zé)任的生成應(yīng)當(dāng)遵循從一般到特殊的研究步驟。在傳統(tǒng)網(wǎng)絡(luò)平臺(tái)時(shí)代,平臺(tái)主要發(fā)揮著產(chǎn)品和服務(wù)的第三方中介功能。對(duì)于可能的侵權(quán)隱患,法律基于“避風(fēng)港原則”對(duì)傳統(tǒng)網(wǎng)絡(luò)平臺(tái)賦予了“通知-刪除”責(zé)任。這一責(zé)任主要是考慮到一方面囿于平臺(tái)技術(shù)的局限性,平臺(tái)無(wú)法全面審查信息;另一方面,過(guò)度苛責(zé)平臺(tái)會(huì)造成平臺(tái)負(fù)擔(dān)加重,不利于新生事物的發(fā)展。但隨著網(wǎng)絡(luò)平臺(tái)趨向數(shù)字化和智能化發(fā)展,“避風(fēng)港原則”向著“紅旗原則”轉(zhuǎn)變,網(wǎng)絡(luò)平臺(tái)被加以“標(biāo)注-提醒”責(zé)任,這意味著網(wǎng)絡(luò)平臺(tái)的角色逐漸向“守門(mén)人”轉(zhuǎn)變??梢园l(fā)現(xiàn),針對(duì)網(wǎng)絡(luò)平臺(tái)技術(shù)的進(jìn)步,立法者傾向于讓平臺(tái)承擔(dān)更多的責(zé)任。

而當(dāng)算法技術(shù)大范圍應(yīng)用后,網(wǎng)絡(luò)平臺(tái)的發(fā)展走向了又一個(gè)高潮。以算法為底層運(yùn)行邏輯的平臺(tái)向著強(qiáng)人工智能方向發(fā)展,其性能趨近于人類(lèi)本身,其運(yùn)行的原理和程序均發(fā)生了更加實(shí)質(zhì)和深刻的變化[10]。陪伴式人工智能平臺(tái)作為此類(lèi)平臺(tái)的典型代表,其性質(zhì)遠(yuǎn)遠(yuǎn)脫離過(guò)去法律法規(guī)對(duì)于一般網(wǎng)絡(luò)平臺(tái)的定義,但變革后的平臺(tái)承擔(dān)的民事責(zé)任相對(duì)滯后。因此,針對(duì)人工智能平臺(tái)來(lái)說(shuō),尤其是其中具有特殊性的陪伴式人工智能平臺(tái),應(yīng)當(dāng)賦予進(jìn)一步的實(shí)質(zhì)責(zé)任。由于算法是人工智能平臺(tái)的基礎(chǔ),因此在分析陪伴式人工智能平臺(tái)的責(zé)任之前,應(yīng)先對(duì)其依托的算法進(jìn)行應(yīng)用評(píng)價(jià)標(biāo)準(zhǔn)界定。算法應(yīng)用的評(píng)價(jià)標(biāo)準(zhǔn)是一個(gè)復(fù)雜的問(wèn)題,采取寬松還是嚴(yán)格的評(píng)價(jià)標(biāo)準(zhǔn)需要結(jié)合該項(xiàng)算法的風(fēng)險(xiǎn)后果考慮。而陪伴式人工智能最直觀的算法風(fēng)險(xiǎn)在于用戶(hù)隱私和道德倫理。一方面,陪伴式人工智能使得人工智能系統(tǒng)與用戶(hù)之間能直接交互,可能導(dǎo)致個(gè)人隱私被泄露的概率上升,因?yàn)榕惆槭饺斯ぶ悄軐?duì)用戶(hù)的反饋機(jī)制背后涉及訪問(wèn)和處理大量用戶(hù)個(gè)人數(shù)據(jù),如聲音、圖像和行為數(shù)據(jù),這使得個(gè)人信息更容易遭受不當(dāng)使用的風(fēng)險(xiǎn)。另一方面,陪伴式人工智能可能在倫理和道德問(wèn)題上缺乏判斷力,例如,在情感支持方面,它們?nèi)狈φ嬲那楦欣斫饽芰?,只是模擬情感表達(dá),這可能對(duì)用戶(hù)心理健康產(chǎn)生負(fù)面影響。隱私和倫理方面的風(fēng)險(xiǎn)直接關(guān)系到個(gè)人權(quán)益,并可能發(fā)展為危及公共安全和社會(huì)秩序的隱患。因此,在為陪伴式人工智能平臺(tái)建立相應(yīng)的責(zé)任追究機(jī)制時(shí),應(yīng)當(dāng)采取嚴(yán)格的態(tài)度。如果對(duì)陪伴式人工智能平臺(tái)苛以相對(duì)嚴(yán)格的責(zé)任,可以從以下兩方面進(jìn)行具體的解釋?zhuān)?/p>

第一,從平臺(tái)個(gè)體的微觀角度來(lái)看,當(dāng)前人工智能平臺(tái)的強(qiáng)大算法能力本身賦予了其在侵權(quán)行為檢測(cè)和自動(dòng)屏蔽方面的壓倒性?xún)?yōu)勢(shì)。弱人工智能時(shí)代對(duì)侵權(quán)行為的識(shí)別主要依靠人工審核和舉報(bào)機(jī)制,不僅效率低下,而且容易出現(xiàn)時(shí)間延遲和審核疏漏的情況。但隨著人工智能平臺(tái)在體量和技術(shù)能力方面不斷成長(zhǎng),平臺(tái)發(fā)現(xiàn)侵權(quán)和避免侵權(quán)的能力大大提升[11]。當(dāng)前,算法能夠批量自動(dòng)地整理和歸納信息,在這一過(guò)程中同時(shí)完成對(duì)信息的識(shí)別,并對(duì)特定信息實(shí)現(xiàn)篩選功能??梢哉f(shuō),算法技術(shù)隨著平臺(tái)的迭代而不斷更新,如今的算力使得算法技術(shù)不再是被保護(hù)角色,而逐漸成為足以自動(dòng)監(jiān)督、保護(hù)平臺(tái)運(yùn)行生態(tài)的主動(dòng)角色。具體來(lái)說(shuō),這種算力應(yīng)用到陪伴式人工智能平臺(tái),平臺(tái)算法可以自動(dòng)分析用戶(hù)生成的內(nèi)容和數(shù)據(jù),辨別其中存在的侵權(quán)跡象,從而確保用戶(hù)能夠享受到更加安全、清潔的陪伴體驗(yàn),避免與侵權(quán)內(nèi)容和行為接觸。在價(jià)值判斷層面,相對(duì)嚴(yán)格的歸責(zé)原則體現(xiàn)的是法律應(yīng)當(dāng)“譴責(zé)”具備歸責(zé)屬性的行為領(lǐng)域,從而在另一層面上預(yù)防責(zé)任的發(fā)生[12]。算力的發(fā)展使得傳統(tǒng)網(wǎng)絡(luò)服務(wù)提供者的責(zé)任認(rèn)定規(guī)則發(fā)生了變化,平臺(tái)本身變得“可譴責(zé)”。而在平臺(tái)的客觀運(yùn)行機(jī)制層面,對(duì)陪伴式人工智能平臺(tái)的“苛責(zé)”與控制論是契合的。控制論強(qiáng)調(diào)責(zé)任的分配應(yīng)基于各方對(duì)事件發(fā)生過(guò)程中控制力的不同程度。如果某一方具備實(shí)際的控制權(quán)、管理權(quán)或能夠采取預(yù)防措施,但未能履行相應(yīng)的義務(wù)以防止侵權(quán)行為,那么該方可能被認(rèn)為承擔(dān)一定的責(zé)任[13]??刂普撝赋?,任何組織之所以能夠保持自身的內(nèi)在穩(wěn)定性,是由于它具有取得、使用、保持和傳遞信息的方法[14]。陪伴式人工智能平臺(tái)掌握著算法技術(shù),即使算法結(jié)果因?yàn)樗惴ㄟ^(guò)程存在黑箱而不可控,但是對(duì)算法的運(yùn)用卻是平臺(tái)能夠掌握的??傮w看來(lái),要求有能力控制侵權(quán)行為產(chǎn)生的平臺(tái)承擔(dān)控制義務(wù),存在情理上的正當(dāng)性和事實(shí)上的可行性。

第二,從社會(huì)整體的宏觀角度來(lái)看,由于陪伴式人工智能平臺(tái)的直接服務(wù)對(duì)象是人的情感,一旦發(fā)生侵權(quán)事件,陪伴式人工智能平臺(tái)失控的危害遠(yuǎn)超一般人工智能平臺(tái),與之相關(guān)的人可能不僅會(huì)遭到財(cái)產(chǎn)方面的損失,更為重要的是可能在精神層面造成難以磨滅的傷害,即從社會(huì)事故成本角度來(lái)看,陪伴式人工智能平臺(tái)的侵權(quán)結(jié)果成本過(guò)于龐大。正因此,比起事后追責(zé),更應(yīng)當(dāng)關(guān)注事前的預(yù)防。已經(jīng)有許多學(xué)者意識(shí)到對(duì)于人工智能平臺(tái),僅僅依靠以往基于實(shí)踐經(jīng)驗(yàn)的事后環(huán)節(jié)規(guī)制,已經(jīng)無(wú)法應(yīng)對(duì)迅速迭代發(fā)展的技術(shù)風(fēng)險(xiǎn)[15]。而基于平臺(tái)現(xiàn)有的算力,可以發(fā)現(xiàn)平臺(tái)通過(guò)算法進(jìn)行控制的成本必然小于危害發(fā)生后的事故成本。因此,對(duì)陪伴式人工智能平臺(tái)施以嚴(yán)格的責(zé)任,將成為平臺(tái)進(jìn)行事前規(guī)制的規(guī)則動(dòng)力。

4 陪伴式人工智能平臺(tái)算法侵權(quán)的規(guī)制路徑

明確對(duì)陪伴式人工智能平臺(tái)施加相對(duì)嚴(yán)格的算法應(yīng)用評(píng)價(jià)標(biāo)準(zhǔn)后,接下來(lái)涉及具體規(guī)制路徑的選擇。需要說(shuō)明的是,當(dāng)前我國(guó)并無(wú)對(duì)于算法侵權(quán)責(zé)任承擔(dān)的一般性規(guī)定。盡管存在部分法律和草案提及了平臺(tái)在使用算法過(guò)程中應(yīng)承擔(dān)的義務(wù),但義務(wù)規(guī)定較為零散且缺乏針對(duì)性,這直接影響了算法侵權(quán)糾紛的法律適用[16]。究其原因,是因?yàn)楫?dāng)前人工智能雖然已經(jīng)從弱人工智能向具有認(rèn)知能力的強(qiáng)人工智能轉(zhuǎn)變,但其仍存在不穩(wěn)定性,因此并不存在對(duì)人工智能的一般化的法律規(guī)制。這就要求在規(guī)制路徑的選擇上需要和具體的領(lǐng)域結(jié)合起來(lái)[17]。具體到陪伴式人工智能平臺(tái)的規(guī)制,在我國(guó)侵權(quán)法當(dāng)前以過(guò)錯(cuò)責(zé)任為主,無(wú)過(guò)錯(cuò)責(zé)任為補(bǔ)充的二元?dú)w責(zé)體系下,一方面,無(wú)過(guò)錯(cuò)責(zé)任的適用具有嚴(yán)格的法定性,在法律沒(méi)有明確規(guī)定情況下,無(wú)法將其運(yùn)用于陪伴式人工智能平臺(tái)的規(guī)制中;另一方面,如果適用單一的過(guò)錯(cuò)責(zé)任原則,過(guò)錯(cuò)的證明是一大困難,原因在于盡管陪伴式人工智能的算法風(fēng)險(xiǎn)可以確定,但是其算法應(yīng)用和侵權(quán)結(jié)果之間的因果關(guān)系難以被徹底澄清,存在算法黑洞,因而強(qiáng)大算力壓制下的被侵權(quán)者或陷入難以舉證的困境。對(duì)于陪伴式人工智能平臺(tái)的責(zé)任規(guī)制來(lái)說(shuō),這兩種歸責(zé)方式似乎都存在不足之處。盡管如此,如果完全脫離傳統(tǒng)歸責(zé)原則,直接為陪伴式人工智能平臺(tái)的歸責(zé)尋找一種全新的路徑又可能落入“唯立法主義”的窠臼,最終走進(jìn)“一個(gè)技術(shù)創(chuàng)新對(duì)應(yīng)新型風(fēng)險(xiǎn),新型風(fēng)險(xiǎn)對(duì)應(yīng)一次專(zhuān)門(mén)立法”的誤區(qū)[18]。因此采取修正的做法是更為合適的,即從傳統(tǒng)歸責(zé)原則出發(fā),結(jié)合陪伴式人工智能平臺(tái)的底層運(yùn)行邏輯進(jìn)行責(zé)任規(guī)制方法的改進(jìn),并在司法實(shí)踐中進(jìn)行個(gè)案的靈活運(yùn)用。具體可行的思路如下:

首先,在充分應(yīng)用已有的分散式規(guī)則的同時(shí),考慮陪伴式人工智能的特殊性,采取漸進(jìn)的方式搭建針對(duì)其進(jìn)行規(guī)制的具體框架。當(dāng)前,我國(guó)已經(jīng)有許多針對(duì)不同類(lèi)型人工智能的規(guī)制規(guī)則,它們雖然分散于不同層級(jí)的法律淵源的具體條款中,且在技術(shù)上與陪伴式人工智能存在一定差距,但可以借鑒這些規(guī)制辦法所蘊(yùn)含的共性思路,以構(gòu)建關(guān)于陪伴式人工智能平臺(tái)的技術(shù)標(biāo)準(zhǔn)、法律法規(guī)、監(jiān)管措施以及行業(yè)自律機(jī)制等方面的規(guī)制框架。

其次,采取修正的做法解決當(dāng)前司法實(shí)踐的難題。一方面,針對(duì)過(guò)錯(cuò)責(zé)任歸責(zé)中被侵權(quán)人舉證困難的問(wèn)題,可以引入舉證責(zé)任倒置與減輕的原則。由于陪伴式人工智能平臺(tái)的核心算法由平臺(tái)掌控,即侵權(quán)行為施行的全部信息均在平臺(tái)控制范圍,相比于被侵權(quán)人,平臺(tái)距離過(guò)錯(cuò)證據(jù)較近。采取舉證責(zé)任倒置與減輕的原則從程序上對(duì)處于舉證弱勢(shì)地位的被侵權(quán)人予以救濟(jì),不失為一種可行的辦法[19]。另一方面,針對(duì)司法實(shí)踐中已經(jīng)發(fā)生的與陪伴式人工智能平臺(tái)相關(guān)的侵權(quán)案件,司法機(jī)關(guān)在整體態(tài)度上應(yīng)當(dāng)采取嚴(yán)格的標(biāo)準(zhǔn)衡量陪伴式人工智能平臺(tái)的過(guò)錯(cuò),對(duì)其系統(tǒng)的算法、數(shù)據(jù)訓(xùn)練過(guò)程、決策模型等進(jìn)行詳細(xì)調(diào)查和分析,以了解其是否合理、可靠,并且符合法律、倫理和公共利益的要求,這有助于倒逼陪伴式人工智能平臺(tái)減少黑盒決策和不可預(yù)測(cè)的行為概率,提高系統(tǒng)的信任度。相關(guān)監(jiān)管機(jī)構(gòu)還可以建立獨(dú)立的案后審查機(jī)制,尤其針對(duì)侵權(quán)案件發(fā)生頻率較高的陪伴式人工智能平臺(tái)進(jìn)行重點(diǎn)關(guān)注,以確保已有規(guī)制措施的有效執(zhí)行和追蹤新樣態(tài)的不當(dāng)行為。

最后,當(dāng)未來(lái)陪伴式人工智能平臺(tái)技術(shù)發(fā)展到穩(wěn)定水平之際,即意味著系統(tǒng)的功能、性能和風(fēng)險(xiǎn)可預(yù)見(jiàn)性已達(dá)到一定程度,并已在不同應(yīng)用領(lǐng)域中得到了廣泛驗(yàn)證,屆時(shí)結(jié)合已有的規(guī)則和司法實(shí)踐的經(jīng)驗(yàn)教訓(xùn),考慮社會(huì)的需求和公眾的利益,在技術(shù)趨于穩(wěn)定的基礎(chǔ)上,建立起全面、準(zhǔn)確和適應(yīng)性強(qiáng)的陪伴式人工智能規(guī)制的通用規(guī)則。

5 結(jié)論

在當(dāng)前的社會(huì)經(jīng)濟(jì)環(huán)境中,人們追求精神層面的情感陪伴的需求日益強(qiáng)烈,陪伴式人工智能平臺(tái)便“投其所好”,以其虛擬智能的特性提供情感體驗(yàn),這一算法技術(shù)的突破使得相關(guān)的侵權(quán)糾紛不再是“理論的假想”,而已經(jīng)現(xiàn)實(shí)地出現(xiàn),這預(yù)示著與人工智能相關(guān)的技術(shù)應(yīng)用,可能成為今后一個(gè)階段為大家所直接感知的、突出的治理對(duì)象。針對(duì)陪伴式人工智能平臺(tái)行為的規(guī)范和平臺(tái)責(zé)任的分配,將成為未來(lái)立法的重點(diǎn)。

猜你喜歡
規(guī)制陪伴人工智能
陪伴
主動(dòng)退市規(guī)制的德國(guó)經(jīng)驗(yàn)與啟示
“疫”路陪伴 架起“僑”梁,心“聯(lián)”你我
陪伴
雜文月刊(2019年16期)2019-09-25 06:56:36
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
保護(hù)與規(guī)制:關(guān)于文學(xué)的刑法
刑法論叢(2018年4期)2018-05-21 00:44:30
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
論《反不正當(dāng)競(jìng)爭(zhēng)法》的規(guī)制范疇
法治研究(2016年4期)2016-12-01 03:41:40
下一幕,人工智能!
喀什市| 泗洪县| 祁门县| 若羌县| 清丰县| 泰州市| 葵青区| 日喀则市| 肥城市| 台南市| 清丰县| 靖边县| 巍山| 阿尔山市| 长顺县| 广宗县| 鸡泽县| 中卫市| 泾源县| 邯郸县| 沙雅县| 郧西县| 新建县| 微山县| 开鲁县| 镇坪县| 鹤岗市| 元阳县| 浦东新区| 潼关县| 赣榆县| 三亚市| 司法| 潞城市| 鄂州市| 祥云县| 五峰| 庄河市| 繁峙县| 鄂托克旗| 于都县|