国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

算法推薦的法律問題及對策

2019-02-11 08:46
關(guān)鍵詞:算法用戶信息

黃 琪

(明光市人民法院,安徽 滁州 239000)

自人類進(jìn)入互聯(lián)網(wǎng)時代尤其是大數(shù)據(jù)時代以來,我們接受信息的途徑越來越多元化,對需要的信息或感興趣的新聞,我們往往通過點擊行為進(jìn)行“投票”。對于當(dāng)今的網(wǎng)絡(luò)服務(wù)提供者而言,“得流量者得天下”,流量就是關(guān)注度,而如何獲得用戶的流量,這就需要大數(shù)據(jù)支撐,通過對用戶數(shù)據(jù)的挖掘、收集、分析與利用,掌握用戶的關(guān)注意向與行為蹤跡,從而為用戶精準(zhǔn)推送信息,成為市場的“寵兒”,進(jìn)而在市場競爭中占得先機(jī)。算法推薦的背后,數(shù)據(jù)的處理已超出我們的認(rèn)知與授權(quán)范圍,一切與個人有關(guān)的信息,無論是已經(jīng)公開的還是采取保密措施的,均在數(shù)字空間無處遁形。算法推薦在給我們帶來精準(zhǔn)與個性化服務(wù)的同時,我們亦不得不警惕它給當(dāng)前公民權(quán)利乃至公共秩序帶來的沖擊與挑戰(zhàn),而如何面對此種變局,正是本文討論之所在。

一、算法推薦的定義與工作原理

隨著互聯(lián)網(wǎng)逐漸智能化以及各種消費(fèi)的深入發(fā)展,互聯(lián)網(wǎng)逐步成為用戶個性需求的理解者與提供者,用戶不再需要耗費(fèi)大量的時間、精力即可享受到高效、便捷、個性化的網(wǎng)絡(luò)服務(wù),而算法推薦就是用戶能體驗此類服務(wù)的關(guān)鍵推手。

(一)算法推薦的定義

算法推薦由“算法”+“推薦”組成。其中,“推薦”為最終呈現(xiàn)在用戶眼前的決策結(jié)果。而“算法”則為運(yùn)作的過程或原理,對于用戶而言,算法極度復(fù)雜,作為一種技術(shù)“黑箱”,用戶只能被動接受由它帶來的結(jié)果而無法洞悉、操控其運(yùn)行過程。對于算法究竟是什么,可以將其理解為一種計算機(jī)程序,是逐步執(zhí)行程序的一組指令[1]。在算法推薦中,“數(shù)據(jù)”是輸入的原料,“推薦”為輸出的結(jié)果,而“算法”則是中間的運(yùn)行過程。沒有“數(shù)據(jù)”與“算法”,“推薦”便無從談起;沒有“推薦”,“數(shù)據(jù)”與“算法”就無法實現(xiàn)預(yù)期目的,故“推薦”是“數(shù)據(jù)”與“算法”的終極任務(wù)。從本質(zhì)上而言,算法推薦屬于算法決策的一種。對于用戶而言,“數(shù)據(jù)”與“算法”皆不可視,唯有“推薦”的結(jié)果才是最直觀或與自身利益最密切相關(guān)的。

算法本身不生產(chǎn)任何信息,它只是將互聯(lián)網(wǎng)中的信息通過智能計算以決定是否推送或“雪藏”,從而實現(xiàn)設(shè)計者或使用者的特定目的。算法沒有自己的思想情感與道德倫理,它不對所推送的內(nèi)容進(jìn)行價值判斷。算法推薦作為一種被廣泛應(yīng)用的智能技術(shù),用戶無需付費(fèi)便可享受由其帶來的服務(wù)。因此,算法推薦可以簡單易懂的定義為:依靠智能算法精準(zhǔn)、高效推送(提供)信息服務(wù)或咨詢決策的一種技術(shù)。

(二)算法推薦的工作原理

算法推薦目前主要的運(yùn)行機(jī)制包括協(xié)同過濾算法、基于內(nèi)容的推薦算法。協(xié)同過濾算法的工作原理為收集、分析不同用戶的數(shù)據(jù)并計算出用戶之間的相似性,進(jìn)而生成與目標(biāo)用戶興趣愛好最相近的top-N項信息并予以推薦。而基于內(nèi)容的協(xié)同算法主要根據(jù)用戶的歷史行為信息來預(yù)測用戶喜好并推薦與其喜好相近的信息。無論何種算法推薦,其目標(biāo)均在于對資訊、商品、服務(wù)(在互聯(lián)網(wǎng)中,此三項內(nèi)容均以信息的形式推送給用戶,故可以“信息”術(shù)語統(tǒng)稱)等內(nèi)容向用戶進(jìn)行精準(zhǔn)推送與有效供給,因而被廣泛應(yīng)用于網(wǎng)絡(luò)傳播、搜索引擎、電子商務(wù)、社交網(wǎng)站、數(shù)字化圖書館等領(lǐng)域。算法已經(jīng)深度介入了人類的生活,我們在網(wǎng)絡(luò)空間所看到的、所享受到的(甚至權(quán)益被損害)基本上是算法推薦的結(jié)果。

在傳統(tǒng)的紙媒時代以及互聯(lián)網(wǎng)初期階段,對信息的投送主要采取“狂轟濫炸”的模式,面對海量、雜亂的信息覆蓋,用戶只能被動接受。伴隨著消費(fèi)的深入發(fā)展以及技術(shù)的進(jìn)步,網(wǎng)絡(luò)服務(wù)提供者紛紛采用“精確制導(dǎo)”模式,摒棄低效率的投送模式,追求信息與用戶的精準(zhǔn)匹配,達(dá)到個性化推送效果,以增強(qiáng)用戶的“黏性”,力求提高經(jīng)濟(jì)效率與市場競爭力。要實現(xiàn)“精確制導(dǎo)”的效果,兩個條件至為關(guān)鍵:一是要有豐富的數(shù)據(jù)(沒有數(shù)據(jù),就無法準(zhǔn)確定位用戶的需求與喜好,更不可能“投其所好”);二是技術(shù)的進(jìn)步能夠?qū)?shù)據(jù)進(jìn)行計算與分析,并將結(jié)果推送給用戶。由此可以歸納為,算法推薦需要數(shù)據(jù)支撐與技術(shù)支撐。

二、算法推薦引發(fā)的法律問題

(一)信息隱私問題

在工業(yè)時代,石油是機(jī)器與工廠得以運(yùn)轉(zhuǎn)的關(guān)鍵資源,而在算法社會,數(shù)據(jù)對算法與人工智能的發(fā)展至關(guān)重要,以至于硅谷有言“數(shù)據(jù)就是新石油”。廉價且便利地收集、整理、分析巨量數(shù)據(jù)是算法社會得以建立的前提。如果用戶不提供必要的個人信息,就很難在網(wǎng)上進(jìn)行各種交易(如網(wǎng)絡(luò)購物)或享受各種網(wǎng)絡(luò)服務(wù)(如網(wǎng)絡(luò)社交)。但這并不意味著網(wǎng)絡(luò)服務(wù)提供者可以對用戶提供的信息(或隱私)進(jìn)行“任性”利用,這涉及到“信息受托”(Information Fiduciaries)問題。傳統(tǒng)的信息受托最典型的莫過于醫(yī)生和律師,他們都收集并知曉客戶大量的私密信息,而客戶愿意透露敏感的個人信息是因為需要他們的專業(yè)服務(wù),但醫(yī)生與律師有義務(wù)對客戶的信息保密并不得用于其他目的。而在網(wǎng)絡(luò)服務(wù)中,用戶與網(wǎng)絡(luò)服務(wù)提供者可能存在或不存在契約(或準(zhǔn)契約)的關(guān)系。在存在契約(或準(zhǔn)契約)的關(guān)系時,二者分別扮演信息委托人與信息受托人的角色,從用戶角度而言,其真實意思為委托網(wǎng)絡(luò)服務(wù)提供者對其提供的個人信息在特定范圍內(nèi)進(jìn)行合理使用以換取各種服務(wù),而網(wǎng)絡(luò)服務(wù)提供者應(yīng)接受委托審慎、合理使用用戶的個人信息以提供服務(wù)并承擔(dān)用戶隱私保護(hù)義務(wù)。在不存在契約(或準(zhǔn)契約)的關(guān)系時,網(wǎng)絡(luò)服務(wù)提供者則須承擔(dān)“公共義務(wù)”(Public Duties),對用戶的個人信息仍應(yīng)合理使用并承擔(dān)隱私保護(hù)義務(wù)[2]。當(dāng)然,這僅是一種理想狀態(tài),互聯(lián)網(wǎng)的現(xiàn)實境況并非如此。

在互聯(lián)網(wǎng)上無論是注冊個人信息還是瀏覽新聞、商品等信息,均會遺留記錄,而用戶在互聯(lián)網(wǎng)上的一舉一動經(jīng)過復(fù)雜的后臺處理會轉(zhuǎn)化成可供處理、分析與利用的數(shù)據(jù)。用戶在互聯(lián)網(wǎng)上留下的“腳印”愈多,其個人數(shù)據(jù)庫就愈完備,其個人特征、環(huán)境特征等信息愈容易被算法計算出來,從而可以被精準(zhǔn)地推送其所感興趣的信息。算法并沒有奇幻的“魔力”,沒有數(shù)據(jù)的喂養(yǎng),算法推送的信息是不可能主動精確尋找(匹配)到個人。用戶在享受便利的同時,其個人隱私也在不知不覺中被侵犯。以網(wǎng)絡(luò)傳播中的算法推薦為例,要實現(xiàn)新聞的個性化推送,首先就必須廣泛挖掘用戶的瀏覽關(guān)注記錄,對用戶的喜好進(jìn)行分析總結(jié),繪制出用戶畫像(它是通過對用戶信息的收集、利用而形成的網(wǎng)絡(luò)個性檔案,這在很大程度是建立在侵犯用戶隱私的基礎(chǔ)上),然后計算每條新聞與用戶畫像的相似度,將相似度最高的新聞推薦給用戶,從而達(dá)到個性化推送的效果[3]。再比如,電子商務(wù)網(wǎng)站根據(jù)用戶以往的購買記錄或相似用戶的購買行為或商品之間的關(guān)聯(lián)精準(zhǔn)推送商品信息,使用戶免于在“琳瑯滿目”的商品中費(fèi)力找尋自己滿意的商品。在某種情況下,喜歡閱讀何種新聞或喜歡購買何類商品可能是用戶的個人私密,而互聯(lián)網(wǎng)通過算法推薦以隱晦的方式告訴用戶“你喜歡什么、你干了什么、你將要做什么,我全都知道”,不僅知曉已經(jīng)存在的隱私,未來的隱私脈搏也被把住。在互聯(lián)網(wǎng)中,無需見面溝通,僅憑用戶的“只言片語”便可勾勒出其網(wǎng)絡(luò)形象,用戶為保護(hù)其隱私而采取的保密措施在強(qiáng)大的算法技術(shù)面前也基本上形同虛設(shè),在算法社會,網(wǎng)絡(luò)用戶基本上無隱私可言。

(二)算法損害問題

“算法損害”(Algorithmic Nuisance)源于網(wǎng)絡(luò)服務(wù)提供者通過多種途徑收集用戶數(shù)據(jù),利用算法對用戶進(jìn)行決策的事實[4]。由此可知,算法損害來源于算法決策(決策也是一種推薦,其通過算法的結(jié)果對我們施加壓力或影響)。

關(guān)注算法損害(負(fù)外部性)有兩條路徑:(1)算法內(nèi)部的設(shè)計規(guī)則;(2)算法外部的行為與后果。我們通常過于相信算法的客觀公正性與有益性而忽視其負(fù)外部性。算法的內(nèi)部設(shè)計以及數(shù)據(jù)的質(zhì)量決定著算法的結(jié)果。算法的設(shè)計目的、設(shè)計理念等無不滲透著設(shè)計者或使用者的主觀選擇與價值追求,設(shè)計者或使用者的走偏會導(dǎo)致算法結(jié)果的走偏。另外,數(shù)據(jù)是算法賴以生存的養(yǎng)料,數(shù)據(jù)質(zhì)量本身也會影響著算法的最終結(jié)果,數(shù)據(jù)是社會現(xiàn)實的反映,本身可能帶有瑕疵,由瑕疵數(shù)據(jù)喂養(yǎng)的算法可能造成所謂的“帶病進(jìn)出”現(xiàn)象。

算法損害對公平正義的影響是巨大的,主要體現(xiàn)在名譽(yù)傷害與歧視兩方面[2]。算法損害名譽(yù)存在兩種途徑:分類與風(fēng)險評估。算法通過判定你是一個有風(fēng)險的人(財務(wù)風(fēng)險或犯罪風(fēng)險),或把你分類到一個特定類型中(對個人而言是一種恥辱),對你進(jìn)行不公正的對待(評價)或排斥你享受公平服務(wù)的機(jī)會。而歧視是根據(jù)風(fēng)險評估和/或分類工作,來決定是否給你提供一些機(jī)會,或?qū)⑺藷o需承擔(dān)的成本強(qiáng)加于你。算法歧視會體現(xiàn)在諸如性別、種族、貸款、就業(yè)等方面。比如,在許多網(wǎng)絡(luò)廣告服務(wù)中,男性群體會比女性群體看到更多的招聘廣告。招聘算法會將特定種族背景的人排除在勞動力市場外。未能充分積累個人聲譽(yù)與信用評分的社會主體更容易被排除在征信系統(tǒng)外。

公平正義作為社會的基石,不僅是法律的靈魂,更是文明的標(biāo)尺。當(dāng)今社會越來越依賴于算法進(jìn)行決策,而算法決策缺乏正當(dāng)程序、透明度與可解釋性,這導(dǎo)致算法在影響福利、損害公平正義時,我們基本上無能為力。另外,算法會固化或放大弱勢群體的缺陷,導(dǎo)致弱勢群體越來越被無情排斥,進(jìn)而造成“馬太效應(yīng)”,這不僅違背了法律的公平正義精神,也給整個社會造成無法彌合的裂痕。

(三)算法權(quán)力(操縱)問題

在當(dāng)今,無論對于政府還是企業(yè)而言,以模糊的經(jīng)驗或通過曠日持久的調(diào)查(考察)作出決策無疑是不符合時代潮流的(決策的科學(xué)性與準(zhǔn)確性另當(dāng)別論)。因此,算法不可避免的被引入決策的過程中,甚至在某種程度上,算法主導(dǎo)了決策。當(dāng)人類社會絕大部分事務(wù)的處理離不開算法時,算法權(quán)力便產(chǎn)生了。算法給商業(yè)/公共機(jī)構(gòu)創(chuàng)造了操縱人類的機(jī)會,同時還刺激人類使自己的生活順從算法的要求以避免不利判斷。在當(dāng)今時代,人類看似獲得了極大的自由,卻正不知不覺中“通往被算法奴役之路”。

奧威爾(George Orwell)在《1984》一書中為我們刻畫了一個對人民生活進(jìn)行無孔不入的監(jiān)視與操縱的極權(quán)社會,在這個社會里,老大哥(Big Brother)控制著一切,人民的自由被剝奪、思想被鉗制,生活在單調(diào)乏味中循環(huán)。算法就是當(dāng)今時代的老大哥,它已經(jīng)規(guī)劃好了軌道與路線,公眾只需按照指定的方向前進(jìn)即可,而無需思考為什么,算法無時不在引導(dǎo)著我們的行為,塑造著每個個體以及社會。在傳播領(lǐng)域,算法的“信息繭房”以及“回聲室”效應(yīng)塑造著人們的認(rèn)知與行為模式,控制著我們對世界的看法與主張。在金融領(lǐng)域,算法可以決定是否給某個用戶發(fā)放貸款以及貸款的具體額度。在司法領(lǐng)域,算法對嫌疑犯的犯罪風(fēng)險進(jìn)行評估,決定量刑的程度。算法操縱最典型的例子為在2016年美國總統(tǒng)大選期間,劍橋分析公司利用Facebook的用戶信息幫助特朗普競選團(tuán)隊量身定制并投放政治廣告,對特朗普的最終當(dāng)選發(fā)揮了重大作用。投票給哪位總統(tǒng)候選人看似由選民自由(主)選擇,但算法早已通過其“無微不至”的力量將我們變?yōu)槠淇?,我們所享受到的?quán)利與自由實際上并沒有翻出算法的“五指山”。雖然算法權(quán)力也會對公平正義造成影響,但它更主要的是對自由的桎梏。保障個人自由是各國憲法的精髓,自由是所有社會的目標(biāo),公共道德、私人道德以及技術(shù)的進(jìn)步皆依賴于此[5]。沒有自由,便無所謂人之尊嚴(yán)。自由存在實體自由與程序自由,然而算法的結(jié)果以及算法的黑箱使得個人自由與公開、透明的決策程序不斷被侵犯。我們被算法套上枷鎖,自由意志被否認(rèn),尊嚴(yán)被踐踏,法律原始的保障程序被破壞。面對新的權(quán)力格局和權(quán)利處境,法治的方向在哪里?未來的法治秩序?qū)⑹呛畏N面貌?

(四)虛假新聞、低俗不良信息的泛濫問題

自人類有傳播活動之始,虛假新聞、低俗不良信息便已有之。傳統(tǒng)紙媒在制作、分發(fā)信息的過程中存在著編輯等職業(yè)把關(guān)人的理性判斷與價值抉擇。而算法能自動計算出熱點信息的內(nèi)容、主題詞、標(biāo)簽等以指導(dǎo)發(fā)布機(jī)構(gòu)創(chuàng)作迎合用戶需求的信息,并且算法掌握了信息的分發(fā)渠道。對虛假新聞、低俗不良信息的泛濫,算法起到推波助瀾的作用。

虛假新聞缺乏媒體編輯的規(guī)范標(biāo)準(zhǔn)以及保證信息準(zhǔn)確性與可信性的流程[6]。在算法時代,互聯(lián)網(wǎng)是虛假新聞傳播最重要的主渠道與推動者,網(wǎng)絡(luò)平臺不僅提供發(fā)布虛假新聞的媒介而且提供工具促進(jìn)其傳播。某些網(wǎng)絡(luò)平臺為吸引眼球而故意制造虛假新聞博取關(guān)注,借助夸張的標(biāo)題和內(nèi)容獲取用戶的流量,從而吸引企業(yè)投放廣告并以此牟利。算法并不能識別虛假新聞,而極具爭議或熱點的虛假新聞以及由此衍生的話題更容易被算法捕捉并被推送,從而出現(xiàn)虛假新聞層出不窮、被廣泛傳播的情況。虛假新聞對當(dāng)事人的損害無疑是巨大的,在公共領(lǐng)域,虛假新聞的傳播甚至?xí)<吧鐣仓刃蚺c國家安全。

當(dāng)今互聯(lián)網(wǎng)中低俗不良信息的泛濫,算法推薦難辭其咎。算法推薦具有天然的“逐熱性”,哪種信息熱度高、受追捧就推送哪類信息,并在推送的過程中不斷固化、泛化。但是我們應(yīng)認(rèn)識到,算法結(jié)果的優(yōu)劣程度往往與算法設(shè)計與輸入數(shù)據(jù)的優(yōu)劣存在著正向比例關(guān)系,而設(shè)計與數(shù)據(jù)來源于人類,并非都是完美無暇的。算法不可避免的承繼了人類的局限性。有報道將諸如快手、火山小視頻、內(nèi)涵段子等平臺的崛起形容為“電線桿式的低俗生意,裹上了算法的外衣”[7]。雖然何種信息可被推送、推送給哪類用戶被算法控制,但算法體現(xiàn)的是設(shè)計者或使用者的價值取向與利益追求。算法的背后,是思想認(rèn)識的外化與價值觀念的傳導(dǎo)。某些網(wǎng)絡(luò)服務(wù)提供者為利益的最大化利用算法推送低俗不良信息,不僅違背了法律的公序良俗,還“喂食”著低俗平庸的民眾與社會,貽害無窮。

三、算法推薦問題的解決方案

在算法的深度介入下,我們在“無處不計算”的環(huán)境下精準(zhǔn)生活,同時逐漸淪為算法的“癮君子”,自身的合法權(quán)益乃至公平、自由被無形剝奪而不自知。為創(chuàng)制出有利于算法健康、有序發(fā)展的規(guī)范體系,本文提出如下構(gòu)想:

(一)隱私保護(hù)責(zé)任,由數(shù)據(jù)主體轉(zhuǎn)向數(shù)據(jù)控制者(或使用者)

隱私作為一種沒有公開或所有者不愿意被公開的個人信息,其核心準(zhǔn)則為由隱私所有者自主決定、自我控制。隱私包括“直接隱私”與“間接隱私”,“直接隱私”為由所有者采取保密措施保護(hù)的隱私,“間接隱私”為從公開的個人信息中挖掘到的隱私。無論是“直接隱私”還是“間接隱私”,均在算法中被轉(zhuǎn)碼成可供計算機(jī)讀取、識別的數(shù)據(jù)代碼。

在算法社會,數(shù)據(jù)無時無刻不在流動與使用中,如果仍沿用傳統(tǒng)的“告知與許可”規(guī)則,無疑會造成數(shù)據(jù)流“堵車”,影響效率。這就需要設(shè)立一個全新的隱私保護(hù)模式,此模式的重心并非放在收集數(shù)據(jù)之初取得數(shù)據(jù)主體的同意與許可上,而是著重于讓數(shù)據(jù)控制者為其行為承擔(dān)責(zé)任。如此,無須再取得數(shù)據(jù)主體明確之同意便可對數(shù)據(jù)進(jìn)行收集與利用,但這并不意味著數(shù)據(jù)控制者可以濫用或不合理利用數(shù)據(jù),一旦出現(xiàn)損害數(shù)據(jù)主體合法權(quán)益的事實,數(shù)據(jù)控制者則須承擔(dān)諸如民事賠償、罰款甚至刑事處罰等責(zé)任,只有在具備強(qiáng)制力規(guī)范的情況下,數(shù)據(jù)控制者才會正確評估數(shù)據(jù)使用的風(fēng)險、規(guī)避或者減輕潛在的傷害,也才能確保責(zé)任履行到位,改變隱私保護(hù)中數(shù)據(jù)控制者開“無軌電車”的局面。此外,數(shù)據(jù)掌握在數(shù)據(jù)控制者手中,它是數(shù)據(jù)使用的最大受益者,也比任何其他主體更明白應(yīng)如何使用數(shù)據(jù)以及保障數(shù)據(jù)安全(它具有使用數(shù)據(jù)與保障數(shù)據(jù)安全的強(qiáng)大技術(shù)條件與優(yōu)勢),若造成不利后果,應(yīng)由數(shù)據(jù)控制者承擔(dān)責(zé)任。算法社會紛繁蕪雜,如不將隱私保護(hù)義務(wù)由數(shù)據(jù)主體轉(zhuǎn)向數(shù)據(jù)控制者,個人將無法應(yīng)對允許數(shù)據(jù)使用或拒絕使用所帶來的未知結(jié)果。而通過轉(zhuǎn)向,將責(zé)任“打包”給數(shù)據(jù)控制者(本文所討論的讓數(shù)據(jù)控制者承擔(dān)責(zé)任的前提為數(shù)據(jù)主體已對其隱私盡到合理的注意保護(hù)義務(wù)),這一操作看似簡單,實則蘊(yùn)含著法律背后深厚的價值邏輯。數(shù)據(jù)主體與數(shù)據(jù)控制者之間存在巨大的“數(shù)據(jù)鴻溝”,如果法律不將此鴻溝填平,則數(shù)據(jù)主體將長期處于不利地位。正如在環(huán)境污染侵權(quán)糾紛中,由侵權(quán)人(污染者)而非被侵權(quán)人承擔(dān)舉證責(zé)任,通過舉證責(zé)任的倒置,以縮小雙方之間的不對等地位,維護(hù)法律的公正。

(二)干預(yù)算法設(shè)計,完善事后救濟(jì),加強(qiáng)政府監(jiān)管

如上文所述,算法推薦要發(fā)揮作用,需要技術(shù)支撐與數(shù)據(jù)支撐。當(dāng)今算法所衍生的一系列問題可以從這兩個方面尋找到根源。阿西莫夫(Isaac Asimov)提出著名的“機(jī)器人三定律”,試圖為機(jī)器人立法提供指引。盡管他并未驗證技術(shù)上的可行性,但從源頭上提出了使人類免受機(jī)器人侵犯或傷害的制度設(shè)計與構(gòu)想,這對于干預(yù)算法設(shè)計,從源頭維護(hù)公平正義、公序良俗無疑具有借鑒意義。干預(yù)算法設(shè)計須從二“源”著手——技術(shù)“源”與數(shù)據(jù)“源”。算法的設(shè)計理念、技術(shù)標(biāo)準(zhǔn)、目的等要素?zé)o不凝結(jié)著設(shè)計者的主觀選擇與價值取向。算法在表面上就缺乏法律的公正性與普適性,它毫不掩飾地服務(wù)于設(shè)計者或使用者。這便需要依靠算法的頂層設(shè)計來防止消極后果。這種“頂層設(shè)計”可以稱為“算法的憲法”,其制定或生成需要法律人士與技術(shù)專家共同合作,以使算法進(jìn)入法律,法律進(jìn)入算法,從而使算法符合人類的法律與倫理[8]。對算法的頂層設(shè)計,最主要的是制定相關(guān)規(guī)則對算法設(shè)計者進(jìn)行約束,對算法預(yù)設(shè)道德準(zhǔn)則,進(jìn)行倫理指引,也即在設(shè)計過程中將人類社會的倫理、道德、法律等規(guī)范嵌入算法之中。另外,數(shù)據(jù)喂養(yǎng)著算法,通過數(shù)據(jù)的凈化可以在很大的程度上優(yōu)化、糾偏算法,使算法成為社會公正以及法律良好秩序的維護(hù)者而非破壞者。這可從以下方面展開思考:對算法需要的數(shù)據(jù)或信息資源進(jìn)行管理。譬如,征信系統(tǒng)不得收集用戶的性別、種族、政治傾向、私人財務(wù)狀況等帶歧視性信息;禁止以信譽(yù)積分的多寡作為推薦服務(wù)或利益機(jī)會的依據(jù)。通過干預(yù)算法設(shè)計以及凈化數(shù)據(jù),讓算法的結(jié)果符合良善的社會價值理念與法律追求。

除了需要事前干預(yù)算法設(shè)計外,還須扎牢事后救濟(jì)的防線。事后救濟(jì)是彌補(bǔ)民事主體權(quán)益損失的最后救濟(jì)路徑,其思路為法院或監(jiān)管者通過后果進(jìn)行個案判斷,而無需深入算法內(nèi)部或?qū)彶樗惴ū旧?即便深入算法內(nèi)部或?qū)彶樗惴ū旧?,他們需要依賴具有這方面專業(yè)知識的人,這可能會導(dǎo)致法官偏離法律問題而陷入陌生領(lǐng)域)[9]。需要注意的是,算法損害可能是設(shè)計者或使用者故意造成的,也可能是由算法自身的缺陷導(dǎo)致的,無論是惡意為之還是缺陷所致,根據(jù)目前的法律規(guī)則,責(zé)任仍應(yīng)由算法設(shè)計者或使用者承擔(dān)(在設(shè)計者與使用者之間存在雇傭關(guān)系時,適用轉(zhuǎn)承責(zé)任)。然而在算法大行其道的今天,以后果施加責(zé)任并不是無虞的,事后救濟(jì)過弱則無法達(dá)到彌補(bǔ)損害、維護(hù)公平正義的效果,事后救濟(jì)過強(qiáng)則會提高算法設(shè)計者或使用者的成本、打擊技術(shù)進(jìn)步的積極性。這需要在權(quán)益救濟(jì)與促進(jìn)技術(shù)進(jìn)步之間達(dá)成一種平衡,當(dāng)然,這有賴于法院的具體裁量、個別衡定。

此外,為防范算法對公平正義、公序良俗帶來系統(tǒng)性風(fēng)險,建立以政府監(jiān)管為主要內(nèi)容的監(jiān)督體系也是重要的一環(huán)。事前干預(yù)算法設(shè)計過于復(fù)雜,事后進(jìn)行權(quán)益救濟(jì)則過于緩慢,而政府監(jiān)管一般會帶來立竿見影的效果。政府根據(jù)相關(guān)法律法規(guī)的規(guī)定,通過約談、責(zé)令整改、行政處罰等措施減少或剔除算法的不良影響,凈化社會環(huán)境。但我們應(yīng)認(rèn)識到,政府監(jiān)管一般只能帶來短期效果的改善,即使沒有今日頭條,也會出現(xiàn)“明日頭條”,沒有快手,也會有“慢手”。要想徹底改變算法“行惡”,還須算法本身具有道德與良知,這才是長久解決之道。

(三)打開算法“黑箱”,反數(shù)據(jù)壟斷

算法作為一種技術(shù)“黑箱”,其決策程序不公開透明且超出正常理解范圍,這導(dǎo)致普通公眾在算法“黑箱”面前基本上無計可施。人無法控制或約束自己不懂的東西,因此,要打破算法權(quán)力,打開“黑箱”便成為必然要求。即便算法“黑箱”非常復(fù)雜,一旦有相關(guān)要求或存在某種壓力,技術(shù)界便會想方設(shè)法使算法之可解釋成為可能。比如,谷歌大腦計劃研究員Chris Olah完成一項“可解釋性的基礎(chǔ)構(gòu)件”(The Building Blocks of Interpretability)的研究成果,該成果使算法的運(yùn)作狀態(tài)回歸“人類尺度”,能夠被普通人看懂和理解[10]??梢?,讓“黑箱”可視化或可理解在技術(shù)上是可行的。當(dāng)算法權(quán)力較大、支配性較強(qiáng)時,建立算法的審查監(jiān)督體系就尤為重要。對此,可以參照傳統(tǒng)“黑箱”的處理規(guī)則,法律應(yīng)要求數(shù)據(jù)企業(yè)用自然語言定期披露或公開其算法“黑箱”,推行透明的算法披露機(jī)制,解釋算法設(shè)計原理,透明算法運(yùn)行程序,評估算法結(jié)果,以消除公眾對算法的困惑或誤解。另外,還可以考慮設(shè)立由計算機(jī)科學(xué)、數(shù)學(xué)、統(tǒng)計學(xué)等領(lǐng)域的專家組成的“算法審計師”,定期審查與監(jiān)督算法“黑箱”并向公眾出具審查或監(jiān)督報告,在案件遇到算法問題時,還可以作為專家為案件審理提供援助。至于“算法審計師”的公正、資歷以及專業(yè)水準(zhǔn)等條件可另行通過制定規(guī)范標(biāo)準(zhǔn)進(jìn)行約束。數(shù)據(jù)企業(yè)內(nèi)部可設(shè)立“算法合規(guī)師”,監(jiān)督算法的日常運(yùn)轉(zhuǎn),對算法的負(fù)面運(yùn)作進(jìn)行預(yù)警,確保企業(yè)合理使用算法。通過這一系列設(shè)計,讓算法“黑箱”暴露于陽光下,規(guī)避算法權(quán)力的“任性”。

數(shù)據(jù)是算法得以運(yùn)行的基礎(chǔ),因此,算法權(quán)力就是數(shù)據(jù)權(quán)力。為防范政府權(quán)力過于集中帶來的風(fēng)險,“三權(quán)分立”便應(yīng)運(yùn)而生;為規(guī)避托拉斯對市場的壟斷,反壟斷法被制定出來。當(dāng)人類將大量事務(wù)交由算法決策時,我們就被數(shù)據(jù)統(tǒng)治著。當(dāng)今,數(shù)據(jù)日益集中在少數(shù)互聯(lián)網(wǎng)巨頭手中,他們通過“先占”契機(jī)已經(jīng)在數(shù)據(jù)領(lǐng)域積累了極大的優(yōu)勢地位,甚至公權(quán)力部門也不得不求助于他們,以進(jìn)行決策、立法、執(zhí)法等活動?!敖^對的集中會導(dǎo)致絕對的權(quán)力”,這就需要在數(shù)據(jù)領(lǐng)域中引入反壟斷制度,遏制數(shù)據(jù)巨頭在市場上“攻城略地”,在隱私與數(shù)據(jù)安全得到嚴(yán)格保障的前提下,應(yīng)允許企業(yè)間的數(shù)據(jù)交易或強(qiáng)制數(shù)據(jù)共享,以分散數(shù)據(jù)的集中帶來的權(quán)力集中,構(gòu)建多樣、多元的社會格局以及自由的人格。

四、結(jié)語

算法是科技與人文發(fā)展到一定階段的產(chǎn)物。不經(jīng)意間,算法已成為人類“躲不掉、離不開、失不得”的一部分。算法在給人類社會帶來巨大福祉的同時,也對隱私保護(hù)、公平正義、自由以及公序良俗等方面造成巨大沖擊。對于隱私保護(hù)問題,可通過轉(zhuǎn)變責(zé)任主體予以規(guī)制;對于算法損害公平正義以及公序良俗,可通過干預(yù)算法設(shè)計、完善事后救濟(jì)、加強(qiáng)政府監(jiān)管等途徑予以應(yīng)對;對于算法權(quán)力剝奪自由,可通過打開“黑箱”,反數(shù)據(jù)壟斷,分散權(quán)力,讓算法在陽光下運(yùn)行。

算法既然由人類創(chuàng)造出來,那么也應(yīng)當(dāng)具有控制它的能力。在算法社會,人類不應(yīng)碌碌無為,更不應(yīng)把希望全部寄托在算法上。算法提供的答案不是最終答案,而只是參考答案。人類應(yīng)時刻保持警惕意識,打破唯算法論的弊端。算法是一種工具,人類在使用這一工具時,應(yīng)當(dāng)銘記人性之本,切勿成為工具的奴隸。在算法的發(fā)展進(jìn)程中要不斷通過法律、政策、技術(shù)、倫理的修正以完善算法,讓算法閃爍科技之光與人性之輝。

猜你喜歡
算法用戶信息
Travellng thg World Full—time for Rree
進(jìn)位加法的兩種算法
訂閱信息
關(guān)注用戶
關(guān)注用戶
一種改進(jìn)的整周模糊度去相關(guān)算法
關(guān)注用戶
一種基于L-M算法的RANSAC圖像拼接算法
如何獲取一億海外用戶
展會信息
新野县| 万源市| 会宁县| 东兰县| 泰来县| 昌黎县| 红河县| 泌阳县| 麟游县| 辉南县| 栖霞市| 宾川县| 宁陕县| 容城县| 天长市| 华容县| 濉溪县| 广东省| 巢湖市| 鄂尔多斯市| 麟游县| 北流市| 德庆县| 雷州市| 奉贤区| 沽源县| 若尔盖县| 彭州市| 准格尔旗| 马尔康县| 新密市| 广元市| 南皮县| 尉氏县| 乐至县| 台南县| 乌兰察布市| 阿克苏市| 南和县| 西乌| 栾川县|