林嘉 羅寰昕
【摘要】個性化推薦主要面臨威脅人類主體自主性、“信息繭房”與“回音室”效應(yīng)、大數(shù)據(jù)“殺熟”方面的質(zhì)疑?!耙绘I關(guān)閉”功能因能夠?qū)崿F(xiàn)隱私個人控制、促進信息自由流通和預(yù)防價格歧視而被推崇。然而,用戶往往缺少隱私自治能力,個性化推薦造成群體極化之前首先具有議程凝聚、促進交往的價值,以關(guān)閉個性化推薦來解決價格歧視存在目標(biāo)和手段的錯位?!耙绘I關(guān)閉”不僅難以符合規(guī)制預(yù)期,其自身還存在可操作度低和所承載公共價值模糊的弊端。個性化推薦的治理應(yīng)以算法向善為方向,通過打造以信任為中心的透明可解釋、用戶交互友好的算法推薦,發(fā)揮個性化推薦的公共價值,增進社會福利。
【關(guān)鍵詞】個性化推薦 算法規(guī)制 可信算法 隱私個人控制 “信息繭房”
【中圖分類號】G206 【文獻標(biāo)識碼】A 【文章編號】1003-6687(2024)3-079-10
【DOI】 10.13786/j.cnki.cn14-1066/g2.2024.3.011
2021年12月,國家網(wǎng)信辦等四部門聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡稱《算法推薦規(guī)定》),為算法推薦服務(wù)提供了規(guī)范指引。其中,《算法推薦規(guī)定》第17條第一、二款分別規(guī)定:“算法推薦服務(wù)提供者應(yīng)當(dāng)向用戶提供不針對其個人特征的選項,或者向用戶提供便捷的關(guān)閉算法推薦服務(wù)的選項”“用戶選擇關(guān)閉算法推薦服務(wù)的,算法推薦服務(wù)提供者應(yīng)當(dāng)立即停止提供相關(guān)服務(wù)”。該規(guī)定在實踐中演化為“一鍵關(guān)閉”功能,備受關(guān)注。2022年國際消費者權(quán)益日到來之際,《經(jīng)濟日報》發(fā)布一則名為《微信、抖音、淘寶、微博等頭部APP已允許用戶一鍵關(guān)閉個性化推薦》的報道, 經(jīng)各大主流媒體轉(zhuǎn)發(fā),引發(fā)很大反響。[1]
“一鍵關(guān)閉”功能廣受好評,被認(rèn)為是推動個人信息保護、消費者權(quán)益保護的有益舉措。正如《人民日報》評論稱,“算法”不能變“算計”,“一鍵關(guān)閉”個性化推薦功能有助于壓實平臺責(zé)任,“進一步推動解決近年來人們反映強烈的信息繭房、算法歧視、大數(shù)據(jù)殺熟等問題”。[2]
基于上述背景,本文將回顧“一鍵關(guān)閉”個性化推薦作為算法規(guī)制措施的由來,即立法者對其功能有著怎樣的預(yù)期?這些功能預(yù)期是否順利實現(xiàn)?通過回溯“為何要一鍵關(guān)閉個性化推薦”,力圖說明“我們追求怎樣的個性化推薦”是比單純拒絕個性化推薦更具現(xiàn)實意義的命題。校準(zhǔn)對于算法推薦系統(tǒng)的規(guī)制目標(biāo)后,本文試圖從打造透明可解釋和交互友好的可信算法推薦等方面提供規(guī)制新解。
一、個性化推薦的“原罪”
對個性化推薦的質(zhì)疑主要來自三方面,這些質(zhì)疑分別從隱私保護、群體極化和偏見歧視角度對個性化推薦技術(shù)展開批評。[3]
1. 算法過濾取代用戶判斷
個性化推薦中,算法過濾取代用戶判斷,損害個人的信息自主權(quán),進而威脅人類主體的自由與自主。個性化推薦的實現(xiàn)需要對用戶的設(shè)備信息、位置信息以及在使用產(chǎn)品時的行為信息進行自動分析和計算,根據(jù)計算結(jié)果從信息候選池中篩選出用戶可能感興趣的內(nèi)容進行推送。由此,個性化推薦算法取代用戶自身,決定了用戶所獲信息的內(nèi)容和范圍,并因此被譴責(zé)威脅到人類的自主價值。關(guān)于人的自主選擇能力對于人類尊嚴(yán)和價值的重要性以康德有關(guān)自由的學(xué)術(shù)思想為代表,在康德看來,人類擁有某種意志并且能夠自由地實踐自己的意志,有能力自律地行動,正是這種能力,而非運用這種能力的結(jié)果,對人類來說最為重要。[4]康德的主體理論對近現(xiàn)代自由主義思想影響深遠,當(dāng)代數(shù)據(jù)隱私領(lǐng)域持續(xù)強調(diào)的個人信息自主、自治、自決概念,正是康德理性主義精神的體現(xiàn)。[5]對個性化推薦的批判符合古典自由主義傳統(tǒng)?;ヂ?lián)網(wǎng)以及操控互聯(lián)網(wǎng)的大型平臺,決定了信息如何呈現(xiàn)給世界,搜索引擎、社交媒體、電子商務(wù)等大型平臺決定了用戶可以獲得哪些信息以及以何種形式獲得信息。個性化算法推薦過濾掉它認(rèn)為與用戶愛好不相關(guān)的信息,即用算法過濾取代用戶有意識的自主選擇。通過塑造用戶接收信息及與信息交互的方式,個性化推薦控制了人與信息以及人與人之間的互動,通過控制用戶在線互動的內(nèi)容和對象,個性化推薦限制了用戶主動選擇信息內(nèi)容和信息來源的能力,因而被批評。
2.“信息繭房”與“回音室”
“信息繭房”與“回音室”效應(yīng)是對個性化推薦的常見批判,亦可描述為數(shù)字權(quán)力的濫用,批評者表達了定制信息服務(wù)對言論自由和協(xié)商民主的危害。[6]“信息繭房”與“回音室”的概念由美國學(xué)者桑斯坦提出,其通過21世紀(jì)初出版的著作《信息烏托邦:眾人如何生產(chǎn)知識》《網(wǎng)絡(luò)共和國》《網(wǎng)絡(luò)共和國2.0》和《標(biāo)簽共和國》系統(tǒng)論述了信息通信的民主功能,并引入了“信息繭房”與“回音室”效應(yīng)等概念?!靶畔⒗O房”與“回音室”效應(yīng)形象地描述了過去傳播學(xué)研究中提出的“選擇性心理”及其結(jié)果,在桑斯坦看來,“信息繭房”意味著人們只聽他們選擇和愉悅他們的東西。作為一名憲法學(xué)者,桑斯坦把對社交媒體的研究和政治民主結(jié)合,他認(rèn)為,一個運轉(zhuǎn)良好的民主社會中,人們不會生活在“回音室”或“信息繭房”之中,并進一步提出審議民主質(zhì)量應(yīng)作為信息通信的評價標(biāo)準(zhǔn),一個好的通信系統(tǒng)應(yīng)有助于促進“協(xié)商”。正如有學(xué)者評價,“與其說桑斯坦關(guān)注的是民主,不如說他關(guān)注的是‘協(xié)商”。[7]桑斯坦對“信息繭房”與“回音室”效應(yīng)的批判源于對審議、反思及問責(zé)的民主制度的追求,擔(dān)憂預(yù)先過濾會威脅到網(wǎng)絡(luò)用戶作為公民獲取信息、溝通協(xié)商、表達觀點的空間。在《標(biāo)簽》中,桑斯坦提出兩個更為具體的促進觀點流動和民主秩序的標(biāo)準(zhǔn):不期而遇的機會與共享經(jīng)驗。[8]個性化推薦技術(shù)被認(rèn)為是數(shù)字時代阻礙信息流通局面和觀念市場繁榮的“元兇”,可能會導(dǎo)致信息窄化和用戶價值觀的封閉,進一步加劇群體極化和社會黏性喪失,最終造成社會分裂的不良后果,并且不利于區(qū)域化和全球化進程。
3. 用戶信息與瀏覽數(shù)據(jù)的貨幣化
對個性化推薦的批評之三源于用戶信息與瀏覽數(shù)據(jù)貨幣化造成的價格歧視風(fēng)險。19世紀(jì)初,西方報業(yè)新聞界“黃色新聞”風(fēng)靡一時,“黃色新聞”以大量漫畫和煽情報道吸引受眾眼球,采用以低售價、高發(fā)行量贏取高利潤的經(jīng)營方式;如今進入新媒體時代,同樣是為了盡可能獲取受眾的注意力資源,個性化推薦和定向廣告也成為信息領(lǐng)域一種劃時代的象征?;ヂ?lián)網(wǎng)企業(yè)一方面提供免費信息服務(wù),另一方面則通過用戶數(shù)據(jù)的貨幣化、商品化盈利。個性化算法推薦中蘊含的用戶畫像、定向廣告、“大數(shù)據(jù)殺熟”,引發(fā)消費者對于隱私與個人信息權(quán)益的擔(dān)憂, 并進一步演化為對算法歧視與偏見的控訴,價格歧視即為最受關(guān)注的一種。[9]當(dāng)一家公司出于與供應(yīng)成本無關(guān)的原因,對相同或類似的商品或服務(wù)向不同消費者群體收取不同的價格時,就會發(fā)生價格歧視。[10]經(jīng)濟學(xué)文獻傳統(tǒng)上認(rèn)為,個性化定價的發(fā)生需要四個條件:一是對消費者個人支付意愿的評估能力;二是消費者的套利能力有限;三是市場支配力的存在;四是通過隱藏這種商業(yè)行為來對抗消費者對個性化定價可能產(chǎn)生的負(fù)面看法的能力。[11]隨著大型互聯(lián)網(wǎng)平臺數(shù)據(jù)收集與分析能力的提高,個性化推薦算法的行為預(yù)測愈加準(zhǔn)確,可以實現(xiàn)更有效和有針對性的個性化定價,而在網(wǎng)絡(luò)世界中,隱藏這種商業(yè)實踐相對更加容易,消費者很難通過定價和廣告機制辨別出有競爭力的替代方案,這使得個性化定價可以順利實施。
二、“一鍵關(guān)閉”的魅力
針對上述個性化推薦的數(shù)條罪狀,“一鍵關(guān)閉”作為算法治理手段具有充分的魅力。這種魅力從原理而言源于三方面:其一,數(shù)據(jù)隱私保護的“個人信息控制論”傳統(tǒng);其二,信息自由流通對社會分裂與群體極化的免疫;其三,“一鍵關(guān)閉”呼應(yīng)了互聯(lián)網(wǎng)用戶對“大數(shù)據(jù)殺熟”的反感與抗拒情緒。上述規(guī)制效果直覺性地理順了“一鍵關(guān)閉”的規(guī)制邏輯。
1. 隱私個人控制論
歐美數(shù)據(jù)隱私保護的智慧長久以來建立在一種自由主義范式之上,可稱之為“隱私控制”。[12]1890年,美國學(xué)者沃倫和布蘭代斯提出“隱私權(quán)”的概念,主張隱私權(quán)意味著“獨處的權(quán)利”。20世紀(jì)70年代,為了回應(yīng)計算機數(shù)據(jù)庫處理個人信息時伴生的問題,公平信息實踐在美國應(yīng)運而生,其歷經(jīng)各個版本的演化,而核心命題之一始終是賦予個體以隱私自我管理的權(quán)利。歐盟《一般數(shù)據(jù)保護條例》(GDPR)于2016年通過,作為一部基本權(quán)利保障法,其制定的總體思路是基于“個人數(shù)據(jù)關(guān)系個人尊嚴(yán)”“賦予個人對自身數(shù)據(jù)的控制權(quán)以抗衡數(shù)據(jù)處理行為”的價值認(rèn)知,進而創(chuàng)設(shè)個人數(shù)據(jù)保護權(quán)以保護個人權(quán)利不因個人數(shù)據(jù)處理而受侵害。可見,經(jīng)過多年的發(fā)展,數(shù)據(jù)隱私法的價值總是以自主控制的理想為中心。[13]
延續(xù)“隱私控制論”的邏輯,個人信息保護領(lǐng)域個人信息權(quán)和算法有關(guān)權(quán)利作為控制個人信息利用的個體權(quán)利,一直是數(shù)據(jù)隱私保護的核心。隱私法通常被稱為“以權(quán)利為基礎(chǔ)”的法律。盡管歐盟和美國存在人權(quán)保護傾向和市場規(guī)制傳統(tǒng)的差異,但可以說二者都發(fā)展出了以權(quán)利和控制為本位的隱私保護機制。正如上文所述,在這種保護范式中,可以清楚地看到康德式的自由主義政治理論根源,圍繞個人對其數(shù)據(jù)的權(quán)利,自由自主原則已經(jīng)被確定并概念化。
我國的《個人信息保護法》出臺時間較晚,亦受英美等國隱私控制范式的影響,從近年來本土研究中有關(guān)個人信息“權(quán)”與個人信息自決的大規(guī)模討論中可窺一斑。[14]“一鍵關(guān)閉”個性化推薦是算法規(guī)制領(lǐng)域隱私控制保護范式的典型代表,它要求互聯(lián)網(wǎng)信息服務(wù)提供者向用戶提供不針對其個人特征的選項,即賦予用戶對個性化推薦的拒絕權(quán)。通過拒絕系統(tǒng)對用戶瀏覽、購買、點擊等行為的跟蹤,用戶得以控制其個人信息,主要是控制算法對其個人信息的數(shù)據(jù)分析,從而緩解對個人自主的威脅。
2. 信息自由市場
“一鍵關(guān)閉”在信息傳播和傳媒通信領(lǐng)域的重大魅力在于其刺破了為個人用戶專屬定制的“泡泡”,促進更廣泛和完整的信息在用戶處展現(xiàn)及流通。在有關(guān)表達自由以及媒介責(zé)任的論述中,一直存在所謂“觀念市場”的類比,它借用了經(jīng)濟學(xué)相關(guān)概念,在這樣的一個市場中,真理和謊言相互競爭,人們期待前者終會戰(zhàn)勝后者。[15]觀念市場成為如黑格爾所追求的以“真理”構(gòu)成人的“現(xiàn)實自我意識”的前提。
3.“殺熟”的歧視感知
“大數(shù)據(jù)殺熟”概念自創(chuàng)生起,即被社會公眾理解為一種負(fù)面現(xiàn)象。目前能檢索到的含“大數(shù)據(jù)殺熟”關(guān)鍵詞的20余篇閱讀量“10萬+”微信文章中,均對其使用否定評價,文章標(biāo)題關(guān)聯(lián)了“被宰”“潛規(guī)則”“網(wǎng)友親測后氣炸”等容易激發(fā)消費者反面情緒的概念。在英文語境中,“大數(shù)據(jù)殺熟”即價格歧視,或稱差異化定價、個性化定價,是一種常見的經(jīng)濟現(xiàn)象,在經(jīng)濟學(xué)里作為中性詞,本質(zhì)是彈性定價策略,根據(jù)消費者的消費意愿、消費行為和消費模式等因素收取不同的價格。在中文語境下,“歧視”則更容易傳遞否定性評價信息。
對“大數(shù)據(jù)殺熟”的負(fù)面情緒一方面來自大數(shù)據(jù)時代公眾對技術(shù)黑箱的恐慌;另一方面則源自天然的消費者直覺,“殺熟”的用詞從直覺看破壞了消費者的關(guān)系期待。對“殺熟”的抗拒情感可以從中國傳統(tǒng)人倫秩序方面進行理解。費孝通先生把中國社會結(jié)構(gòu)特點歸納為“差序格局”,旨在描述親疏遠近的人際圈層。[16]以關(guān)系作為社會基礎(chǔ)的中國人偏重由關(guān)系或交情建立的信任, 盡管當(dāng)前的網(wǎng)絡(luò)關(guān)系很難說仍維持了這種社會交往結(jié)構(gòu),但“殺熟”這樣的話術(shù)安排還是隱含了消費者與平臺及其算法系統(tǒng)之間信任關(guān)系的破裂。[17]傳統(tǒng)社會關(guān)系網(wǎng)的處罰機制通過聲譽效應(yīng)實現(xiàn),處在關(guān)系網(wǎng)中的個人難以承擔(dān)破壞信賴之后對聲譽的損壞?;ヂ?lián)網(wǎng)語境下,這種處罰機制依然若隱若現(xiàn),大數(shù)據(jù)“殺熟”被廣泛報道后,往往喚醒了消費者對平臺企業(yè)的警覺和防范心理狀態(tài),造成了大數(shù)據(jù)技術(shù)的低信任局面。在這種對抗情緒占主導(dǎo)的互動關(guān)系中,“一鍵關(guān)閉”自然成為一把利器,對于擔(dān)心被“殺熟”的消費者來說,關(guān)閉算法對其行為的跟蹤無疑是一劑安心藥。
三、“一鍵關(guān)閉”個性化推薦的迷思
“一鍵關(guān)閉”作為個性化推薦算法的治理手段,對其的各項質(zhì)疑是否可以得到妥善解決?下文將從隱私個人控制悖論,個性化推薦的議程凝聚價值和“一鍵關(guān)閉”是否能夠作為價格歧視規(guī)制手段三方面進行分析,揭示以“一鍵關(guān)閉”治理個性化推薦所存在的手段與目標(biāo)之間的錯位。
1. 隱私個人控制悖論
在個性化推薦場景中,“一鍵關(guān)閉”的隱私個人控制的規(guī)制范式存在兩方面疑問:其一,用戶是否有意愿行使控制權(quán);其二,“一鍵關(guān)閉”后,用戶真的能控制自己的信息隱私嗎?即使平臺設(shè)計了便捷的“一鍵關(guān)閉”功能,用戶也可能對其熟視無睹。即使在“一鍵關(guān)閉”后,用戶也可能因體驗不佳又重新啟用個性化推薦。再者,即使用戶關(guān)閉個性化推薦,也并不意味著推薦的減少或者定向廣告的減少,向用戶撲面而來的可能是雜亂無章的信息和隨機且精確性大幅下滑的推薦,進而造成信息過載。用戶當(dāng)然可以通過自己設(shè)置興趣標(biāo)簽或者關(guān)鍵詞檢索的方式瀏覽信息,這看似是一種完美控制個人信息暴露環(huán)境和隱私利益的方式,但實際上又陷入了另一種形式的“信息繭房”——由于信息過載和用戶認(rèn)知有限,這種信息繭房的桎梏效應(yīng)可能比個性化推薦情境更加嚴(yán)重。
個人信息控制論的流行始終伴隨著爭議,體現(xiàn)為個人信息個體性和流通性的二律背反。在爭議的聲音中,最有力的兩條線索來自個人信息的場景化理解和行為主義規(guī)制。[18]1989年,耶魯大學(xué)法學(xué)院第16任院長波斯特發(fā)表一篇題為《隱私權(quán)的社會基礎(chǔ):普通法侵權(quán)中的共同體與自我》的論文,由此奠基了未來20年以社群主義理解隱私的思潮。[19]國內(nèi)近十年來發(fā)端的數(shù)據(jù)隱私研究中,康奈爾大學(xué)法學(xué)院教授尼森鮑姆的“場景融貫”理論可謂引用率最高的西方學(xué)術(shù)資源之一。根據(jù)尼森鮑姆的說法,對于人類而言,在一系列可能的關(guān)系和角色中相互交往,在特定的上下文中建立和協(xié)商“部分公開”的“隱私”概念是完全合適的,即共享第三空間介于嚴(yán)格的個人隱私概念和完全公共的非私人空間之間。[20]尼森鮑姆的思想內(nèi)核亦源于對個人信息的社群主義理解,“場景”可以被認(rèn)為是社群架構(gòu)的具體化闡釋。醫(yī)患關(guān)系之間的信息關(guān)系常被用于生動形容場景化的隱私保護:醫(yī)生和患者之間構(gòu)成了醫(yī)療信息使用的特定場景,病人當(dāng)然地希望有關(guān)其醫(yī)療細節(jié)的某些隱私得到尊重,然而,這并不意味著患者或醫(yī)生絕對控制患者的健康信息,醫(yī)療細節(jié)往往會被適當(dāng)?shù)胤窒斫o其他關(guān)心該病例或相關(guān)的醫(yī)護人員,患者不會因此而感受到被冒犯。但如果醫(yī)生向藥物公司或廣告公司售賣患者醫(yī)療信息,患者當(dāng)然地會感覺到隱私受到侵犯。
在社群主義隱私觀的哲學(xué)背景與場景理論指導(dǎo)下,進一步發(fā)展出隱私的行為主義規(guī)制進路,即個人信息保護應(yīng)當(dāng)根據(jù)不同行為所可能侵犯的個體與社會的不同權(quán)益而進行不同程度的規(guī)制。[21]這種對個人信息保護作為“行為法”而非“權(quán)利法”的理解,超越了個人信息保護的權(quán)利話語,成為個人信息控制論思想的有力競爭。運用“行為法”理解我國個人信息保護,《個人信息保護法》“旨在保護個人信息處理中的個人權(quán)益不受侵犯”,是“圍繞個人信息處理展開”的規(guī)范,而非關(guān)于個人信息權(quán)的法律。[22]依循行為主義規(guī)制的邏輯,對于如何規(guī)制個性化推薦,是行為限度問題,而非對個人信息的控制權(quán)行使問題。
2. 公共領(lǐng)域與交往理性
個性化推薦確實有加重“信息繭房”或“回音室”效應(yīng)的可能,但從大眾媒體作為公共基礎(chǔ)設(shè)施的角度來看,“一鍵關(guān)閉”并不能直擊問題所在。促進協(xié)商民主的前提是議程凝聚。從議程設(shè)置理論發(fā)展出來的議程融合(Agenda Melding)理論,從深層次說明了公共議程對于社會整合的意義,麥庫姆斯和唐納德·肖認(rèn)為, 媒體設(shè)置的議程之所以能作用于公眾,是因為它們具有聚集社會群體的功能, 而這是源于人們都有一種對于“群體的歸屬感”的需要。[23]議題凝聚是觀念沖撞的前提。我們彼此需要了解我們在討論一個什么樣的問題,我們是否在討論同一個問題,然后才是觀點的分享,結(jié)果有可能是和諧也可能是對立,最終的目標(biāo)才是尋找共識?!敖徽劇北旧砭褪且患潜葘こ5氖隆24]個性化推薦在造成群體極化和社會分裂之前,首先具有形成阿倫特、哈貝馬斯等學(xué)者所稱“公共領(lǐng)域”的重大意義,即促成主體之間合理的“交往”?!敖煌硇浴钡倪\用條件之一“言談的有效性”要求可理解、真實、正當(dāng)和真誠。“一鍵關(guān)閉”看似避免了信息的單一聚集,但有可能傷害在激化群體極化之前的討論場域、理性交談行動的形成以及一定程度共識的凝聚。數(shù)字時代的“文字失語”現(xiàn)象愈發(fā)普遍,個性化推薦讓用戶發(fā)現(xiàn)相似的觀點和那些表達相似觀點的人,首先應(yīng)當(dāng)肯定其增進溝通、鼓勵表達的重要價值。至于觀點的多元則需要合理的算法設(shè)計,“一鍵關(guān)閉”后并非就意味著能夠擁有一個理想、中立、多元的信息環(huán)境。
3. 議程、框架與“殺熟”誤解
議程設(shè)置和框架理論都是傳播學(xué)效果研究的經(jīng)典理論,兩者都描述了媒介通過新聞報道構(gòu)建出的“擬態(tài)環(huán)境”來影響受眾的議程和認(rèn)知。議程設(shè)置理論由麥庫姆斯提出,講述大眾媒介對公共議程的影響,以及其塑造大眾對報道客體的屬性印象,簡單地說就是媒體不僅能決定人們想什么,還能決定人們怎么想??蚣芾碚撘话阏J(rèn)為來自社會學(xué),戈夫曼將貝特森提出的“框架”概念引入文化社會學(xué),指出人們借助框架來識別和理解事件,對生活中出現(xiàn)的行為賦予一定的意義。議程設(shè)置理論注重媒介效果,強調(diào)新聞媒介對形成公眾意見的焦點施加的影響;框架理論注重研究媒介話語,重點在于意義的建構(gòu)和文化共鳴。作為傳播學(xué)的經(jīng)典理論,議程設(shè)置和框架理論試圖闡釋傳播和受眾的相互關(guān)系,講述大眾傳播塑造受眾認(rèn)知的規(guī)律。正如李普曼在其著作《公眾輿論》一書中介紹的“虛擬環(huán)境”和“真實環(huán)境”的概念,外部世界是通過媒介呈現(xiàn)在我們每個人面前的,因此媒介如何選擇和報道事件將影響我們對外部世界的看法。[25]議程設(shè)置和框架理論有助于我們較好理解從大數(shù)據(jù)“殺熟”術(shù)語概念的產(chǎn)生到傳播,這一過程如何塑造了大眾對個性化定價的反感情緒與偏見態(tài)度。通常情況下,看到“價格歧視”的字眼,人們就會習(xí)慣性地?fù)]舞起道德大棒,得出痛打大數(shù)據(jù)“殺熟”的結(jié)論。[26]
那么,大數(shù)據(jù)“殺熟”確實如其名號一般惡劣嗎?通過處理消費者個人數(shù)據(jù)實現(xiàn)的價格可塑性涉及法律和政策的許多領(lǐng)域:反壟斷、競爭、隱私、合同、消費者保護和反歧視,其知識體量之龐雜非本文所能容納。在此僅力圖說明一項有關(guān)價格歧視的共識,以解釋大多數(shù)消費者長久以來的誤解——價格歧視并不必然損害消費者福祉。①學(xué)術(shù)研究普遍認(rèn)為,信息、價格歧視和消費者福祉之間的關(guān)系非常復(fù)雜,當(dāng)企業(yè)擁有更多關(guān)于消費者偏好的信息時,總消費者剩余可能增加也可能減少。即使是在對個人信息保護采用較嚴(yán)格的人權(quán)保護模式的歐盟,價格歧視也更多被看作競爭法問題。[27]
以我國目前的規(guī)制實踐來看,對價格歧視的規(guī)制集中在競爭法領(lǐng)域,除了價格歧視與濫用市場支配地位、價格串通等壟斷行為相結(jié)合外,監(jiān)管機構(gòu)在個性化定價問題上的態(tài)度是謹(jǐn)慎和保守的。審判實踐中常見法院認(rèn)為動態(tài)調(diào)價行為屬于正常經(jīng)營行為、不構(gòu)成價格欺詐的案例。從法律文本上看,立法所涉要件包括“不合理的差別待遇”“不公平的交易條件”,可以看出立法為差異化定價留有正當(dāng)性空間。國務(wù)院反壟斷委員會最新發(fā)布的《關(guān)于平臺經(jīng)濟領(lǐng)域的反壟斷指南》更是明確列舉了平臺經(jīng)濟領(lǐng)域經(jīng)營者實施差別待遇的正當(dāng)理由。甚至有學(xué)者指出,完全的非個性化結(jié)果幾乎沒有可能,應(yīng)把拒絕個性化推薦理解為一種“用戶感知標(biāo)準(zhǔn)”,即使經(jīng)營者在提供搜索結(jié)果時無法避免利用與消費者個人特征相關(guān)的信息,其在呈現(xiàn)結(jié)果時也不應(yīng)讓消費者有明顯的正遭受不利差別對待(歧視)的感覺,以此增加關(guān)閉個性化推薦的可操作性。②
可見,大數(shù)據(jù)“殺熟”并非如其名字一般的兇神惡煞,立法與司法的審慎態(tài)度在壓倒性的反“殺熟”報道聲音中鮮少受到關(guān)注。再者,“一鍵關(guān)閉”與價格歧視的競爭法規(guī)制并無手段與目標(biāo)之間的相關(guān)性,且不論大數(shù)據(jù)殺熟本身是正效應(yīng)還是負(fù)效應(yīng)消費者并不清楚,關(guān)閉之后還有可能降低消費者福利。對于恐懼“殺熟”的消費者們,“一鍵關(guān)閉”或許是一劑抓錯的藥。
四、從“一鍵關(guān)閉”到“算法向善”
上文分析了對個性化算法推薦的常見質(zhì)疑,并進一步闡釋了“一鍵關(guān)閉”功能可能無法達到預(yù)期的規(guī)制效果或并不適配所要解決的法律問題的理由?;氐健耙绘I關(guān)閉”功能本身,除了用來解決個性化算法推薦的弊端,這種選擇機制本身能否給用戶帶來價值?更深一層的問題是,我們需要怎樣的個性化推薦?
1. 關(guān)閉個性化推薦之后
算法推薦無處不在。推薦系統(tǒng)的任務(wù)是聯(lián)系用戶和信息,一方面幫助用戶發(fā)現(xiàn)對自己有價值的信息,另一方面讓信息能夠展現(xiàn)在對它感興趣的用戶面前,從而實現(xiàn)信息消費者和信息生產(chǎn)者的雙贏。[28]推薦系統(tǒng)和網(wǎng)絡(luò)時代早期的分類目錄、搜索引擎一樣,都是幫助用戶篩選信息的工具,但它們滿足的需求不同。搜索引擎滿足了用戶有明確目的時的主動查找需求,而推薦系統(tǒng)能夠在用戶沒有明確目的的時候幫助他們發(fā)現(xiàn)感興趣的新內(nèi)容。分類目錄、搜索引擎、算法推薦都可以作為緩解信息過載的工具,算法推薦還具有發(fā)掘物品“長尾”的功能,推薦系統(tǒng)通過發(fā)掘用戶的行為,找到用戶的個性化需求,從而將長尾商品準(zhǔn)確地推薦給需要它的用戶,幫助用戶發(fā)現(xiàn)那些他們感興趣但很難發(fā)現(xiàn)的商品。[29]
個性化推薦是推薦系統(tǒng)的一種,主要作用是通過分析大量用戶行為日志,向不同用戶展示不同的個性化頁面,來提高網(wǎng)站的點擊率和轉(zhuǎn)化率。盡管不同的網(wǎng)站使用不同的推薦系統(tǒng)技術(shù),但總體來說,幾乎所有的推薦系統(tǒng)應(yīng)用都是由前臺的展示頁面、后臺的日志系統(tǒng)以及算法推薦系統(tǒng)三部分構(gòu)成的??梢哉f,算法推薦無法關(guān)閉,它總是存在。不妨進行這樣一場思想實驗:無論打開任何網(wǎng)站,首頁都需要根據(jù)一定邏輯陳列內(nèi)容?!耙绘I關(guān)閉”個性化推薦,并沒有關(guān)閉推薦系統(tǒng)。那么,關(guān)閉了個性化推薦,留下的是何種推薦?
算法推薦的分類標(biāo)準(zhǔn)有很多,按傳統(tǒng)的分類方法一般分為基于內(nèi)容的推薦、協(xié)同過濾推薦和混合算法推薦。
其一,基于內(nèi)容的推薦為用戶推薦項目的依據(jù)是該項目與用戶之前偏好的項目有一定相似之處。其二,協(xié)同過濾推薦又可以分為基于用戶的推薦和基于項目的推薦?;谟脩舻膮f(xié)同過濾推薦在算法推薦中應(yīng)用最廣泛,其基本邏輯是分析大量用戶對項目的評分以發(fā)現(xiàn)用戶偏好的相似性,然后向用戶推薦符合其偏好的項目??梢?,基于內(nèi)容的推薦和基于用戶的協(xié)同過濾推薦均可以劃入個性化推薦范疇,前者需要分析用戶的歷史偏好以及產(chǎn)品標(biāo)簽和用戶行為標(biāo)簽之間的相關(guān)度;后者屬于典型的個性化算法推薦,其不僅需要分析特定用戶的偏好,還需要分析與用戶偏好項目相似的群體與該用戶之間的相關(guān)性。其三,混合算法推薦是指通過混合兩種或者兩種以上的推薦方法進行推薦,包括加權(quán)式、切換式、混雜式、層疊式和級聯(lián)式等形式。[30]最新的綜合性推薦系統(tǒng)還有基于深度神經(jīng)網(wǎng)絡(luò)的算法推薦,深度學(xué)習(xí)算法能夠從多個角度學(xué)習(xí)用戶與項目之間的交互,這種深度混合學(xué)習(xí)有助于更全面地反映用戶的偏好,并增強模型的泛化能力。[31]混合算法推薦是數(shù)種算法融合的系統(tǒng),其中只要涉及個性化算法推薦,其整體推測內(nèi)容就帶有個性化推薦的屬性,無法單獨分割出非個性化推薦結(jié)果。對于深度學(xué)習(xí)與機器學(xué)習(xí)模型結(jié)合后的推薦系統(tǒng),更是難以分割“個性化”與“非個性化”體驗,人們甚至不完全清楚模型中的“主要參數(shù)”是什么以及它們的效果是什么。
可見,上述三類常見的算法推薦都大體屬于個性化推薦范疇,一種可能符合“非個性化推薦”的算法是基于項目的協(xié)同過濾推薦,又被稱為項目對項目的推薦。[32]該系統(tǒng)不分析任何特定用戶的數(shù)據(jù),而是根據(jù)給定產(chǎn)品和其他用戶(那些同意個性化推薦的用戶)的行為之間的關(guān)系來生成這些建議,這種推薦形式類似于“像你一樣對項目X評價很高的人,也傾向于選擇項目Y,建議你可以嘗試下項目Y”,以及“購買了 X的用戶,也購買了Y”。盡管這種算法推薦符合非個性化算法推薦的范疇,但其數(shù)據(jù)集的基礎(chǔ)依然需要其他同意個性化推薦的用戶的行為數(shù)據(jù)。另一種非個性化推薦類似于搜索引擎,如消費者直接填寫其偏好——“敏感肌”“混油皮”“無香款”“防曬指數(shù)”,根據(jù)這些信息,系統(tǒng)直接推薦定制化的建議,例如推薦一款粉底液。這種推薦系統(tǒng)從另一個角度看也屬于個性化推薦,只是個性化的信息是用戶主動輸入的結(jié)果,而非算法基于日志的分析。
經(jīng)過上文的梳理可發(fā)現(xiàn),真正符合非個性化推薦的算法推薦數(shù)量稀少。有學(xué)者指出,與其說“一鍵關(guān)閉”賦予了用戶對抗數(shù)字權(quán)力的武器,不如說它更有可能創(chuàng)造一種虛假的選擇權(quán)。[33]“一鍵關(guān)閉”功能強調(diào)對用戶而言選擇的重要性,但對于這些選擇背后所承載的價值卻出奇的模糊——關(guān)閉了個性化推薦,之后呢?正如上文所述,強調(diào)選擇的重要性更像是延續(xù)了一種對隱私自治的堅持,而隱私自治作為一種規(guī)制手段本身具有相當(dāng)?shù)木窒扌浴<词褂脩裟軌蛘嬲行Ч芾硪粋€算法推薦系統(tǒng),設(shè)想一個熱衷于馴服算法的用戶,他/她果斷地關(guān)閉個性化推薦功能,并自主設(shè)計感興趣的標(biāo)簽,又將界面內(nèi)容按自己偏好進行了排序,這難道不是恰恰印證了“信息繭房”和“回音室效應(yīng)”?反過來設(shè)想,一個并不知道有“一鍵關(guān)閉”功能的用戶,抑或怠于關(guān)閉推薦的用戶(可能大多數(shù)用戶屬于此類),在某日打開一款視頻軟件,首先瀏覽了首頁的推薦內(nèi)容,然后進入自己的關(guān)注列表查看了博主的更新,接著又點進了熱搜頁面閱讀今日熱點,再在搜索欄上檢索了一個同事推薦的短視頻,最后關(guān)閉了這個視頻軟件,打開了另一款新聞軟件。這位用戶雖然沒有行使“一鍵關(guān)閉”的選擇權(quán),但可能更加滿足“一鍵關(guān)閉”功能預(yù)設(shè)的預(yù)防信息窄化的目標(biāo)。
究其根本,“一鍵關(guān)閉”作為一種規(guī)制工具,可能在工具所承載公共價值的設(shè)想上出現(xiàn)了錯位。正如上文所言,“一鍵關(guān)閉”并不意味著用戶能夠控制其數(shù)據(jù)隱私,“信息繭房”“回音室效應(yīng)”與個性化推薦并沒有必然關(guān)聯(lián),價格歧視也非“一鍵關(guān)閉”所能夠解決的問題。再者,個性化推薦真的能夠“一鍵關(guān)閉”嗎?用戶一鍵關(guān)閉了哪些推薦要素?關(guān)閉之后的算法產(chǎn)品是怎樣的面貌?這些疑問都共同導(dǎo)向了一個算法推薦規(guī)制的更根本的命題——我們需要怎樣的算法推薦?
2. 校準(zhǔn)目標(biāo):算法向善
當(dāng)算法推薦乃至個性化推薦無法回避,探究“我們追求怎樣的算法推薦”是比“我們?nèi)绾侮P(guān)閉個性化推薦”更關(guān)鍵的命題。向用戶推薦其可能感興趣的商品可能會讓其感到隱私空間受到冒犯;但向用戶推薦其不感興趣的廣告,可能也是另一種低效。以向善的技術(shù)倫理觀引領(lǐng)個性化算法推薦,目標(biāo)是使其最大化為人類帶來福利,最小化可能的風(fēng)險和危害。
不妨回顧一下個性化推薦的前世今生。在個性化推薦技術(shù)誕生以前,網(wǎng)絡(luò)平臺主要以受眾數(shù)量作為招攬廣告商資本的籌碼。為此,平臺公司需要不斷提高平臺的質(zhì)量和用戶體驗,如搜索引擎追求準(zhǔn)確的檢索結(jié)果,視頻平臺追求豐富的電影電視資源。個性化推薦誕生后,流量不再是一個終極標(biāo)準(zhǔn),廣告商更看重的是廣告投放后的效果和質(zhì)量,即算法推薦能否精確地分析出哪些用戶需要哪些廣告、哪些用戶更有機會被哪些廣告說服從而誘發(fā)購買行為,這比“我有多少用戶”更加重要。由此,相較于“做出更好的互聯(lián)網(wǎng)產(chǎn)品”,平臺經(jīng)營目標(biāo)向收集用戶行為數(shù)據(jù)和挖掘消費意愿傾斜,這個過程可能會損害消費者福利,引發(fā)對分配正義的擔(dān)憂。
對算法推薦的塑造應(yīng)兼顧對消費者負(fù)責(zé)和廣告投放需求兩方面,平衡互聯(lián)網(wǎng)平臺的公共價值和經(jīng)濟激勵。個性化推薦不完全等同于平臺對數(shù)字權(quán)力的濫用,算法規(guī)制應(yīng)鼓勵與用戶利益一致的個性化推薦。有學(xué)者將這種個性化推薦規(guī)制目標(biāo)置于信義法框架之中,以忠誠義務(wù)規(guī)范個性化推薦技術(shù)基礎(chǔ)上的用戶畫像、定向廣告等行為。[34]忠誠的個性化推薦是指不以損害用戶利益的方式應(yīng)用算法推薦,即使存在經(jīng)營的經(jīng)濟必要性沖突。[35]在一些紅線問題層面,忠誠的個性化推薦是比較好理解的,如電商平臺根據(jù)特定用戶的閱讀偏好推薦新書被認(rèn)為是符合用戶利益的,但針對受保護、邊緣化或弱勢群體的個性化推薦是不被允許的,如包含地域歧視或民族歧視的招聘廣告投放。是否為忠誠的個性化推薦需要根據(jù)特定信息的關(guān)系性質(zhì)和所承載的公共價值來進行判斷,如雖然都是根據(jù)地理位置信息投放的行為廣告,但招聘廣告可能會被認(rèn)定為就業(yè)歧視行為,其他類型的廣告服務(wù)如美妝廣告則不在禁止范圍。①
如果說忠誠的個性化推薦能為用戶提供防御型的保護,那探究個性化推薦背后的公共價值則是力圖為用戶乃至公眾提供一種積極性的保護,尤其是對于眾多大型平臺來說,履行社會責(zé)任和服務(wù)集體福利是我國數(shù)字經(jīng)濟發(fā)展戰(zhàn)略對其的內(nèi)在要求。作為不同的公共產(chǎn)品類型,個性化推薦承載了多元化的公共價值。作為大眾傳播的新聞媒體是公共服務(wù)型產(chǎn)品的代表,其以提供全面客觀、多元真實的訊息服務(wù)為使命,因此無論是傳統(tǒng)媒體平臺、資訊整合平臺還是新聞定制化平臺,除履行忠誠義務(wù)外,還具有信息交流、文化凝聚、民主參與和大眾教育等意義,平臺企業(yè)應(yīng)主動承擔(dān)這些公共使命,以主流價值觀引領(lǐng)算法參數(shù)設(shè)計。個性化的信息服務(wù)通常具有積極意義,尤其是促進了無數(shù)小眾知識、興趣市場的崛起,但信息的意外邂逅和共同經(jīng)驗也很重要,算法參數(shù)的開發(fā)應(yīng)致力于對兩方面的統(tǒng)籌,如有關(guān)某社會事件的評論,可以同時推薦各方意見,而非限于一方觀點刺激群體極化,以創(chuàng)造一個交換評論與批評的場所,帶來去極化效應(yīng)。[36]
無論是否“一鍵關(guān)閉”,忠誠義務(wù)和公共價值追求都應(yīng)該成為個性化推薦的內(nèi)在品格?!耙绘I關(guān)閉”的制度安排當(dāng)然很有意義,但只有在明確其制度目的和價值追求的基礎(chǔ)上才能夠更好發(fā)揮該制度的意義。相較于作為一種隱私和信息控制工具,個性化推薦更適合被當(dāng)作一種關(guān)于信息服務(wù)的多樣化的選擇。對于用戶而言,不是“一鍵關(guān)閉”才能享受安全的個性化推薦,無論平臺提供何種算法推薦,其應(yīng)當(dāng)都是安全可靠的。個性化推薦可能是一種更便捷、更直觀的選擇,但并不一定是最好的選擇,信息產(chǎn)品市場應(yīng)允許并鼓勵不同用戶的不同信息獲取偏好。即使個性化推薦是安全的,也會有用戶選擇“一鍵關(guān)閉”,使用自己的“大腦算法”。從這個意義上來說,“一鍵關(guān)閉”是為了滿足瀏覽的個性化審美而存在的,也是為了滿足多樣化偏好而存在的。
五、邁向信任的算法個性化推薦
對于個性化推薦技術(shù)的功過評判,并非如“一鍵關(guān)閉”功能那樣直接果斷,評價任何一種通信系統(tǒng)是可取還是不可取都過于簡單。在飽受批評以前,個性化推薦也曾被認(rèn)為是互聯(lián)網(wǎng)媒體時代的偉大發(fā)明,極大優(yōu)化了用戶體驗,滿足了人民群眾日益增長的新聞媒體需要。無論是對“一鍵關(guān)閉”的規(guī)制還是公眾對個性化推薦的擔(dān)憂,在更大層面上都體現(xiàn)了公眾對科技行業(yè)的不信任。讓個性化推薦更好服務(wù)于人類社會,需要打造可信推薦,在為用戶提供高質(zhì)量信息服務(wù)的同時增進社會福利。以可信算法為目標(biāo)塑造個性化推薦,可從劃定個性化程度的法律限度和構(gòu)建透明可解釋、交互友好的算法方面著力。①
首先,政府監(jiān)管應(yīng)為個性化推薦劃定紅線。我國有關(guān)算法推薦的法律紅線由來已久,2016年“魏則西事件”促使醫(yī)療信息的競價排名模式納入醫(yī)療廣告監(jiān)管范圍。在國外,“劍橋分析事件”后,美國眾議院通過了《誠實廣告法》,要求所有社交媒體披露線上的政治競選相關(guān)數(shù)據(jù)。歐盟最新《數(shù)字服務(wù)法案》明確限制數(shù)字巨頭的在線廣告行為,阻止平臺利用基于性別、種族或宗教等數(shù)據(jù)的算法來針對用戶,也禁止針對兒童投放廣告,試圖將人們推向某些產(chǎn)品和服務(wù)的欺騙性策略也被禁止。個性化推薦中,無論是行為廣告還是內(nèi)容推薦,都需要法律劃定一定限度。如針對青少年,應(yīng)鼓勵使用防沉迷的個性化算法推薦;針對醫(yī)療、求職等敏感信息的個性化推薦,應(yīng)遵守倫理與道德邊界。除法律劃定紅線以外,不同場景的個性化推薦系統(tǒng)還應(yīng)注意培養(yǎng)用戶與算法之間的信任關(guān)系,避免超出隱私期待的推薦內(nèi)容導(dǎo)致用戶的恐慌和猜疑情緒,在全社會營造健康可持續(xù)的算法推薦生態(tài)。有研究指出,消費者有兩類非常反感的定向廣告類型,分別是利用從第三方網(wǎng)站而不是廣告出現(xiàn)的網(wǎng)站獲得的信息制作的廣告,以及在用戶沒有主動披露的情況下推斷出的相關(guān)敏感信息(如懷孕)。[37]避免引起用戶不滿的算法推薦,有助于消除懷疑和反感,培育平臺與用戶之間的信任互惠關(guān)系,在平臺經(jīng)濟健康發(fā)展的同時,使用戶也不斷受益。
其次,采用透明可解釋的算法推薦并增強平臺與用戶之間的互動反饋,培養(yǎng)用戶對算法的信任。打造可信任和受歡迎的個性化推薦,不能僅注重算法推薦獲取用戶注意力和推測用戶偏好的定制化服務(wù),還應(yīng)發(fā)揮推薦系統(tǒng)作為大眾傳播的政治、經(jīng)濟和社會功能。
有關(guān)透明與可解釋的算法治理由來已久,就個性化推薦而言,透明與可解釋不是簡單的信息披露或者賦予用戶隱私控制權(quán),而應(yīng)致力于以保障知情權(quán)的方式培養(yǎng)用戶信任,打造安全可靠的個性化推薦系統(tǒng)。盡管完全的隱私個人控制在信息時代并不可能,但算法推薦可以努力讓用戶感受到對信息與隱私的一定掌控力,以達到增進信任關(guān)系和互動關(guān)系的目的。平臺增強自身的可信賴性,不僅對用戶有利,對其自身也有利。有研究指出,當(dāng)用戶信任一個平臺時,算法透明有助于增加定向廣告的效率。[38]除了傳統(tǒng)的算法透明規(guī)定明確的告知義務(wù)外,以信任為中心的算法推薦還可嘗試向用戶解釋其為什么要收集這些個人信息,以及這些信息將如何產(chǎn)生更恰當(dāng)、高效的廣告。扎克伯格在美國參議院接受質(zhì)詢時談道:“盡管有些人不喜歡廣告,但人們也不想要無關(guān)緊要的廣告……我們從社區(qū)得到的壓倒性反饋是,人們寧愿我們展示相關(guān)性內(nèi)容。”在可解釋方面,同樣要以信任關(guān)系為中心,算法解釋應(yīng)針對特定場景用戶最關(guān)心和擔(dān)憂的問題。如谷歌的英語搜索增加了信息評估功能,對于特定搜索結(jié)果附加在線評估信息提示,提醒用戶可以檢查某個主題的信息來源是否受信任,或者稍后在有更多可用信息時再行檢索,除此以外,還提供了來自獨立事實核查機構(gòu)的事實核查功能,以及其他提升信息檢索質(zhì)量的措施。
如果說透明可解釋的個性化算法推薦系統(tǒng)為用戶提供了基礎(chǔ)性的安全保障,交互友好的算法推薦設(shè)計則力圖挖掘和拓展用戶的興趣與偏好,為用戶打造一個多元信息溝通格局。“一鍵關(guān)閉”功能內(nèi)含了對“選擇權(quán)”的追求,但這種目標(biāo)內(nèi)嵌在隱私自治的邏輯中,具有相當(dāng)?shù)木窒扌?。建立交互友好的個性化推薦系統(tǒng)同樣是對選擇權(quán)的強調(diào),但其背后所承載的價值目標(biāo)是信息多元化,致力于挖掘用戶興趣的“長尾”,而非一味圈住用戶的特定興趣。以用戶興趣和傳播信息的完整性和多樣性為目標(biāo),平臺應(yīng)從用戶和物品角度設(shè)計多樣化算法推薦,以更精準(zhǔn)并且多元的方式為用戶做推薦,破除信息繭房。在克服用戶“選擇性心理”方面,平臺可以通過交互界面的“助推”來實現(xiàn)目標(biāo), 同時,國家應(yīng)注重對數(shù)字公民媒介信息素養(yǎng)的教育,促使用戶建立多元化理解信息的意識。[39]“賦能過濾泡泡”和“反過濾泡泡”是打造交互友好系統(tǒng)的經(jīng)典工具。[40]一方面,“賦能過濾泡泡”意味著提高用戶定制算法推薦的能力,如鼓勵新用戶在進入平臺前選擇某些關(guān)注標(biāo)簽,并告知隨時可在特定位置修改個人偏好。提高用戶定制化能力旨在消除用戶對被數(shù)據(jù)操控的擔(dān)憂,培養(yǎng)用戶的信任感。另一方面,“反過濾泡泡”則故意讓人們看到與他們的觀點和偏好相反的信息,以避免同質(zhì)化推薦導(dǎo)致的群體極化和信息級聯(lián)。
“用戶比大多法學(xué)學(xué)者想象中更喜歡算法決策。”[41]一旦基于代碼的決策在成本、速度、準(zhǔn)確性方面更具優(yōu)勢,消費者對算法的偏好就會增加,在許多案例中,人們表現(xiàn)出更喜歡公式而不是人類。個性化推薦具有增進人類福祉,創(chuàng)造更好世界的充分潛力,它需要具有信息素養(yǎng)的專業(yè)群體的積極作為、主動塑造,而非簡單交給用戶“一鍵關(guān)閉”的權(quán)利。正如習(xí)近平總書記在網(wǎng)絡(luò)安全和信息化工作座談會上強調(diào)的,“辦網(wǎng)站的不能一味追求點擊率,開網(wǎng)店的要防范假冒偽劣,做社交平臺的不能成為謠言擴散器,做搜索的不能僅以給錢的多少作為排位的標(biāo)準(zhǔn)”?!耙绘I關(guān)閉”功能于時代的意義應(yīng)當(dāng)與特定的公共價值目標(biāo)結(jié)合,我們有理由期待一個以可信賴個性化推薦增進人類福祉的社會。
參考文獻:
[1] 佘穎. 把算法開關(guān)交給消費者,好![N]. 經(jīng)濟日報,2022-03-16(5).
[2] 人民日報評論:一鍵關(guān)閉“個性化推薦”,避免“算法”變“算計”[EB/OL]. [2022-03-17]. https://mp.weixin.qq.com/s/yNnZ_2vL4b1lhxRU1VfIgw.
[3] 林洹民. 個性化推薦算法的多維治理[J]. 法制與社會發(fā)展,2022(4):166.
[4] 史蒂芬·繆哈爾,亞當(dāng)·斯威夫特. 自由主義者與社群主義者[M]. 孫曉春,譯. 長春:吉林人民出版社,2011:9.
[5] Daniel J. Solove. Understanding Privacy[M]. Cambridge: Harvard University Press, 2008: 85.
[6] 林嘉,羅寰昕. 數(shù)字權(quán)力治理中的社會法定位與進路[J]. 東南學(xué)術(shù),2023(6):228-236.
[7] 孫競超. 社交媒體能為民主做什么?——讀桑斯坦的《標(biāo)簽共和國》[J]. 北大法律評論,2019(1):275-292.
[8] 凱斯·桑斯坦. 標(biāo)簽[M]. 陳頎,孫競超,譯. 北京:中國民主法制出版社,2021:55.
[9] Sandra Wachter. Affinity Profiling and Discrimination by Association in Online Behavioral Advertising[J]. Berkeley Technology Law Journal, 2020(2): 367-430.
[10] Inge Graef. Algorithms and Fairness: What Role for Competition Law in Targeting Price Discrimination Towards End Consumers[J]. Columbia Journal of European Law, 2018(3): 541-559.
[11] Pascale Chapdelaine. Algorithmic Personalized Pricing[J]. New York University Journal of Law and Business, 2020(1): 1-47.
[12] Paul M. Schwartz. Privacy and Democracy in Cyberspace[J]. Vanderbilt Law Review, 1999 (6): 1610-1701.
[13] Neil Richards, Hartzog Woodrow. Taking Trust Seriously in Privacy Law[J]. Stanford Technology Law Review, 2016(3): 431-472.
[14] 梅夏英. 在分享和控制之間:數(shù)據(jù)保護的私法局限和公共秩序構(gòu)建[J]. 中外法學(xué),2019(4):845-870.
[15] 凱斯·桑斯坦. 網(wǎng)絡(luò)共和國[M]. 黃維明,譯. 上海:上海人民出版社,2003:21.
[16] 費孝通. 鄉(xiāng)土中國[M]. 北京:人民出版社,2012:32.
[17] 翟學(xué)偉. 中國人的社會信任[M]. 北京:商務(wù)印書館,2022:167.
[18] 丁曉東. 個人信息私法保護的困境與出路[J]. 法學(xué)研究, 2018(6):194-206.
[19] Robert C Post. The Social Foundations of Privacy: Community and Self in the Common Law Tort[J]. California Law Review, 1989(5): 957-1010.
[20] Helen Nissenbaum. Privacy in context: Technology, policy, and the integrity of social life[M]. Palo Alto: Stanford University Press, 2010: 129-157.
[21] 丁曉東. 個人信息的雙重屬性與行為主義規(guī)制[J]. 法學(xué)家,2020(1):64-76.
[22] 高富平. 個人信息處理:我國個人信息保護法的規(guī)范對象[J]. 法商研究,2021(2):73-86.
[23] 彭蘭. 假象、算法囚徒與權(quán)利讓渡:數(shù)據(jù)與算法時代的新風(fēng)險[J]. 西北師大學(xué)報(社會科學(xué)版),2018 (5):20-29.
[24] 劉擎. 劉擎西方現(xiàn)代思想講義[M]. 北京:新星出版社,2021:250.
[25] 沃爾特·李普曼. 公眾輿論[M]. 閻克文,江紅,譯. 上海:上海人民出版社,2002:13.
[26] 喻玲. 算法消費者價格歧視反壟斷法屬性的誤讀及辨明[J]. 法學(xué),2020(9):83-99.
[27] Marco Botta, Klaus Wiedemann. To Discriminate or Not to Discriminate? Personalised Pricing in Online Markets as Exploitative Abuse of Dominance[J]. European Journal of Law & Economics, 2020(3): 381-404.
[28] 項亮. 推薦系統(tǒng)實踐[M]. 北京:人民郵電出版社,2012:2.
[29] 克里斯·安德森. 長尾理論[M]. 喬江濤,譯. 北京:中信出版社,2006:35.
[30] Erion ?ano, Maurizio Morisio. Hybrid Recommender Systems: A Systematic Literature Review[J]. Intelligent Data Analysis, 2017(6): 1487-1524.
[31] 李孟浩,趙學(xué)健,余云峰,宋學(xué)永,孫知信. 推薦算法研究進展[J]. 小型微型計算機系統(tǒng),2022(3):544-555.
[32] Linden, G, B. Smith, J. York. Amazon.Com Recommendations: Item-to-Item Collaborative Filtering[J]. IEEE Internet Computing, 2003(1): 76-80.
[33] Natali Helberger, Max Van Drunen, Sanne Vrijenhoek, Judith M?ller. Regulation of news recommenders in the Digital Services Act: empowering David against the Very Large Online Goliath[EB/OL].[2021-12-06].https://policyreview.info/articles/news/regulation-news-recommenders-digital-services-act-empowering-david-against-very-large.
[34] Hartzog Woodrow, Neil Richards. The Surprising Virtues of Data Loyalty[J]. Emory Law Journal, 2022(5): 985-1034.
[35] Hartzog Woodrow, Neil Richards. A Duty of Loyalty for Privacy Law[J]. Washington University Law Review, 2022(3): 961-1021.
[36] Lucien Heitz, Juliane A. Lischka, Alena Birrer, Bibek Paudel, Suzanne Tolmeijer, Laura Laugwitz, Abraham Bernstein. Benefits of Diverse News Recommendations for Democracy: A User Study[EB/OL].[2022-02-08].https://www.tandfonline.com/doi/full/10.1080/21670811.2021.2021804.
[37] Leslie K. John, Tami Kim, Kate Barasz. Ads That Don't Overstep How to Make Sure You Don't Take Personalization Too Far[J]. Harvard Business Review, 2018(1): 62-69.
[38] Tami Kim, Kate Barasz, Leslie K John. Why Am I Seeing This Ad? The Effect of Ad Transparency on Ad Effectiveness[J]. Journal of Consumer Research, 2019(5): 906-932.
[39] Judith Vermeulen. To Nudge or Not to Nudge: News Recommendation as a Tool to Achieve Online Media Pluralism[J]. Digital Journalism, 2022(10): 1671-1690.
[40] Derek E. Bambauer. From Platforms to Springboards[J]. Georgetown Law Technology Review, 2018(2): 417-431.
[41] Derek E. Bambauer, Michael Risch. Worse than Human? [J]. Arizona State Law Journal, 2021(4): 1093.
Trust-Based Algorithmic Personalized Recommendations:
Reflections on the Law of "One-Click-Off "
LIN Jia, LUO Huan-xin(Law School, Renmin University of China, Beijing 100872, China)
Abstract: Personalized recommendations have been challenged as a threat to human autonomy, the "information cocoon" and "echo chamber" effect as well as the "killing of familiarity" by big data. The "one-click-off" function is promoted as a way to achieve personal control over privacy, promote the free flow of information and prevent price discrimination. However, users often lack the capacity for privacy autonomy, and algorithmic recommendations have the value of cohesive agendas and facilitating interactions before causing group polarization. In addition, there is a misalignment of goals and means to solve price discrimination by turning off personalized recommendations. The "one-click-off" option does not only fail to fulfill the functional expectations of legislations, but also suffers from poor operability and the ambiguity of the public values it carries. The reform of personalized recommendations should be oriented towards algorithmic goodness, and through the creation of trust-centered, transparent and interpretable algorithmic recommendations that are user-friendly. In the meanwhile, the public value of personalized recommendations should be brought into play to enhance social welfare.
Key words: personalized recommendation; regulations on algorithm; trustworthy algorithm; personal control over privacy; “information cocoon”