摘要:在信息大爆炸的時代背景下,大數(shù)據(jù)技術(shù)應(yīng)運而生,給用戶帶來信息檢索便利的同時也產(chǎn)生了一些隱蔽性損害。例如,以B站為代表的個性化推薦平臺,就有可能給消費者造成人身權(quán)益損害和財產(chǎn)性利益損害。在用戶人身權(quán)益影響方面,具體表現(xiàn)在“信息繭房”加劇用戶認(rèn)知偏差、注意力攫取加深用戶主體性焦慮;在用戶財產(chǎn)性利益損害方面,具體表現(xiàn)在經(jīng)營者于上游盤剝用戶數(shù)據(jù)財產(chǎn)、中游引導(dǎo)操控交易行為、下游算法歧視差異化定價。司法實踐中,對于此類行為帶來的用戶損害存在算法責(zé)任認(rèn)定困難、公共妨害與經(jīng)濟利益難以平衡的困擾。對于個性化算法的規(guī)制,相關(guān)規(guī)定散見于各法律規(guī)范之中,對于算法侵權(quán)的適用場景和損害賠償不夠細(xì)化和具體。B站是國內(nèi)極具代表性和影響力的媒體平臺,對于個性化推薦的法律規(guī)制研究具有獨特意義。國內(nèi)對個性化推薦的研究主要集中在今日頭條APP上,基本上聚焦于傳播學(xué)上的功能特性,對于法律規(guī)制的探究較少。且今日頭條屬于新聞資訊類APP,其調(diào)性與以B站為代表的娛樂性、年輕化視頻平臺有所不同?;诖?,文章從歸納B站的個性化推薦形式入手,分析其在具體應(yīng)用場景中可能帶來的消費者權(quán)益損害問題并加以反思,進(jìn)而提出規(guī)制與完善的路徑,旨在促進(jìn)個性化推薦的良性發(fā)展。
關(guān)鍵詞:個性化推薦;B站;用戶損害;人身利益;財產(chǎn)利益
中圖分類號:G210.7 文獻(xiàn)標(biāo)志碼:A 文章編號:1674-8883(2023)05-0087-03
(一)個性化推薦的內(nèi)涵
個性化推薦的出現(xiàn)是為了在信息超載的時代更好地定位用戶需求,提升用戶的使用體驗。學(xué)者喻國明認(rèn)為,個性化推薦是通過對用戶行為和關(guān)系的分析,挖掘用戶對內(nèi)容的偏好和潛在需求,自動生成符合用戶需求的信息[1]。這就意味著個性化推薦的前提是充分了解和采集用戶的私人信息,推薦的內(nèi)容容易讓用戶產(chǎn)生持久的興趣和穩(wěn)定的注意力。
2002年,Google News首次啟用算法判斷生成話題新聞,利用算法對各類新聞機構(gòu)的新聞進(jìn)行排序,為用戶提供個性化的新聞頁面[2]。如今,諸如B站、抖音、今日頭條、一點資訊等媒體平臺都在努力開發(fā)針對用戶的個性化推薦服務(wù)。騰訊也提出了“降熵”的概念,指出要讓信息追著用戶走。在這樣的情況下,大眾傳媒可能無法決定用戶怎么想,但至少可以潛移默化地影響人們想什么,通過為受眾設(shè)置議程的方式對其進(jìn)行無形的控制。
(二)個性化推薦的類型
個性化推薦行為在實踐中有多種表現(xiàn)形態(tài)。目前,主流算法推薦技術(shù)包含基于內(nèi)容過濾的推薦、基于協(xié)同過濾的推薦和基于關(guān)聯(lián)規(guī)則的推薦三種方式。
1.基于內(nèi)容過濾的推薦
基于內(nèi)容過濾的推薦是通過對用戶歷史觀看數(shù)據(jù)的深度挖掘,緊緊圍繞個人興趣進(jìn)行推薦[3]。B站設(shè)有與多數(shù)社交平臺相類似的評論、點贊、收藏、分享等交互方式,對用戶的興趣偏好進(jìn)行分析,還推出了獨具特色的發(fā)彈幕、投硬幣、充電、稍后再看等功能。除了顯性功能設(shè)置對用戶需求和興趣的評估,B站還設(shè)置了隱性評估方式,即分析“視頻留存率”。視頻留存率是指視頻的播放時長占視頻總時長的比例,代表著用戶受視頻吸引的程度。以上因素成為B站基于內(nèi)容過濾推送的最核心部分。
2.基于協(xié)同過濾的推薦
基于協(xié)同過濾的推薦是一種群體性的聚合,是根據(jù)有相同興趣的用戶瀏覽過的信息或眾多用戶對于某兩件項目信息有相似的偏好進(jìn)行推薦[4]。在B站中,若用戶同時關(guān)注相同的UP主或經(jīng)常搜索的視頻內(nèi)容極具相似性,平臺進(jìn)行個性化推薦時,會將A用戶下B用戶沒有操作過的數(shù)據(jù)推薦給B用戶。然而,由于基于協(xié)同過濾的推薦方式注重聚焦用戶之間的親疏遠(yuǎn)近關(guān)系,對于用戶的控制力也更強,因此需要格外關(guān)注推薦過程中對消費者人格利益的侵害問題。在朱燁訴百度案中,百度因朱燁曾搜索過與流產(chǎn)有關(guān)的信息,在此后很長一段時間都對其進(jìn)行此類信息的持續(xù)性推送,加深了用戶的痛苦記憶[5]。因此,基于協(xié)同過濾進(jìn)行推薦時,應(yīng)當(dāng)提高推薦信息的更新頻率,避免過去的信息不停煩擾用戶。
3.基于關(guān)聯(lián)規(guī)則的推薦
基于關(guān)聯(lián)規(guī)則的推薦更注重內(nèi)容之間深層次的關(guān)系。此種推薦方式注重挖掘數(shù)據(jù)池中的潛在聯(lián)系,是消費者在同質(zhì)化信息中進(jìn)行“破圈”的重要途徑。B站中“熱門”內(nèi)容的推薦是基于關(guān)聯(lián)規(guī)則進(jìn)行推薦的表現(xiàn)之一,綜合播放量和彈幕量等因素形成熱度,將熱門視頻推薦給從未觀看過相關(guān)領(lǐng)域視頻的用戶[6]。
在此種推薦機制下,推薦內(nèi)容的質(zhì)量問題值得關(guān)注。2020年,B站被全國“掃黃打黑”辦著重點名,僅舉報線索就超500條,約談高達(dá)10余次,“內(nèi)容低俗”“擦邊球”等問題頻頻發(fā)生。在熱度導(dǎo)向下,不少原創(chuàng)UP主創(chuàng)作出具有感官刺激的聳動新聞,以牟取經(jīng)濟利益。因此,基于關(guān)聯(lián)規(guī)則的推薦應(yīng)避免流量驅(qū)動下算法對流行度指標(biāo)、關(guān)聯(lián)性標(biāo)準(zhǔn)的絕對控制,要注重對視頻質(zhì)量的把關(guān),以免個性化推薦在低質(zhì)量的推送中走向惡性循環(huán)。
算法個性化推薦侵害了消費者人身利益和財產(chǎn)利益。消費者不僅遭受直接的權(quán)益損害,同時還遭受競爭利益受損后帶來的個體與集體利益的間接損害,即平臺通過破壞市場競爭秩序、惡化市場競爭環(huán)境而損害消費者利益。
(一)侵害用戶人身利益
1.“信息繭房”加劇認(rèn)知偏差
個性化推薦技術(shù)的用戶本位導(dǎo)向隱含了一種成癮機制,給用戶帶來了注意力損害。在個性化推薦機制下,人們越是接觸自己感興趣的信息,平臺對用戶的興趣定位就越精準(zhǔn),下一次推薦時對用戶的吸引力就越強。如此循環(huán)往復(fù)下,用戶對平臺推薦內(nèi)容的成癮性將會不斷加深。以B站的飯圈文化為例,追星女孩點進(jìn)有關(guān)自己偶像的視頻,B站則會不停為其推送相關(guān)內(nèi)容,追星女孩們在彈幕贊美的狂歡中不斷強化身份認(rèn)同和圈層歸屬感。在此種情況下,一旦有人說出與自己所支持的偶像利益不符的言論,粉絲們便會情緒激動,甚至引起一場“罵戰(zhàn)”。在有關(guān)社會議題的討論中,算法推薦下形成的“信息繭房”可能會激化社會矛盾。一旦人們形成了自己的態(tài)度和傾向,往往會以固有的鏡子來比照現(xiàn)實世界,以自身主觀的尺度來測量現(xiàn)實。人們在不自覺中住進(jìn)了算法打造的“圓形監(jiān)獄”,成了被機器馴化的“數(shù)字勞工”,這在很大程度上影響了消費者對真實世界的分析與判斷,擴大了個體間的認(rèn)知偏差[7]。
2.注意力攫取加劇主體性焦慮
在信息大爆炸的時代,人們的注意成了一種稀缺資源。B站2022年9月8日發(fā)布的財務(wù)報告顯示,2022年第二季度,B站月均活躍用戶數(shù)達(dá)3.06億,日均使用時長達(dá)89分鐘??梢姡珺站對人們注意力的攫取能力相當(dāng)強[8]。
從日常生活中的具體表現(xiàn)來看,B站不斷更新的個性化推薦視頻不僅吞噬著用戶有限的業(yè)余時間,其突然彈出的彈窗提示也給人們正常的工作、學(xué)習(xí)帶來了干擾,分散了個人的注意力。在獲取感興趣信息的極度亢奮狀態(tài)和不斷接收同質(zhì)化信息的消極精神內(nèi)耗中,用戶被來回拉扯。如此循環(huán)下去,用戶的信息認(rèn)知焦慮將會加重,甚至引發(fā)人格焦慮。2021年7月13日晚,“#B站崩了#”的話題沖上微博熱搜。由于服務(wù)器故障,用戶無法在B站正常登錄,不少年輕用戶感到“沒有B站寸步難行”,處于焦慮恐慌的狀態(tài)。個性化推薦技術(shù)在很大程度上造成了人們的精神“亞健康”,人們看似在喧囂的信息中找到了歸屬,卻在“數(shù)字牢籠”里越陷越深,主體性焦慮日益加劇。
(二)侵害用戶財產(chǎn)性利益
1.上游:盤剝用戶數(shù)據(jù)財產(chǎn)
阿里爾·扎拉奇指出,在如今的互聯(lián)網(wǎng)生態(tài)系統(tǒng)中,每個人都是以個人信息數(shù)據(jù)在向企業(yè)付費,而用戶自身卻不懂得“免費也很昂貴”的道理[9]。以B站為例,用戶使用B站免費瀏覽視頻時,必須無條件為其奉獻(xiàn)個人信息的“數(shù)據(jù)養(yǎng)料”,日益成為“透明化”的個人。而平臺則在背后監(jiān)視著用戶的一舉一動,利用受眾源源不斷產(chǎn)生的數(shù)據(jù)信息賺得盆滿缽滿。由于勾選的“知情同意”內(nèi)容繁雜、專業(yè)性強,多數(shù)用戶無法清晰理解隱私數(shù)據(jù)獲取條款的具體含義,往往處于“被迫知情”的狀態(tài)。在“同意或退出”的強制性困境中,不少用戶出于接受服務(wù)的迫切需求選擇讓渡個人信息,個人數(shù)據(jù)控制權(quán)被嚴(yán)重盤剝。這在一定程度上使得消費者具有被監(jiān)視感和不安寧性,嚴(yán)重的還可能侵害消費者的信息人格[10]。
2.中游:引導(dǎo)操控交易行為
消費者在消費時希望能對商品的服務(wù)、價格和質(zhì)量進(jìn)行比較與甄選,以期獲得最合適的商品和最優(yōu)質(zhì)的服務(wù)。然而對于商家來說,利益則是其最高出發(fā)點。在個性化推薦機制下,商家只展示部分信息,這在無形之間產(chǎn)生了對消費者的消費歧視,侵害了消費者的自主選擇權(quán)[11]。
其具體在B站上表現(xiàn)為,運營方利用彈幕控評的方式為自己引流,通過屏幕上清一色的“前方高能預(yù)警”“好用”“入手不虧”等,營造出產(chǎn)品搶手火爆、性價比高的假象。原本市場中向所有消費者公開展示的商品變成了帶有強烈輿論引導(dǎo)傾向的商品展示,操縱著消費者的商品選購心理。這種使用算法進(jìn)行自我優(yōu)待,提升己方商品和服務(wù)在搜索結(jié)果中的位次的行為,具有損害消費者權(quán)益的可能,需要對其進(jìn)行規(guī)范[12]。
3.下游:算法歧視差異化定價
算法個性化定價是指企業(yè)利用收集到的消費者的個人行為或特征等信息,推斷出消費者愿意支付的價格,進(jìn)而為不同的消費者設(shè)定不同的價格。在此種情境下,“人的行為”越過“商品價值”成為定價的重要因素。個性化算法逐漸通過對消費者進(jìn)行細(xì)分,改變他們的公平感知能力,進(jìn)而操控消費者的購買決策行為[13]。
為達(dá)到數(shù)據(jù)價值最大化兌現(xiàn)的目的,平臺在屏幕之后操縱著個性化推送下的“千人千價”。攜程、滴滴打車對老用戶進(jìn)行大數(shù)據(jù)殺熟;愛奇藝、優(yōu)酷對蘋果手機用戶進(jìn)行更高額定價[14]。2022年上半年,北京市消費者協(xié)會對互聯(lián)網(wǎng)消費大數(shù)據(jù)“殺熟”問題展開調(diào)查。報告顯示,64.33%的受訪者表示有過被大數(shù)據(jù)“殺熟”的經(jīng)歷。
從價格歧視的消極影響來看:一方面,僅因為消費者的平臺忠誠度更高、對價格更不敏感而被設(shè)置較高價格,構(gòu)成了不公平、不合理的交易條件,侵害了用戶個人作為消費者的公平交易權(quán);另一方面,主導(dǎo)企業(yè)利用價格歧視套牢忠誠消費者,對其索取高價,對其他客戶施以低價,排擠競爭對手,可能會因為限制競爭間接損害消費者利益[15]。
個性化推薦設(shè)立的初衷是為了讓用戶在信息超載的時代提升使用體驗,但使用過程中不少用戶對過度個性化產(chǎn)生反感,因而應(yīng)給予用戶是否使用個性化推薦以選擇的權(quán)利,即設(shè)置相應(yīng)的算法拒絕權(quán)。當(dāng)下B站等多數(shù)平臺設(shè)置關(guān)閉功能僅流于形式,在關(guān)閉個性化推薦后,平臺仍然會較為準(zhǔn)確命中用戶喜好,只是減少推薦常觀看的某些細(xì)分領(lǐng)域。廣告展示方面,平臺盡管表示要關(guān)閉個性化廣告,展示廣告的相關(guān)度降低,然而具體的降低程度并未明確說明,存在嚴(yán)重的“曖昧性”?;谝陨蠁栴},B站在進(jìn)行個性化推薦的選項設(shè)置時,應(yīng)向用戶具體說明采取何種類別的個人數(shù)據(jù),將個性化推薦的關(guān)閉功能普及化和簡潔化。
此外,基于算法帶來的用戶人格損害分析,B站應(yīng)當(dāng)充分利用算法技術(shù)對于不良信息的監(jiān)測和控制作用,及時限制低俗信息。對于未成年用戶深度沉迷的現(xiàn)象,B站可以設(shè)置定期審核、查驗未成年用戶持續(xù)使用時間,對于過度沉迷的某類視頻減少推送,對算法進(jìn)行優(yōu)化和改良。
從消費者方面來看,個性化定價可能會損害消費者的自主選擇權(quán)和公平交易權(quán),然而不少消費者出于舉證難、怕麻煩等原因,面對此類損害常常會選擇沉默與妥協(xié)。正是這樣的妥協(xié)讓違規(guī)平臺有了得寸進(jìn)尺的機會。消費者應(yīng)加強對相關(guān)法律知識的學(xué)習(xí),主動了解投訴和監(jiān)督的渠道,利用法律的武器維護(hù)自身合法權(quán)益。
參考文獻(xiàn):
[1] 劉士超.輿論解讀的新視角:置新媒體事件于互動儀式理論視域下分析[J].東南傳播,2018(10):83-84.
[2] 喻國明,李慧娟.大數(shù)據(jù)時代傳媒業(yè)的轉(zhuǎn)型進(jìn)路:試析定制內(nèi)容、眾包生產(chǎn)與跨界融合的實踐模式[J].現(xiàn)代傳播(中國傳媒大學(xué)學(xué)報),2014,36(12):1-5,11.
[3] 田維鋼,朱毓春,陳小敏.新媒體時代基于算法機制的個性化推薦對當(dāng)今新聞傳播的影響[J].湖南大眾傳媒職業(yè)技術(shù)學(xué)院學(xué)報,2018(3):5-9.
[4] 胡娜. B站的產(chǎn)品生態(tài)和倫理價值風(fēng)險研究[J].同濟大學(xué)學(xué)報(社會科學(xué)版),2019,30(3):45-51.
[5] 劉珅,喻玲.算法個性化推薦商業(yè)應(yīng)用、消費者損害及其多元救濟[J].江南大學(xué)學(xué)報(人文社會科學(xué)版),2022,21(4):58-69.
[6] 喻玲,蘭江華.算法個性化定價的反壟斷法規(guī)制:基于消費者細(xì)分的視角[J].社會科學(xué),2021(1):77-88.
[7] 謝岱杉.窄化與破圈:推薦系統(tǒng)對跨圈層傳播的兩種作用:基于B站的數(shù)據(jù)挖掘研究[J].新媒體研究,2022,8(18):114-118.
[8] 黃雪瑩.從“工具理性”到“人的主體性”:智能化新聞分發(fā)算法的傳播倫理反思[D].武漢:華中師范大學(xué),2019.
[9] 李云蔚,李毓欣,梁譯丹,等.選擇性暴露:算法推薦背景下信息繭房的社會效果研究:以綜合性互動視頻社區(qū)bilibili為例[J].中國傳媒科技,2022(9):21-24,28.
[10] 南楠.個性化推薦算法的法律規(guī)制研究[D].北京:中央民族大學(xué),2021.
[11] 喻玲,胡曉琪.定價算法權(quán)力異化、消費者損害與反壟斷法規(guī)制的政策補強[J].華中科技大學(xué)學(xué)報(社會科學(xué)版),2021,35(6):97-107.
[12] 彭蘭.導(dǎo)致信息繭房的多重因素及“破繭”路徑[J].新聞界,2020(1):30-38,73.
[13] 李艷霞,龍維.個性化推薦行為法律規(guī)制路徑的選擇:基于中國cookie隱私權(quán)糾紛第一案的思考[D].北京:人民法院出版社,2018:425-431.
[14] 張鐵薇,陳茂春.《反不正當(dāng)競爭法》“網(wǎng)絡(luò)條款”司法適用的反思:以消費者利益標(biāo)準(zhǔn)為視角[J].商業(yè)研究,2021(4):137-145.
[15] 許向東,王怡溪.智能傳播中算法偏見的成因、影響與對策[J].國際新聞界,2020,42(10):69-85.
作者簡介 劉瑤,研究方向:新聞法規(guī)與倫理。