国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

算法悖論與制度因應(yīng)
——基于用戶算法應(yīng)用感知的實(shí)證研究

2022-11-25 05:19:22
關(guān)鍵詞:受訪者算法用戶

許 可 程 華

如果說2021年被公認(rèn)為是中國算法治理元年,那么,隨著《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》(下稱《算法綜合治理意見》)、《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(下稱《算法推薦管理辦法》)的實(shí)施,以及國家網(wǎng)信辦“清朗·2022年算法綜合治理”專項(xiàng)行動(dòng)的推進(jìn),2022年可以說是中國算法治理落地生根之年。與如火如荼的規(guī)范研究與規(guī)則制定迥異,系統(tǒng)性地觀察、收集經(jīng)驗(yàn)事實(shí),進(jìn)而以此為對象開展分析和推論的算法實(shí)證研究尚屬冷門。為此,本文從“經(jīng)驗(yàn)事實(shí)可作為規(guī)范理由”(1)張永?。骸斗▽?shí)證研究:原理、方法與應(yīng)用》,臺(tái)北:新學(xué)林出版有限公司,2022年,第69頁。的理論出發(fā),采取問卷調(diào)查方法,描述我國用戶對企業(yè)算法應(yīng)用的具體感知,發(fā)現(xiàn)其真實(shí)關(guān)注和行動(dòng)困境,探索其內(nèi)在原理,希冀有裨于我國算法治理體系的反思與完善。

一、用戶算法應(yīng)用感知調(diào)查:設(shè)計(jì)與結(jié)果

(一)用戶算法應(yīng)用感知的實(shí)證研究回顧

我國用戶算法應(yīng)用感知的既有調(diào)查,多集中在“差別化定價(jià)”“信息繭房”等具體場景上。例如,中國青年報(bào)社社會(huì)調(diào)查中心對2008名受訪者的調(diào)查顯示,51.3%的受訪者遇到過互聯(lián)網(wǎng)企業(yè)利用大數(shù)據(jù)“殺熟”的情況,59.1%的受訪者希望價(jià)格主管部門立法規(guī)范歧視性定價(jià)行為(2)《中國青年報(bào):51.3%受訪者遭遇過大數(shù)據(jù)“殺熟”》, https://baijiahao.baidu.com/s?id=1594957994108562654&wfr=spider&for=pc, 訪問日期:2022年5月16日。。吳志艷等人基于310名美團(tuán)平臺(tái)用戶的招募和問卷,發(fā)現(xiàn)算法價(jià)格歧視導(dǎo)致用戶感知的價(jià)格公平性降低和背叛行為增加(3)Wu Z, Yang Y, Zhao J, et al, “The Impact of Algorithmic Price Discrimination on Consumers’ Perceived Betrayal”,Frontiers Psychol, 2022,13, pp.825420.。喻國明、方可人使用2019年全民媒介接觸與使用暨媒介價(jià)值觀調(diào)查數(shù)據(jù),發(fā)現(xiàn)算法并未導(dǎo)致信息繭房,而是為個(gè)體提供了多元理性的信息世界(4)喻國明、方可人:《算法型內(nèi)容推送會(huì)導(dǎo)致信息繭房嗎?——基于媒介多樣性和信源信任的一項(xiàng)實(shí)證分析》,《山東社會(huì)科學(xué)》2011年第11期。。在《算法推薦管理辦法》出臺(tái)后,《光明日報(bào)》聯(lián)合中央民族大學(xué)調(diào)研組就用戶對算法推薦的感知開展問卷調(diào)查,并提出了提升算法素養(yǎng)的建議(5)毛湛文、白雪蕾:《如何遠(yuǎn)離算法之“算計(jì)”?——新規(guī)之下的網(wǎng)民算法素養(yǎng)調(diào)研》,《光明日報(bào)》2022年4月7日,第7版。。

與我國實(shí)證研究聚焦于“算法推薦”不同,西方學(xué)者多以“算法決策”對用戶的影響為研究重點(diǎn)。2018年,皮尤研究中心就大數(shù)據(jù)信用評分、犯罪風(fēng)險(xiǎn)評估、簡歷篩選、面試評價(jià)等算法決策典型場景中的用戶接受性進(jìn)行了調(diào)研(6)Pew Research Center, “Public Attitudes Toward Computer Algorithms”, 2018.。其他的一系列研究則進(jìn)一步表明,用戶對算法決策的態(tài)度因結(jié)果、性質(zhì)和領(lǐng)域而大相徑庭(7)Logg J., Minson J., Moore D., “Algorithm Appreciation: People Prefer Algorithmic to Human Judgment,” Organizational Behavior and Human Decision Processes, 2019,151, pp.90-103. Yalcin G. et al, “Thumbs Up Or Down: Consumer Reactions to Decisions By Algorithms Versus Humans”, NA-Advances in Consumer Research,2022, 48, pp.1155-1159.。

回顧國內(nèi)外研究,鮮有對用戶算法感知的普遍性調(diào)研,亦缺乏對算法治理體系的整體把握。在我國算法法律架構(gòu)初成并持續(xù)完善的背景下,立足我國實(shí)踐、以問題為導(dǎo)向的算法感知實(shí)證研究顯得尤為迫切而重要。一方面,如果說法律制度以保障人民福祉為鵠的,那么用戶對算法應(yīng)用的真實(shí)感知便是“可觸、可感之法”的實(shí)然基礎(chǔ);另一方面,衡量法律實(shí)效是評估算法制度有效性的前提性作業(yè),對公眾算法感知的系統(tǒng)性、歷時(shí)性觀察,將成為判斷法律預(yù)設(shè)目標(biāo)完成程度的最佳指針,進(jìn)而有裨于我國算法規(guī)范之改進(jìn)。

(二)問卷設(shè)計(jì):理論、結(jié)構(gòu)與問題

作為對算法法律的回應(yīng),問卷從我國算法治理的價(jià)值立場、法律原則和監(jiān)管導(dǎo)向出發(fā),以《算法綜合治理意見》《算法推薦管理辦法》所確立的“算法透明、算法安全、算法公平、算法向善”為經(jīng),以“用戶認(rèn)知—用戶態(tài)度—用戶權(quán)利—用戶行動(dòng)”為緯,共設(shè)置了27個(gè)問題。此外,為了更準(zhǔn)確地刻畫不同群體對算法的感知,問卷還設(shè)計(jì)了個(gè)人基本信息的6個(gè)問題,包括性別、年齡、職業(yè)、地域、學(xué)歷、職業(yè)和年收入。

“算法透明”是全球公認(rèn)的首要算法價(jià)值。對全球算法治理文件的梳理發(fā)現(xiàn),84種文件中有73個(gè)支持“透明原則”(8)Anna J., Ienca M., Vayena E., “The Global Landscape of AI Ethics Guidelines”, Nature Machine Intelligence, 2019, 9(1), pp.389-399.。我國《算法綜合治理意見》第13條亦將“推動(dòng)算法公開透明”作為重要立法目標(biāo),督促企業(yè)及時(shí)、合理、有效地公開算法基本原理、優(yōu)化目標(biāo)、決策標(biāo)準(zhǔn)等信息,做好算法結(jié)果解釋,暢通投訴通道,消除社會(huì)疑慮。以此為基礎(chǔ),并結(jié)合《個(gè)人信息保護(hù)法》第24條和《算法推薦管理辦法》相關(guān)條款,問卷設(shè)計(jì)了“您是否知曉企業(yè)在提供互聯(lián)網(wǎng)服務(wù)時(shí)使用了算法?”“您了解企業(yè)使用算法的內(nèi)容和目的嗎?”“您認(rèn)為企業(yè)需要向用戶解釋算法嗎?”“若企業(yè)根據(jù)個(gè)人特征標(biāo)簽(如性別、喜好、地理位置、交易和瀏覽記錄等)向您推薦商品,您的態(tài)度如何?”“當(dāng)您對企業(yè)算法結(jié)果(如用戶星級、信用分等)有異議時(shí),您希望企業(yè)進(jìn)行人工介入重新核查嗎?”等問題。

“算法安全”是獨(dú)具中國特色的算法價(jià)值(9)許可:《算法規(guī)制體系的中國建構(gòu)與理論反思》,《法律科學(xué)(西北政法大學(xué)學(xué)報(bào))》2022年第1期。。《算法綜合治理意見》以“建立健全算法安全治理機(jī)制和算法安全監(jiān)管體系”為宗旨,以“算法自身安全、算法安全可控、算法應(yīng)用安全”為框架,防范算法濫用帶來意識(shí)形態(tài)、經(jīng)濟(jì)發(fā)展和社會(huì)管理等方面的風(fēng)險(xiǎn),防止利用算法干擾社會(huì)輿論、打壓競爭對手、侵害網(wǎng)民權(quán)益等行為,維護(hù)網(wǎng)絡(luò)空間傳播秩序、市場秩序和社會(huì)秩序?;凇端惴ňC合治理意見》《算法推薦管理辦法》,問卷設(shè)計(jì)了“您認(rèn)為企業(yè)使用算法對用戶權(quán)益造成損害的風(fēng)險(xiǎn)狀況如何?”“您是否認(rèn)為算法在向您推薦個(gè)性化的廣告、視頻、新聞時(shí)侵犯了您的個(gè)人隱私?”“您認(rèn)為以下哪類企業(yè)的算法存在較嚴(yán)重的損害用戶權(quán)益的現(xiàn)象?”“您是否了解國家有關(guān)算法安全的相關(guān)規(guī)定和公民自身所擁有的合法權(quán)利?”“為避免算法可能帶來的不利影響,您通常會(huì)如何做?”“您認(rèn)為可以如何避免算法可能帶來的安全隱患”等問題。

“算法公平”亦是廣為接受的算法價(jià)值。作為一個(gè)寬泛的概念,《算法綜合治理意見》和《算法推薦管理辦法》下的算法公平包含著避免個(gè)體歧視、實(shí)現(xiàn)結(jié)果公平和保護(hù)弱勢群體的多重內(nèi)涵。鑒于本次調(diào)研對象是一般用戶,問卷主要考察了民眾對算法結(jié)果公平尤其是“差別化定價(jià)”的感知。為此,問卷設(shè)計(jì)了“您經(jīng)歷過企業(yè)對相同產(chǎn)品或服務(wù)對您和其他人收取不同價(jià)格嗎?”“您感覺企業(yè)在定價(jià)上是如何進(jìn)行差別化對待的?”“您對企業(yè)按照收入水平高低、新老用戶、接受服務(wù)頻率的高低或是否會(huì)員進(jìn)行差別化定價(jià)的行為,是何態(tài)度?”“您感覺哪種類型的企業(yè)差別化定價(jià)的現(xiàn)象比較嚴(yán)重?”“當(dāng)您察覺到自己遇到差別化定價(jià)對待后,您會(huì)怎么做?”等問題。

“算法向善”同樣有著鮮明中國特色。《數(shù)據(jù)安全法》第28條要求,新技術(shù)研究開發(fā)應(yīng)有利于促進(jìn)經(jīng)濟(jì)社會(huì)發(fā)展,增進(jìn)人民福祉,《算法綜合治理意見》《算法推薦管理辦法》亦將“引導(dǎo)算法應(yīng)用向上向善”作為立法愿景,并進(jìn)一步細(xì)化為“算法為信息內(nèi)容服務(wù)”“算法為良好生活服務(wù)”“算法為老人和未成年人服務(wù)”等具體規(guī)范?;诖耍瑔柧碓O(shè)計(jì)了“您有過受企業(yè)推送廣告的影響而購買了不必要的產(chǎn)品或服務(wù)的經(jīng)歷嗎?”“您收到不良信息(謠言、低俗、色情等)的頻次是多少?”“您認(rèn)為目前企業(yè)利用算法進(jìn)行人為的信息扭曲情形多嗎?”“依賴企業(yè)自動(dòng)排序進(jìn)行閱讀或觀看,您在獲取信息、知識(shí)方面的感覺如何?”“您認(rèn)為哪一類企業(yè)在‘適老化’‘未成年人模式’等人性化設(shè)計(jì)方面做得比較好?”“面對不良信息您會(huì)主動(dòng)向企業(yè)舉報(bào)嗎?舉報(bào)后,不良信息出現(xiàn)的頻次會(huì)減少嗎?”等問題。

(三)問卷的發(fā)放與回收

本調(diào)查于2021年12月,通過在線問卷平臺(tái)“問卷星”和“支付寶”應(yīng)用程序發(fā)放,共發(fā)放問卷1500萬份,收到有效問卷6941份。盡管應(yīng)答率偏低,但有效應(yīng)答的參與者在性別、年齡、地區(qū)、收入、學(xué)歷等方面分布廣泛,反映了我國網(wǎng)民總體的多樣性(見表1),相關(guān)應(yīng)答率與“無應(yīng)答偏差”(nonresponse bias)并無直接關(guān)聯(lián)(10)Groves R., Heeringa S., “Responsive Design for Household Surveys: Tools for Actively Controlling Survey Errors and Costs”, Journal of the Royal Statistical Society: Series A(Statistics in Society), 2006, 169(3), pp.439-457.。更重要的是,鑒于本問卷以“對算法有真實(shí)感知的人群”為中心(11)例如,18歲以下未成年人在線上購物、本地生活、游戲等領(lǐng)域受到無獨(dú)立收入及未成年保護(hù)因素的限制,不是主要的消費(fèi)人口,而60歲以上人群對電商、本地生活、線上社交等服務(wù)的接受也有限。,因此參與人“選擇性回復(fù)”以及所導(dǎo)致的樣本在性別、年齡、地域的偏差,可被“弱應(yīng)答樣本代表性”(R指標(biāo))所解釋(12)任莉穎、邱澤奇、丁華、嚴(yán)潔:《問卷調(diào)查質(zhì)量研究:應(yīng)答代表性評估》,《社會(huì)》2014年第1期。,其統(tǒng)計(jì)結(jié)果具有有效性和可信性。

表1 調(diào)查對象整體情況

(四)調(diào)查結(jié)果分析

1.算法透明方面

在認(rèn)知方面,用戶對互聯(lián)網(wǎng)服務(wù)算法了解水平有限。超過半數(shù)的受訪者對企業(yè)是否使用算法不清楚,六成受訪者不了解企業(yè)使用算法的內(nèi)容和目的。其中,16.90%的受訪者完全不清楚企業(yè)是否使用算法,39.08%的受訪者則不太清楚;20.34%的受訪者完全不了解企業(yè)使用算法的內(nèi)容和目的,44.64%的受訪者則不太了解。這說明多數(shù)受訪者對企業(yè)算法應(yīng)用有一定程度的感知,但處于了解淺顯、認(rèn)知模糊的階段。

在態(tài)度方面,對于基于算法的廣告推薦,受訪者表現(xiàn)出接受態(tài)度,只有7.17%的受訪者認(rèn)同不使用算法的統(tǒng)一廣告推送。但另一方面,當(dāng)問及使用性別、喜好、地理位置、交易和瀏覽記錄推薦商品時(shí),更多的人表達(dá)了憂慮,28.99%的人希望關(guān)閉該功能。

在權(quán)利方面,用戶對算法解釋權(quán)的訴求強(qiáng)烈,只有7.22%的受訪者認(rèn)為不需要解釋,其余都認(rèn)為需要不同程度的解釋。

在行動(dòng)方面,如用戶對算法結(jié)果有異議時(shí),超過3/4(76.48%)的受訪者希望人工介入,只有11.55%的受訪者認(rèn)為人工不如算法準(zhǔn)確。

2.算法安全方面

在認(rèn)知方面,近八成的受訪者認(rèn)為算法應(yīng)用存在可能損害用戶權(quán)益的風(fēng)險(xiǎn),20.28%的人認(rèn)為風(fēng)險(xiǎn)很高,接近60%的人認(rèn)為存在一定風(fēng)險(xiǎn),只有不到5%的人認(rèn)為不存在風(fēng)險(xiǎn)。關(guān)于個(gè)性化推薦是否侵犯隱私這一更具體的風(fēng)險(xiǎn)感知問題進(jìn)一步佐證了該結(jié)論,超過60%的人表示贊同,而反對的比例只有12%。

在態(tài)度方面,用戶對不同互聯(lián)網(wǎng)行業(yè)的算法風(fēng)險(xiǎn)感知度存在一定差異。55.86%的受訪者認(rèn)為電商存在嚴(yán)重?fù)p害用戶權(quán)益現(xiàn)象,認(rèn)為社交平臺(tái)、視頻媒體、金融機(jī)構(gòu)和搜索平臺(tái)存在這一現(xiàn)象的受訪者也分別達(dá)到47.51%、44.72%、44.5%和44%。

在權(quán)利方面,受訪者對算法安全法規(guī)及自身合法權(quán)益了解有限。受訪者中僅有7.95%的人親自閱讀過相關(guān)法規(guī),36.14%的受訪者只聽說過部分內(nèi)容,25.08%的受訪者僅聽說過名字,高達(dá)30.83%的受訪者完全不了解我國立法。

在行動(dòng)方面,受訪者表現(xiàn)出較強(qiáng)的自我保護(hù)意識(shí),并對企業(yè)自我主動(dòng)管理寄予厚望。為規(guī)避算法帶來的不利影響,受訪者主動(dòng)管理企業(yè)數(shù)據(jù)收集請求、拒絕不合理請求的比例高達(dá)47.27%,選擇關(guān)閉個(gè)性化推薦的比例也超過了45%。同時(shí),有60.12%的受訪者希望對企業(yè)加強(qiáng)安全算法評估,位居各項(xiàng)選擇之首。此外,用戶也提出了強(qiáng)化企業(yè)使用算法的法律責(zé)任、加強(qiáng)企業(yè)監(jiān)管以及限制企業(yè)數(shù)據(jù)搜集范圍等明確主張。

3.算法公平方面

在認(rèn)知方面,受訪者認(rèn)為差別化定價(jià)普遍存在,僅22.16%的受訪者表示沒有經(jīng)歷過差別化定價(jià),分別有51.46%和26.38%的受訪者偶爾或經(jīng)常經(jīng)歷差別化定價(jià)。在經(jīng)歷過差別化定價(jià)的受訪者中,最多經(jīng)歷的是新老客戶定價(jià)不一致的情形(59.26%),這既包括“回饋老客戶”活動(dòng),也包括“吸引新客戶”活動(dòng);其次是依據(jù)是否活躍客戶、是否會(huì)員而定價(jià)不一(56.19%和53.54%),以及根據(jù)收入水平的差別化定價(jià)(34.88%)。此外,用戶對互聯(lián)網(wǎng)不同行業(yè)的差別化定價(jià)情況有不同認(rèn)知,其中,受訪者認(rèn)為電商企業(yè)最常采用差別化定價(jià)(60.96%),而音樂娛樂平臺(tái)則最少采用(22.30%)。

在態(tài)度方面,當(dāng)遭遇差別化定價(jià)后,受訪者總體反映比較負(fù)面,有55%的受訪者表示很在意差別化定價(jià),不過,也有超過30%的用戶表示理解和忍受。同時(shí),用戶對不同的差別化定價(jià)行為態(tài)度也不相同,其中,最被認(rèn)可的是根據(jù)是否是會(huì)員進(jìn)行定價(jià),69%的受訪者表示認(rèn)同或中立;最不被認(rèn)可的是按照收入水平定價(jià),有44%的受訪者表示不太認(rèn)同或完全不認(rèn)同。不過,即使是認(rèn)同度最高的差別化定價(jià)行為(根據(jù)是否是會(huì)員定價(jià)),也有31%的受訪者表示反對,而在不認(rèn)同度最高的差別化定價(jià)行為(根據(jù)收入高低定價(jià))中,也有30%的受訪者表示認(rèn)同,說明公眾尚未就判斷差別化定價(jià)的實(shí)質(zhì)合理性標(biāo)準(zhǔn)達(dá)成共識(shí)。

在權(quán)利和行動(dòng)方面,絕大多數(shù)用戶會(huì)積極維護(hù)自己的權(quán)益,一半以上(55.06%)的人會(huì)選擇“減少或暫停對該企業(yè)產(chǎn)品或服務(wù)的使用”,有14%的人會(huì)曝光或投訴相關(guān)企業(yè)。

4.算法向善方面

在認(rèn)知方面,用戶對不良信息感受明顯,過半數(shù)受訪者在使用App的過程中收到過不良信息(15%經(jīng)常收到,37%偶爾收到,32%收到比較少)。同時(shí),用戶對企業(yè)利用算法故意造成信息扭曲的行為感知強(qiáng)烈。超過80%的受訪者認(rèn)為企業(yè)利用算法人為扭曲信息的情況很多或比較多。此外,用戶認(rèn)為企業(yè)面向“老人和未成年人”等網(wǎng)絡(luò)弱勢群體開展的人性化設(shè)計(jì)不如人意。在行業(yè)細(xì)分領(lǐng)域中,視頻媒體和社交平臺(tái)評價(jià)相對較高,而在線旅游平臺(tái)和搜索平臺(tái)評價(jià)相對最低,金融機(jī)構(gòu)也只得到了14.58%的受訪者認(rèn)可,更有甚者,有35.18%的受訪者認(rèn)為所有行業(yè)都難稱滿意。

在態(tài)度方面,用戶對“算法推薦信息和誘導(dǎo)消費(fèi)”比較中立,算法誘導(dǎo)過度消費(fèi)問題并不突出,“信息繭房”因人而異。根據(jù)問卷結(jié)果,85%的受訪者沒有或很少在推薦算法的引導(dǎo)下購買不必要的產(chǎn)品或服務(wù)。需要追問的是,這一態(tài)度是否因用戶“有限理性”被“套路”而不自知?對比剩余15%的受訪者情況,在逐一分析年齡、職業(yè)、收入水平等變量后,未發(fā)現(xiàn)年輕人、學(xué)生、低收入群體更容易被誘導(dǎo)或陷入錯(cuò)誤感知的證據(jù)。此外,受訪者在獲取知識(shí)和信息方面的感受存在明顯差異,40%的人認(rèn)為推薦算法有助于獲取豐富的信息、節(jié)省信息搜尋時(shí)間等;25%的人認(rèn)為算法推薦的信息較為同質(zhì),限制了知識(shí)獲取的多元性;18%的人認(rèn)為推送內(nèi)容過于娛樂化,容易導(dǎo)致上癮;還有17%的人對算法推薦有效性存疑,認(rèn)為不如自己查找信息。

在權(quán)利和行動(dòng)方面,用戶對不良信息侵入的權(quán)利意識(shí)不強(qiáng),53%的受訪者表示在面對不良信息時(shí)沒有舉報(bào),而在舉報(bào)過的受訪者中,2/3的人表示雖然舉報(bào)過但不良信息出現(xiàn)的頻次并未減少,說明企業(yè)對用戶反饋信息的重視程度低,投訴機(jī)制有待完善。

二、理論意蘊(yùn):算法悖論的提出

(一)用戶的算法認(rèn)知、態(tài)度及行為背離

通過對調(diào)查結(jié)果進(jìn)行邏輯分析和分組交叉研究,我們從數(shù)據(jù)中發(fā)現(xiàn)了民眾關(guān)于算法認(rèn)知、態(tài)度和行為之間的背離,本文稱之為“算法悖論”。

首先,用戶對算法的認(rèn)知與態(tài)度間存在背離。如表2所示,有55.98%的用戶表示對企業(yè)使用了算法不太清楚或完全不清楚,高達(dá)64.98%的用戶對企業(yè)使用算法的目的表示不太了解或完全不了解,但當(dāng)被問到對企業(yè)使用算法的態(tài)度時(shí),極高比例的用戶表示企業(yè)使用算法會(huì)對用戶權(quán)益造成損害、侵犯隱私及操縱信息等,對算法表示出風(fēng)險(xiǎn)很高的負(fù)面評價(jià)。圖1給出了相關(guān)調(diào)查結(jié)果的結(jié)構(gòu),可以看到,79.39%的用戶認(rèn)為算法侵犯了用戶權(quán)益,60.33%的用戶認(rèn)為推薦性算法侵犯了自己的隱私。這意味著,一方面,有相當(dāng)比例的用戶對企業(yè)使用算法的行為不了解,但另一方面,對算法使用卻抱有明顯的負(fù)面態(tài)度。

表2 受訪者對算法的基本認(rèn)知

圖1 受訪者對于算法風(fēng)險(xiǎn)的態(tài)度

特別地,我們對問卷數(shù)據(jù)做進(jìn)一步分析,把用戶分為兩組,一組對企業(yè)使用算法的內(nèi)容和目的認(rèn)知度較高,另一組認(rèn)知度較低。我們發(fā)現(xiàn),前一組用戶關(guān)于風(fēng)險(xiǎn)和隱私侵犯的負(fù)面態(tài)度弱于后一組,意即有相當(dāng)一部分用戶雖然對算法“無知”,但有先入為主的負(fù)面評價(jià)(表3)。

表3 認(rèn)知度不同用戶的態(tài)度差異

其次,用戶對算法的態(tài)度與行為之間存在背離。其一,雖然用戶在態(tài)度上認(rèn)為算法會(huì)侵犯用戶權(quán)益,但在行為上卻傾向于選擇算法帶來的便利。約80%的受訪者認(rèn)為,企業(yè)使用算法可能會(huì)損害用戶權(quán)益、侵犯個(gè)人隱私或造成人為信息扭曲,但相當(dāng)比例的用戶并不抵觸用算法獲得服務(wù)、產(chǎn)品和體驗(yàn)。例如,只有7%的用戶贊成對所有人推送相同廣告,有1/4的用戶贊成“千人千面”的推送,其他用戶也在一定程度上接受企業(yè)使用個(gè)人信息分類推薦。此外,當(dāng)被問到企業(yè)使用算法給個(gè)人造成的影響時(shí),用戶的實(shí)際感受也呈現(xiàn)出相對正面的結(jié)果,85%的用戶表示不會(huì)因?yàn)樽詣?dòng)推薦產(chǎn)生過度購買的行為,40%的用戶感覺自動(dòng)信息推送精準(zhǔn)、對己有益。一般而言,相當(dāng)多的用戶對算法抱有負(fù)面評價(jià),但涉及具體的場景,用戶行為表現(xiàn)出對推薦算法的容忍和接受。其二,用戶雖然認(rèn)為企業(yè)使用算法會(huì)引發(fā)普遍風(fēng)險(xiǎn),但行為上表現(xiàn)比較被動(dòng)消極,缺乏保護(hù)自身權(quán)益及掌握算法規(guī)定的主動(dòng)性。調(diào)查顯示,85%的用戶受到過不良信息的侵?jǐn)_,但其中超過一半的用戶從未主動(dòng)舉報(bào)。

最后,在認(rèn)知、態(tài)度和行為的背離上,60歲以上老年人相比于年輕人,表現(xiàn)更加明顯。年輕人表現(xiàn)出比老年人更高的算法認(rèn)知度,對算法更多懷有好奇和包容的態(tài)度,對算法持有相對信任的態(tài)度。在接受個(gè)性化推薦、差別化定價(jià)方面,年輕人更加理性,在自我權(quán)益保護(hù)方面,年輕人也更加積極。該事實(shí)說明,“數(shù)字原住民”的算法素養(yǎng)較高,而“移民一代”則存在一定程度的認(rèn)知和行為偏差。

(二)算法悖論:淵源與類型

算法悖論并非全新事物。實(shí)際上,與之密切聯(lián)系的概念——“隱私悖論”(privacy paradox)早已被人們揭示(13)“隱私悖論”系在英文語境下的理論,其“隱私”概念系廣義,包括了《民法典》下的隱私、個(gè)人信息等相關(guān)內(nèi)容。。2006年,Barnes首次使用“隱私悖論”指代社交網(wǎng)站上青少年輕易披露個(gè)人隱私與成年人對網(wǎng)絡(luò)隱私泄露顧慮的差異,其實(shí)質(zhì)是不同人群對待隱私的不同處理方式(14)Barnes S., “A Privacy Paradox: Social Networking in the United States”, First Monday, 2006, 11(9), pp.86.。之后,人們從“隱私關(guān)注”(privacy concerns)暨“人們針對隱私泄露、隱私侵害相關(guān)聯(lián)的意識(shí)和主觀感受”出發(fā),將所有隱私關(guān)注與隱私相關(guān)行動(dòng)不符的情形稱為“隱私悖論”。研究發(fā)現(xiàn),用戶隱私行為并不總是與他們的陳述相吻合,在特定場合下,用戶常常忘記或者降低隱私關(guān)注的級別,有時(shí)甚至?xí)S性地、沒有任何理由、不加以任何防范地披露隱私(15)Günther O., Spiekermann S., “Privacy in E-Commerce: Stated Preferences vs. Actual Behavior Bettina Berendt”, Communications of the ACM, 2005, 48(4), pp.101-106.。大量的實(shí)證研究已經(jīng)證實(shí)了這一現(xiàn)象。2001年,施皮克曼(Spiekermann) 模擬了線上購物產(chǎn)品咨詢的情境,通過聊天機(jī)器人與用戶的互動(dòng)觀察用戶披露信息的行為。研究結(jié)果令人驚訝。在聲稱極其擔(dān)憂隱私的“隱私原教旨主義者”(privacy fundamentalists)、策略性對待隱私的“實(shí)用主義者”和隱私“略微關(guān)注者”中,24%—28%的“隱私原教旨主義者”在與機(jī)器人交互前就自愿提供了家庭地址,30%—40%的“實(shí)用主義者”在未做任何隱私保護(hù)措施的情況下就提供了家庭地址(16)Spiekermann S., Grossklags J., Bettina B., “E-privacy in 2nd Generation Eommerce: Privacy Preferences Versus Actual Behavior”, Proceedings of the 3rd ACM conference on Electronic Commerce, 2001, pp.38-47.。這并非孤例。2019年,CIGI-Ipsos《全球互聯(lián)網(wǎng)安全與信任調(diào)查》的研究表明,人們擔(dān)憂隱私泄露風(fēng)險(xiǎn)與信任互聯(lián)網(wǎng)從而愿意分享個(gè)人信息的比例存在顯著偏差(17)CIGI-Ipsos, “Global Survey on Internet Security and Trust”, https://www.cigionline.org/cigi-ipsos-global-survey-internet-security-and-trust, 訪問日期:2022年5月16日。。以至于有學(xué)者直陳“人們對隱私關(guān)注與他們的隱私行為無關(guān)”(18)Tufekci Z., “Can you See me Now? Audience and Disclosure Regulation in Online Social Network Sites”, Bulletin of Science Technology & Society, 2008, 28(1), pp.20-36.。近年來,隨著移動(dòng)互聯(lián)網(wǎng)、用戶畫像(profiling)技術(shù)以及推薦算法的應(yīng)用,“個(gè)性化—隱私悖論”(personalization-privacy paradox)成為重要的隱私悖論形式。在信息過載和注意力日益稀缺的背景下,用戶既享受個(gè)性化帶來的更好服務(wù),又擔(dān)憂隱私遭到侵犯;相反,企業(yè)既獲取通過個(gè)性化服務(wù)提高競爭力所創(chuàng)造的利益,又面臨隱私顧慮所造成的用戶流失。就此而言,“個(gè)性化—隱私悖論”產(chǎn)生于企業(yè)個(gè)性化服務(wù)與用戶隱私之間的拉鋸(19)LEE C. H., Cranage D., “Personalisation-privacy Paradox: the Effects of Personalisation and Privacy Assurance on Customer Responses to Travel Web Sites”, Tourism management, 2011, 32, pp.987-994.。

根據(jù)上述研究,我們不妨將“算法關(guān)注”(algorithm concerns)暨“人們針對算法歧視、算法濫用等算法風(fēng)險(xiǎn)相關(guān)聯(lián)的意識(shí)和主觀感受”與算法相關(guān)行為的捍格,統(tǒng)稱為“算法悖論”,進(jìn)而將之具體化為三種情形:(1)不同群體“算法關(guān)注”的分歧;(2)同一群體“算法關(guān)注”與算法行為的矛盾;(3)算法推薦便利與算法關(guān)注的取舍。

(三)算法悖論的成因闡釋

1.作為一種發(fā)展偏好的“算法關(guān)注”

算法關(guān)注系對科技風(fēng)險(xiǎn)的后天感受,其并非源于個(gè)體風(fēng)險(xiǎn)規(guī)避的先天偏好,而是被人生經(jīng)歷、知識(shí)結(jié)構(gòu)、生活習(xí)慣和文化背景所塑造,這解釋了為何不同人群對算法持有不同的態(tài)度。對支付寶用戶隱私感受的研究發(fā)現(xiàn),隱私擔(dān)憂可能是在使用數(shù)字服務(wù)的過程中形成的一種偏好,當(dāng)用戶逐漸從使用App提供服務(wù)中產(chǎn)生收益和樂趣時(shí),他們也開始對App數(shù)據(jù)收集與共享的潛在風(fēng)險(xiǎn)產(chǎn)生更多擔(dān)憂。簡言之,用戶的隱私關(guān)注可能會(huì)隨著其數(shù)據(jù)的積累而提升(20)Chen L, Huang Y, Ouyang S, et al., “The Data Privacy Paradox and Digital Demand (2021)”, https://www.nber.org/papers/w28854, 訪問日期:2022年5月16日。。將此理論運(yùn)用于算法中,可以將接受算法服務(wù)的頻率和對算法的了解程度作為變量,去解釋不同群體在“算法關(guān)注”方面的分歧。

調(diào)研結(jié)果顯示,在各年齡段的群體中,對算法接觸最少的60歲以上受訪者對算法可能帶來的風(fēng)險(xiǎn)感知度最低,只有12%的人認(rèn)為算法存在高風(fēng)險(xiǎn)。在匯聚個(gè)人信息用于“差別化定價(jià)”的場景下,針對算法使用個(gè)人特征標(biāo)簽的問題,“研究生及以上學(xué)歷水平的受訪者”更加傾向于約束企業(yè)行為,選擇“允許企業(yè)自主選擇標(biāo)簽及企業(yè)如何使用標(biāo)簽無所謂”的比例,高中及以下群體為23%,而本科及以上學(xué)歷群體大致為13%,低10個(gè)百分點(diǎn)。在針對算法可能產(chǎn)生的負(fù)面影響的應(yīng)對方面,高學(xué)歷受訪者更為主動(dòng)和堅(jiān)定,相對更有章法。隨著學(xué)歷的升高,為避免算法可能帶來的不利影響,更高比例的受訪者選擇關(guān)閉個(gè)性化推薦,而非盡量多樣化地瀏覽企業(yè)內(nèi)容,或選擇直接設(shè)法規(guī)避算法對個(gè)人的個(gè)性化認(rèn)知與計(jì)算,而非在更多的瀏覽中讓算法越來越了解自己。對比來看,在高中及以下學(xué)歷的受訪者中,沒有使用過所列示的任何做法來主動(dòng)規(guī)避算法潛在不利影響的比例最高(16%)。

2.陷入扭曲操縱的“算法行為”

“行為扭曲和操縱理論”試圖從不當(dāng)影響算法行為的主客觀因素出發(fā),揭示算法關(guān)注和算法行為的背離。就外部因素而言,企業(yè)往往通過設(shè)定菜單默認(rèn)值、強(qiáng)制注冊、晦澀語言、影子檔案等應(yīng)用交互界面的“暗黑模式”(dark patterns),將互聯(lián)網(wǎng)的架構(gòu)環(huán)境轉(zhuǎn)化為武器,給用戶提供選擇的假象,通過心理操控和變相形式影響用戶決定??墒聦?shí)上,如果用戶完全知情,且有能力選擇替代方案,其可能不會(huì)作出這些選擇(21)Ari E. W., “Cognitive Biases, Dark Patterns, and the ‘Privacy Paradox’”, Current Opinion in Psychology, 2020, 31, pp.105-109.。作為一種微觀權(quán)力形態(tài),企業(yè)可以通過算法強(qiáng)化對用戶的影響力和控制力,借由評級、分類、預(yù)測,潛移默化地左右著用戶的選擇(22)周輝:《算法權(quán)力及其規(guī)制》,《法制與社會(huì)發(fā)展》2019年第6期。。

從內(nèi)在因素出發(fā),用戶的算法行為將面臨信息不完整/不對稱、有限理性和系統(tǒng)性認(rèn)知偏差的困境(23)該表述借鑒了隱私悖論相關(guān)研究,參見Holland B., “Privacy Paradox 2.0”,Widener Law Journal, 2010, 19, pp.893-932.。所謂“信息不完整/不對稱”,意指用戶對算法存在和其性質(zhì)缺乏充分了解,難以準(zhǔn)確判斷算法風(fēng)險(xiǎn)的大小,同時(shí)也不清楚是否存在其他的替代技術(shù)和保護(hù)性方案。而當(dāng)用戶傾向于采用一種相當(dāng)近視的觀念時(shí),其實(shí)際決策就被扭曲?!坝邢蘩硇浴敝傅氖怯脩舾緹o法處理與算法成本和收益相關(guān)的所有非確定性信息,也難以預(yù)計(jì)其策略選擇的回報(bào)程度。為此,個(gè)體不得不求助于直覺、常識(shí)、猜測等“簡化的心智模型、近似策略和啟發(fā)法”(24)Acquisti A., Brandimarte L., Loewenstein G., “Privacy and Human Behavior in the Age of Information”, Science, 2015, 347(6221), pp.514.,由此引發(fā)了“系統(tǒng)性認(rèn)知偏差”。行為經(jīng)濟(jì)學(xué)的研究表明,樂觀偏見、影響式啟發(fā)、雙曲貼現(xiàn)、框架效應(yīng)等均會(huì)導(dǎo)致判斷錯(cuò)誤(25)申琦、邱藝:《打開隱私悖論背后的認(rèn)知黑箱》,《西南政法大學(xué)學(xué)報(bào)》2021年第5期。。其中,“樂觀偏見”是指個(gè)體傾向于表現(xiàn)出對自己算法保護(hù)技能和知識(shí)的過度自信,認(rèn)為自身面對的算法風(fēng)險(xiǎn)較??;“影響式啟發(fā)”即個(gè)體傾向于低估他們喜歡事物帶來的風(fēng)險(xiǎn),高估他們不喜歡事物帶來的風(fēng)險(xiǎn),這部分解釋了未成年人對算法的不同態(tài)度。調(diào)研顯示,較諸其他年齡段的人群,數(shù)字原住民對算法的風(fēng)險(xiǎn)感知度很低,對算法錯(cuò)誤也持相對開放包容的態(tài)度?!半p曲貼現(xiàn)”意味著人們以不一致的方式評估遙遠(yuǎn)和臨近的事件對其造成的影響,當(dāng)被問及個(gè)人是否打算采取保護(hù)策略時(shí),個(gè)人可能認(rèn)為算法風(fēng)險(xiǎn)更為重要,但是當(dāng)面臨使用算法所帶來的好處時(shí),個(gè)人的偏好改變,而選擇獲得眼前既得利益?!翱蚣苄?yīng)”使得人們的算法決策因信息呈現(xiàn)方式的變化而變化,即便是客觀風(fēng)險(xiǎn)不變,只要以不同的方式描述算法風(fēng)險(xiǎn)和收益,用戶就會(huì)作出不同的選擇。作為引導(dǎo)人們感知和重現(xiàn)現(xiàn)實(shí)的認(rèn)知結(jié)構(gòu),當(dāng)前社會(huì)對算法廣泛的批評構(gòu)成了算法認(rèn)知的“基本框架”,對算法的普遍性未知進(jìn)一步放大了算法憂懼,加之大多數(shù)受訪者不了解國家有關(guān)算法安全法律法規(guī),無法通過法律救濟(jì)途徑保障自身權(quán)益,往往只能通過拒絕算法應(yīng)用以減少算法風(fēng)險(xiǎn),陷入“要么全盤接受,要么徹底拒絕”的“假兩難困境”(false dilemma)。

3.基于成本收益的“算法行為”

與“行為扭曲和操縱理論”下“非理性人”的假設(shè)迥異,面對個(gè)體行為和感受的背離,“隱私演算”(privacy calculus)理論旨在從“利益最大化”的理性人角度,認(rèn)為個(gè)體會(huì)在潛在隱私損失和預(yù)期隱私收益間進(jìn)行計(jì)算,其最終行為取決于隱私權(quán)衡的結(jié)果(26)Dinev T. and Hart P., “An Extended Privacy Calculus Model for E-Commerce Transactions”, Information Systems Research, 2006, 7(1), pp.61-80.。就其損失而言,包括安寧侵?jǐn)_、社會(huì)歧視、身份盜竊、網(wǎng)絡(luò)詐騙、人肉搜索等;就其收益而言,包括娛樂、便捷、個(gè)性化、自我呈現(xiàn)、維系社會(huì)關(guān)系、獲取社會(huì)資本等。當(dāng)收益大于損失時(shí),人們就會(huì)用隱私換取更高的利益(27)Krasnova H, Spiekermann S, Koroleva K, Hildebrand T., “Online Social Networks: Why We Disclose”, Journal of Information Technology, 2010, 25(2), pp.109-125.。對隱私的“陳述偏好”(stated preferences)和“顯示偏好”(revealed preferences)的區(qū)分進(jìn)一步表明,盡管人們經(jīng)常聲稱關(guān)切隱私,但在具體場景下的行為才能揭示其真正的偏好(28)Cooper J. C., “Lessons from Antitrust: The Path to a More Coherent Privacy Policy( Feb. 26. 2017)”, https://www.uschamberfoundation.org/reports/lessons-antitrust-path-more-coherent-privacy-policy, 訪問日期:2022年5月16日。。事實(shí)上,人們愿意通過隱私披露來獲取企業(yè)的數(shù)字內(nèi)容和數(shù)字服務(wù),正如2015年歐盟《關(guān)于數(shù)字內(nèi)容提供合同部分問題的指令議案》(EU Proposal for a Directive Concerning the Supply of the Digital Content)前言所指出的那樣,在數(shù)字經(jīng)濟(jì)中,用戶“支付個(gè)人數(shù)據(jù)”(pay by data)和“支付金錢”(pay by money)具有同等意義。面對紛繁蕪雜的互聯(lián)網(wǎng)信息和產(chǎn)品,算法推薦通過“千人千面”的頁面設(shè)置、精準(zhǔn)匹配的搜索結(jié)果、反映用戶偏好的內(nèi)容推送,幫助用戶降低搜尋成本和決策成本。

不僅如此,基于算法的差別化定價(jià)具有快速、動(dòng)態(tài)特征,能夠在提高產(chǎn)品服務(wù)質(zhì)量的同時(shí),穩(wěn)定地滿足多變的市場需求(29)張江莉:《論相關(guān)產(chǎn)品市場界定中的“產(chǎn)品界定”——多邊平臺(tái)反壟斷案件的新難題》,《法學(xué)評論》2019年第1期。。算法所提供的種種便利,使得用戶在權(quán)衡之后,愿意在明知算法風(fēng)險(xiǎn)的前提下,作出接受算法服務(wù)的選擇,這或許解釋了調(diào)研結(jié)果中“算法推薦便利與隱私”的矛盾。用戶對算法的排斥實(shí)質(zhì)上是對企業(yè)過度利用算法行為的排斥,而非排斥算法技術(shù)和算法應(yīng)用本身。當(dāng)算法滿足更便利的信息搜集渠道、更精準(zhǔn)的信息推薦、更有質(zhì)量的信息內(nèi)容等用戶期待時(shí),用戶對算法并不抵觸。相反,當(dāng)算法無法實(shí)現(xiàn)上述期待時(shí),人們對算法沉迷、信息繭房、算法侵權(quán)等算法濫用的擔(dān)憂就自然會(huì)凸顯。

三、制度回應(yīng):算法悖論的化解

(一)理解發(fā)展偏好:將“算法向善”嵌入“業(yè)務(wù)流程”

作為一種發(fā)展偏好,“算法關(guān)注”隨著服務(wù)和產(chǎn)品的使用而上升,因此,企業(yè)應(yīng)未雨綢繆,將“算法向善”引入到服務(wù)、產(chǎn)品設(shè)計(jì)和使用的各個(gè)環(huán)節(jié)中,在系統(tǒng)設(shè)計(jì)之初就將“向善”需求嵌入其中,成為系統(tǒng)運(yùn)行的默認(rèn)規(guī)則,而非事后補(bǔ)救。這一“經(jīng)設(shè)計(jì)的算法治理”遵循“以人為本”的設(shè)計(jì)原則(Human-Centred Design, HCD)。HCD主張將“人”放在任何系統(tǒng)的中心,從用戶的需求、興趣和能力出發(fā),通過直接與人們接觸來評估和理解人類,以提供可用、易于理解和符合社會(huì)價(jià)值觀的產(chǎn)品和服務(wù)(30)Donald N., “The Four Fundamental Principles of Human-Centered Design and Application( August 2019)”, https://jnd.org/the-four-fundamental-principles-ofhuman-centered-design/, 訪問日期:2022年5月16日。。HCD本質(zhì)上是跨學(xué)科實(shí)踐,為此,企業(yè)首先應(yīng)當(dāng)設(shè)立一個(gè)由倫理專家、技術(shù)專家、法律專家、公眾代表組成的算法倫理委員會(huì),在對企業(yè)或社會(huì)可能產(chǎn)生重大影響的算法部署之前,委員會(huì)應(yīng)率先啟動(dòng)倫理審查,基于“算法向善”的原則,識(shí)別、預(yù)防、消除相關(guān)應(yīng)用對基本價(jià)值觀的背離(31)許可:《算法規(guī)制體系的中國建構(gòu)與理論反思》,《法律科學(xué)(西北政法大學(xué)學(xué)報(bào))》2021年第1期。。另一方面,HCD還需要整合信息科學(xué)、心理學(xué)、認(rèn)知科學(xué)、人類學(xué)等知識(shí),企業(yè)有必要匯聚用戶體驗(yàn)設(shè)計(jì)師、視覺設(shè)計(jì)師、交互設(shè)計(jì)師和信息設(shè)計(jì)師,使之通力協(xié)作,保證將用戶的權(quán)益置于任何設(shè)計(jì)的最前沿。

算法向善的內(nèi)涵十分寬泛,為達(dá)致監(jiān)管實(shí)效,理應(yīng)有所側(cè)重。從調(diào)研結(jié)果觀察,民眾對于算法故意造成的信息扭曲行為、不良信息的算法推送、網(wǎng)絡(luò)弱勢群體服務(wù)水平不高反映強(qiáng)烈,但算法誘導(dǎo)下的過度消費(fèi)問題并不突出,“信息繭房”也不盡相同。為此,監(jiān)管機(jī)構(gòu)可以“信息內(nèi)容向善”和“網(wǎng)絡(luò)弱勢群體保護(hù)”為監(jiān)管重心,落實(shí)《互聯(lián)網(wǎng)信息服務(wù)管理辦法》《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》等信息內(nèi)容治理的法律法規(guī),加強(qiáng)違法信息內(nèi)容禁令的執(zhí)行,規(guī)范企業(yè)進(jìn)一步優(yōu)化過濾算法和推薦算法以防范和抵制不良信息,禁止算法實(shí)施流量劫持、虛假注冊賬號、非法交易賬號、操縱用戶賬號等破壞網(wǎng)絡(luò)生態(tài)秩序的行為。同時(shí),企業(yè)應(yīng)積極響應(yīng)民眾訴求,暢通投訴—舉報(bào)—反饋機(jī)制,并為未成年和老年人量身定制適合其認(rèn)知特點(diǎn)的服務(wù)產(chǎn)品。

(二)避免扭曲操縱:從“算法透明”邁向“算法素養(yǎng)”

面對可能陷入扭曲操縱的算法行為,首先要破除企業(yè)的“暗黑模式”。陽光是最好的消毒劑,旨在打開“算法黑箱”的算法透明機(jī)制由此成為各種路徑中最直接有效的方式(32)汪慶華:《算法透明的多重維度和算法問責(zé)》,《比較法研究》2020年第6期。。我國既有監(jiān)管法律為算法透明提供了算法備案、算法審計(jì)、算法檢查、算法解釋等多種工具,而在民眾對算法了解水平有限的情形下,面向用戶的“算法解釋權(quán)”成為化解算法悖論、落實(shí)算法問責(zé)、實(shí)現(xiàn)算法公正的關(guān)鍵所在(33)許可、朱悅:《算法解釋權(quán):科技與法律的雙重視角》,《蘇州大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2020年第2期。。調(diào)研結(jié)果表明,用戶對算法解釋的訴求強(qiáng)烈,但不同用戶之間也有著顯著差異,有54.28%的人需要對算法的簡單解釋,38.49%的人則需要詳盡解釋。同時(shí),在算法處理結(jié)果引發(fā)用戶異議時(shí),超過3/4的受訪者希望人工介入,以矯正可能的算法錯(cuò)誤。因此,盡管學(xué)界對算法透明原則存在爭議,但從用戶出發(fā),監(jiān)管機(jī)構(gòu)仍應(yīng)堅(jiān)持算法透明要求,設(shè)定分層次的算法透明規(guī)則。一是“算法服務(wù)基本情況的透明”(簡單解釋規(guī)則),即企業(yè)應(yīng)以顯著方式(包括但不限于通過算法備案系統(tǒng))告知用戶與服務(wù)直接相關(guān)的核心算法名稱、應(yīng)用領(lǐng)域、算法類型和算法目的。二是“算法服務(wù)基本原理的透明”(詳細(xì)解釋規(guī)則),即企業(yè)可以通過易見、易讀、易懂的方式告知用戶與服務(wù)直接相關(guān)的核心算法的基本原理和主要運(yùn)行機(jī)制。三是“算法服務(wù)處理結(jié)果的透明”(全面解釋規(guī)則),即在用戶就算法決策結(jié)果提出異議時(shí),應(yīng)當(dāng)告知個(gè)人信息收集和處理、個(gè)人特征參數(shù)模型選擇及其與決策結(jié)果的邏輯關(guān)系。四是“算法服務(wù)異議的人工介入”(用戶拒絕規(guī)則),即在用戶就算法決策結(jié)果提出異議時(shí),企業(yè)應(yīng)當(dāng)通過人工方式復(fù)核決策結(jié)果。

算法透明并非意味著算法可知,受限于民眾的技術(shù)能力、算法的復(fù)雜化、機(jī)器學(xué)習(xí)和干擾性披露(信息混淆)等問題(34)沈偉偉:《算法透明原則的迷思》,《環(huán)球法律評論》2019年第6期。,算法透明可能無法實(shí)現(xiàn)提升用戶理性的目的。隱私悖論研究表明,增加人們對隱私技術(shù)、威脅的了解,培養(yǎng)科學(xué)的隱私風(fēng)險(xiǎn)意識(shí),幫助人們獲取如何保護(hù)隱私的信息,能夠有效減少隱私悖論行為(35)Weinberger M., Bouhnik D., Zhitomirsky-Geffet M., “Factors Affecting Students’ Privacy Paradox and Privacy Protection Behavior”, Open Information Science, 2017, 1, pp.3-20.。當(dāng)前,民眾對算法存在顯著的認(rèn)知偏差。在算法應(yīng)用的第一階段,民眾充分享受算法便利,但對算法一無所知;在算法應(yīng)用的第二階段,隨著隱私侵害、大數(shù)據(jù)殺熟等負(fù)面信息不斷傳播,引發(fā)了民眾強(qiáng)烈憂慮,但由于羊群效應(yīng),亦同時(shí)出現(xiàn)了對算法的錯(cuò)誤認(rèn)知。調(diào)查顯示,民眾尚沒有建立起基本的算法知識(shí)結(jié)構(gòu)和自身邏輯一致的算法認(rèn)知,由此導(dǎo)致用戶面對算法時(shí)難以作出最符合其真正利益的選擇。調(diào)研進(jìn)一步發(fā)現(xiàn),對算法的認(rèn)知與態(tài)度因用戶的學(xué)歷背景、成長環(huán)境、收入水平而異,不同群體之間存在明顯鴻溝。為此,有必要系統(tǒng)性提升公眾的“算法素養(yǎng)”(Algorithmic Literacy)。

所謂“算法素養(yǎng)”,即“意識(shí)到算法在網(wǎng)絡(luò)平臺(tái)和服務(wù)中的使用,了解算法的工作原理,能夠批判性地評估算法決策,以及擁有應(yīng)對甚至影響算法操作的技能”(36)Dogruel L., Masur P., Joeckel S., “Development and Validation of an Algorithm Literacy Scale for Internet Users”, Communication Methods and Measures, 2021, 16(3), pp.1-19.。作為一項(xiàng)系統(tǒng)工程,算法素養(yǎng)就像更寬泛的“數(shù)字素養(yǎng)”一樣,需要國家、企業(yè)、科研機(jī)構(gòu)、社會(huì)組織等主體共同參與(37)蔣敏娟、翟云:《數(shù)字化轉(zhuǎn)型背景下的公民數(shù)字素養(yǎng):框架、挑戰(zhàn)與應(yīng)對方略》,《電子政務(wù)》2022年第1期。。為此,各方可以彼此協(xié)力加強(qiáng)用戶教育,開展廣泛、持續(xù)的日常性算法教育,幫助用戶提高對算法服務(wù)的認(rèn)知能力和自我保護(hù)能力。

具體而言,各方可從算法態(tài)度、算法知識(shí)、算法技能三方面開展如下工作:(1)普及算法知識(shí)。監(jiān)管機(jī)構(gòu)可以通過專門網(wǎng)站向公眾提供相關(guān)的、界面友好的維權(quán)法規(guī)以及自我保護(hù)措施;企業(yè)應(yīng)在算法透明的基礎(chǔ)上,全面披露算法對用戶正反兩方面的影響。(2)改善算法態(tài)度。監(jiān)管機(jī)構(gòu)可以定期公布算法治理案例和執(zhí)法活動(dòng)成果,企業(yè)則可以通過算法應(yīng)用研究、算法合規(guī)審計(jì)報(bào)告的形式,影響民眾對算法收益和風(fēng)險(xiǎn)的感受、偏好與評價(jià)情況。(3)強(qiáng)化算法技能。社會(huì)各界可以在學(xué)歷教育和社會(huì)教育中廣泛開展算法教育,培養(yǎng)民眾用算法工具創(chuàng)建和編輯文字、圖像和視頻內(nèi)容的能力,利用算法原理選擇推薦信息、影響算法服務(wù)內(nèi)容的能力,保護(hù)隱私、個(gè)人信息、數(shù)字身份的能力,以及維護(hù)算法權(quán)利、解決算法糾紛的能力。

(三)優(yōu)化成本收益演算:經(jīng)“過程公平”落實(shí)“算法公平”

互聯(lián)網(wǎng)海量內(nèi)容呈現(xiàn)與可及數(shù)據(jù)極大提升了算法篩選、匹配、推送的必要性和準(zhǔn)確率,算法推薦由此成為數(shù)字經(jīng)濟(jì)時(shí)代信息傳遞的重要途徑。調(diào)研結(jié)果也體現(xiàn)出民眾對算法推薦的普遍認(rèn)可。正如以成本收益為基礎(chǔ)的“算法演算”理論所洞見,“得不償失”是最重要的算法不公平。在差別化定價(jià)這一可能破壞算法公平的典型場景中,調(diào)研初步窺見了用戶對得失之間的輕重權(quán)衡:根據(jù)收入水平(實(shí)質(zhì)是“用戶支付意愿”)的差異化定價(jià)令人反感,而根據(jù)“會(huì)員或非會(huì)員”的差異化定價(jià)則被很多人認(rèn)可,至于根據(jù)用戶接受服務(wù)頻率和新老用戶的差別化定價(jià)(即“大數(shù)據(jù)殺熟”)卻并未達(dá)成一致。這一分歧的背后,是紛繁多樣的差異化定價(jià)類型,以及對用戶權(quán)益正反兩面的影響:被收取較高價(jià)格一方的消費(fèi)者剩余可能轉(zhuǎn)移至被收取較低價(jià)格的一方,使得后者能夠享有統(tǒng)一定價(jià)場景中無法享受的服務(wù)或產(chǎn)品,從社會(huì)福利的角度,這有助于減少“哈勃格三角”的“無謂損失”(deadweight loss),實(shí)現(xiàn)卡爾多—??怂剐?Kaldor-Hicks Principle)。因此,試圖通過類型化方式來厘清差別化定價(jià)的“合理”與“不合理性”的邊界,難以達(dá)成共識(shí)。另一方面,差別化定價(jià)規(guī)則的不透明、信息與地位的不對等是造成用戶感知價(jià)格欺詐、脅迫,進(jìn)而引起強(qiáng)烈反感的主要原因。職是之故,未來的監(jiān)管不妨從強(qiáng)調(diào)“算法應(yīng)確保有價(jià)值事物在各方之間平等分配”的“結(jié)果公平”轉(zhuǎn)向“算法應(yīng)平等對待所有參與者,各方享有平等的機(jī)會(huì)、條件和權(quán)利”的“過程公平”(38)Reuben B., “Fairness in Machine Learning: Lessons from Political Philosophy”, Proceedings of Machine Learing Research, 2018, 81, pp.149-159.。

算法的“過程公平”首先要求企業(yè)在差別化定價(jià)時(shí)充分告知其理由。例如,在開展區(qū)分新老用戶的“拉新活動(dòng)”中,可明示“首單減免、新用戶專享優(yōu)惠”等;在開展區(qū)分接受服務(wù)頻率的“促活留存”活動(dòng)中,可明示“尊敬的用戶,您很久沒有光臨小店了,特送您一張優(yōu)惠券”等;在區(qū)分不同群體的營銷活動(dòng)中,可明示“學(xué)生專享價(jià)格”“60周歲以上專享價(jià)格”等。同時(shí),“過程公平”還應(yīng)保障用戶對差別化定價(jià)的“選擇退出”權(quán)利。調(diào)研表明,若用戶對差別化定價(jià)不滿時(shí),大部分會(huì)通過用腳投票和曝光投訴等途徑維護(hù)自身權(quán)益,從而給企業(yè)行為施加有力的外部制約。我國《個(gè)人信息保護(hù)法》第24條第二款在《電子商務(wù)法》第18條規(guī)制個(gè)性化推薦的基礎(chǔ)上,特別增加了“向個(gè)人提供便捷的拒絕方式”的企業(yè)義務(wù),有效避免了“選擇加入機(jī)制”的實(shí)質(zhì)不知情同意。據(jù)此,若用戶認(rèn)為遭到定價(jià)歧視,可以隨時(shí)選擇退出服務(wù),從而激勵(lì)其挑戰(zhàn)企業(yè)不合理的算法推薦(39)李丹:《算法歧視消費(fèi)者:行為機(jī)制、損益界定與協(xié)同規(guī)制》,《上海財(cái)經(jīng)大學(xué)學(xué)報(bào)》2021年第4期。。

放寬視野看,更準(zhǔn)確、更全面、更便捷的算法成本收益演算,有助于用戶形成真正的“計(jì)算性信任”(Calculated Trust),將個(gè)人和企業(yè)均置于數(shù)字經(jīng)濟(jì)的利益共同體中,立足于規(guī)制激勵(lì)而非規(guī)制威懾,有效彌合因差別化定價(jià)而可能減損的“用戶—企業(yè)”的數(shù)字信任關(guān)系,最終實(shí)現(xiàn)雙贏(40)謝堯雯:《網(wǎng)絡(luò)平臺(tái)差別化定價(jià)的規(guī)制路徑選擇》,《行政法學(xué)研究》2022年第1期。。

(四)回應(yīng)算法風(fēng)險(xiǎn):借“算法問責(zé)”鑄就“算法安全”

盡管算法安全是《算法綜合治理意見》中確立的首位監(jiān)管目標(biāo),但從消解算法悖論的角度,算法安全應(yīng)居于底線,只有在算法向善、算法透明、算法公平等措施力有不逮之時(shí),才有適用的空間。這是因?yàn)?,算法濫用固然可能危及網(wǎng)絡(luò)空間傳播秩序、市場秩序和社會(huì)秩序,但上述秩序均有著自我修復(fù)與完善的潛力,算法安全規(guī)制應(yīng)保持歉抑,避免安全泛在化戕害了既有秩序的自我發(fā)展與演進(jìn)。不過,這并不意味算法安全與算法悖論無關(guān)。正如隱私悖論研究所揭示的那樣,隱私保護(hù)是一個(gè)龐大、復(fù)雜和永無止境的項(xiàng)目,只是將知情權(quán)和選擇權(quán)賦予個(gè)人,使之自我管理是嚴(yán)重不夠的,監(jiān)管者必須為個(gè)人信息的收集和使用劃定界限,以保護(hù)個(gè)人免受侵害(41)Solove J. D., “The Myth of the Privacy Paradox”, George Washington Law Review, 2021, 89(1), pp.1-51.。算法悖論亦是如此。在倫理導(dǎo)向的算法向善、權(quán)利導(dǎo)向的算法透明、程序?qū)虻乃惴ü酵?,還應(yīng)將問責(zé)導(dǎo)向的算法安全作為監(jiān)管底線,回應(yīng)民眾關(guān)切。這恰恰印證了本文的調(diào)查發(fā)現(xiàn),即有58.12%的受訪者選擇通過“強(qiáng)化企業(yè)使用算法的法律責(zé)任”消除算法風(fēng)險(xiǎn)。

“算法問責(zé)”要求在算法應(yīng)用引起侵害或負(fù)面后果時(shí)應(yīng)能向算法服務(wù)提供者追責(zé)。據(jù)此,一方面,對于因場景特殊性和關(guān)涉法益重要性而引發(fā)的風(fēng)險(xiǎn),監(jiān)管者應(yīng)將算法看作侵權(quán)行為或違法行為的工具,采取“結(jié)果導(dǎo)向”和“實(shí)質(zhì)主義”進(jìn)路,在危害后果發(fā)生后予以問責(zé)。另一方面,問責(zé)并不限于“事后救濟(jì)和懲罰”,對于使用強(qiáng)化學(xué)習(xí)、無監(jiān)督學(xué)習(xí)、深度學(xué)習(xí)的算法,法律難以透過算法模型全然把握其內(nèi)部邏輯和決策過程,因而無法認(rèn)定行為過錯(cuò)和因果關(guān)系。從“事后”向“事前”的拓展,成為算法問責(zé)的發(fā)展方向。例如,2022年,美國推出新版《算法問責(zé)法(草案)》,將“算法影響評估”作為核心內(nèi)容,要求企業(yè)使用算法作出決策時(shí),應(yīng)對偏見、有效性和相關(guān)因素進(jìn)行系統(tǒng)化的影響分析。

就此而言,算法問責(zé)已成為管控算法侵害的全程機(jī)制,通過對數(shù)據(jù)收集、特征提取、算法設(shè)計(jì)的記錄留痕、認(rèn)證與審查機(jī)制和侵害發(fā)生后的糾正機(jī)制,積極預(yù)防算法可能產(chǎn)生的負(fù)面影響(42)王瑩:《算法侵害類型化研究與法律應(yīng)對——以〈個(gè)人信息保護(hù)法〉為基點(diǎn)的算法規(guī)制擴(kuò)展構(gòu)想》,《法制與社會(huì)發(fā)展》2021年第6期。。覆蓋事前、事中、事后的算法問責(zé)需要市場(代碼)、社群(規(guī)范)、政府(法律)的共同參與(43)許可:《馴服算法:算法治理的歷史展開與當(dāng)代體系》,《華東政法大學(xué)學(xué)報(bào)》2022年第1期。。其中,市場中的企業(yè)以代碼為基礎(chǔ)的自我規(guī)制是成本最小、效率最高的治理方式。調(diào)查亦顯示,超過60%的人贊同“企業(yè)加強(qiáng)算法的安全評估”,成為各項(xiàng)措施中的首選。認(rèn)證機(jī)構(gòu)、專家代理等社會(huì)組織則有助于執(zhí)法和司法過程中確定爭議事實(shí)、認(rèn)定過錯(cuò)和因果關(guān)系,是算法問責(zé)的重要構(gòu)成性力量。另外,政府應(yīng)通過主動(dòng)監(jiān)管追究企業(yè)民事、行政和刑事責(zé)任,實(shí)施有效威懾。

四、結(jié)語

法律實(shí)證研究具有發(fā)掘規(guī)范論證的實(shí)然基礎(chǔ)和衡量法律實(shí)效的功能(44)張永健、程金華:《法律實(shí)證研究的方法坐標(biāo)》,《中國法律評論》2018年第6期。。本次用戶算法應(yīng)用感知調(diào)查,一方面反映出民眾對算法風(fēng)險(xiǎn)的高度關(guān)切,為我國算法立法和執(zhí)法提供了堅(jiān)實(shí)的事實(shí)基礎(chǔ),另一方面亦揭示出人們的算法關(guān)注與算法行為之間的“算法悖論”。作為一個(gè)經(jīng)“隱私悖論”而發(fā)展的概念,算法悖論頗具理論深意。在監(jiān)管者積極回應(yīng)算法風(fēng)險(xiǎn)時(shí),有必要審慎對待用戶的真實(shí)感受和欲求,依循數(shù)字經(jīng)濟(jì)與算法社會(huì)的內(nèi)在規(guī)律,從而推動(dòng)我國以算法安全、算法透明、算法公平、算法向善為架構(gòu)的算法治理體系日臻完善。

當(dāng)然,作為我國對用戶算法感知的首次大規(guī)模實(shí)證研究,其可能無法反映事實(shí)全貌,更重要的是,它是算法法規(guī)尚未實(shí)行之時(shí)的切片式觀察?;诖耍覀冊诓贿h(yuǎn)的將來會(huì)更新問卷,繼續(xù)開展新一輪調(diào)查,以期以時(shí)間為維,描述算法法規(guī)的實(shí)效,發(fā)現(xiàn)民眾認(rèn)知、態(tài)度、權(quán)利和行動(dòng)的變遷,進(jìn)而彌合法律應(yīng)然與實(shí)然的鴻溝。

猜你喜歡
受訪者算法用戶
今天,你休閑了嗎?
小康(2022年28期)2022-10-21 02:35:38
關(guān)于安全,需要注意的幾件小事
小康(2022年19期)2022-07-09 10:41:00
低碳生活從我做起
小康(2022年16期)2022-06-13 05:05:44
五成受訪者認(rèn)為自己未養(yǎng)成好的閱讀習(xí)慣
基于MapReduce的改進(jìn)Eclat算法
Travellng thg World Full—time for Rree
進(jìn)位加法的兩種算法
關(guān)注用戶
商用汽車(2016年11期)2016-12-19 01:20:16
關(guān)注用戶
商用汽車(2016年6期)2016-06-29 09:18:54
一種改進(jìn)的整周模糊度去相關(guān)算法
九江市| 平武县| 和平区| 宁夏| 西和县| 札达县| 黄石市| 离岛区| 长沙县| 丽江市| 巴林右旗| 平果县| 三江| 七台河市| 平顶山市| 江北区| 自贡市| 灵台县| 托克逊县| 鄂伦春自治旗| 永顺县| 田林县| 汨罗市| 连城县| 凌海市| 加查县| 卫辉市| 盐池县| 九江县| 佛坪县| 拜泉县| 平邑县| 贡山| 五原县| 武冈市| 西和县| 鄂托克前旗| 渝北区| 万年县| 新邵县| 余江县|