杜永欣,周茂君
(1.北京大學(xué)新聞與傳播學(xué)院,北京100871;2.武漢大學(xué)新聞與傳播學(xué)院,湖北武漢430072)
在信息技術(shù)發(fā)展日新月異的數(shù)字時代,信息資源作為社會運(yùn)行的“原料”,已成為商業(yè)競爭中不可或缺的關(guān)鍵要素。隨著數(shù)據(jù)信息在行業(yè)發(fā)展中的價值日益凸顯,個人信息(1)個人信息、個人隱私、個人數(shù)據(jù)是當(dāng)前較?;煊玫母拍睿绹?xí)慣使用“個人隱私”,如1974年頒布的《隱私法案》(Privacy Act of 1974);歐盟多使用“個人數(shù)據(jù)”,如最新頒布的《通用數(shù)據(jù)保護(hù)條例》(GDPR);我國多采用“個人信息”的概念,如《個人信息保護(hù)法》,并且在學(xué)術(shù)研究中也多采用“個人信息”保護(hù)的概念討論隱私問題,本文亦采用這一概念框架探討個人隱私問題。獲取與利用成為網(wǎng)絡(luò)服務(wù)平臺提升經(jīng)濟(jì)效益、獲得競爭優(yōu)勢的有效途徑。當(dāng)前網(wǎng)絡(luò)行為追蹤、智能推薦算法等技術(shù)的應(yīng)用,使得大規(guī)模的信息獲取、儲存和分析成為可能,技術(shù)的全面滲透為用戶網(wǎng)絡(luò)行為處理提供了前所未有的可量化維度。在一切網(wǎng)絡(luò)行為都可被記錄的數(shù)字化社會,數(shù)據(jù)洪流所引發(fā)的信息安全問題和隱私風(fēng)險與日俱增。
隨著信息商業(yè)化應(yīng)用進(jìn)程加快,基于個人信息采集和利用的算法推薦服務(wù)模式,為網(wǎng)絡(luò)服務(wù)提供者帶來了可觀收益。然而頻繁出現(xiàn)的數(shù)據(jù)信息泄露事件也引發(fā)了普遍的隱私擔(dān)憂,借由網(wǎng)絡(luò)服務(wù)對于個人敏感信息的操控更是不斷挑戰(zhàn)隱私“紅線”,數(shù)字時代的個人信息與隱私保護(hù)呼聲日益高漲。早在2016年,《中國個人信息安全和隱私保護(hù)報告》(2)參見互聯(lián)網(wǎng)法治研究中心:中國個人信息安全和隱私保護(hù)報告.http://www.199it.com/archives/540836.html。公布的一項(xiàng)針對全國范圍的100多萬份問卷調(diào)查結(jié)果中,就有超七成的被訪者認(rèn)為個人信息泄露問題嚴(yán)重,因網(wǎng)頁搜索、瀏覽等泄露個人信息,而遭受廣告持續(xù)侵?jǐn)_的比例達(dá)53%,其中60%的受訪者不知如何維權(quán)。鑒于數(shù)字時代個人信息與隱私保護(hù)問題愈發(fā)緊迫,研究者們從法律保護(hù)、技術(shù)保護(hù)、行業(yè)自律以及自我防范四大方面,探討了如何應(yīng)對日益嚴(yán)峻的隱私危機(jī),[1][2]其中以行業(yè)自律為主導(dǎo)的美國模式,以及訴諸嚴(yán)苛法律保護(hù)的歐盟模式,在保護(hù)個人信息及隱私領(lǐng)域具有廣泛影響力。隨著世界范圍內(nèi)個人信息保護(hù)立法潮流的興起,2018年歐洲《通用數(shù)據(jù)保護(hù)條例》(GeneralDataProtectionRegulation,簡稱GDPR)、2020年《加利福尼亞州消費(fèi)者隱私保護(hù)法案》(CaliforniaConsumerPrivacyAct, 簡稱CCPA)相繼實(shí)施,旨在進(jìn)一步規(guī)范互聯(lián)網(wǎng)時代迅速發(fā)展的個人信息收集和使用行為。在我國,2012年全國人大常委會通過《關(guān)于加強(qiáng)網(wǎng)絡(luò)信息保護(hù)的決定》,開啟了我國個人信息保護(hù)的立法之路,此后我國關(guān)于個人信息保護(hù)的規(guī)定在《網(wǎng)絡(luò)安全法》《消費(fèi)者權(quán)益保護(hù)法》等法律法規(guī)中有所體現(xiàn),至2021年《個人信息保護(hù)法》出臺,以及2022年3月國家網(wǎng)信辦等四部門聯(lián)合發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》正式施行,網(wǎng)絡(luò)信息安全和隱私保護(hù)在國家層面的法律制度保護(hù)規(guī)范逐漸確立并日益完善。
依托大數(shù)據(jù)與智能算法提供精準(zhǔn)推薦的網(wǎng)絡(luò)服務(wù)模式,其核心邏輯在于深度的個人信息挖掘與定制化的信息需求滿足,由此也必然面臨個人信息商業(yè)化利用與信息隱私保護(hù)之間的權(quán)衡問題。例如當(dāng)前幾乎無處不在的精準(zhǔn)推薦廣告,網(wǎng)絡(luò)服務(wù)提供者能夠通過實(shí)時數(shù)據(jù)獲取,精準(zhǔn)定位目標(biāo)用戶及其需求特征,以有效提升廣告?zhèn)鞑バЧ?;[3]但隨著個人隱私保護(hù)意識的增強(qiáng),網(wǎng)絡(luò)服務(wù)提供者的信息操控行為一旦被用戶感知,則往往會觸發(fā)個人隱私規(guī)避心理,從而對精準(zhǔn)推薦內(nèi)容產(chǎn)生“抗拒”,傳播效果也將大打折扣,[3][4]隱私關(guān)注成為用戶網(wǎng)絡(luò)行為與傳播效果研究的重要影響因素。[5]然而,倘若對個人信息收集和使用加以限制,則可能導(dǎo)致廣告效果下降,[6]缺乏針對性的廣告不僅難以奏效,而且容易造成廣告侵?jǐn)_。另外,信息規(guī)范與算法規(guī)制體系的構(gòu)建,也面臨相應(yīng)的監(jiān)管成本增加問題,同時也可能阻礙網(wǎng)絡(luò)服務(wù)平臺的數(shù)據(jù)驅(qū)動發(fā)展能力,增加其運(yùn)行成本,從而影響企業(yè)創(chuàng)新發(fā)展的方向。[7][8]因此,如何有效應(yīng)對由個人信息商業(yè)化利用而引發(fā)的信息權(quán)益沖突,是算法推薦模式持續(xù)發(fā)展而亟待解決的問題。如今智能算法技術(shù)已深度嵌入數(shù)字化社會,個人信息是算法推薦不可或缺的數(shù)據(jù)基礎(chǔ),而隱私問題更是觸及算法推薦邏輯的核心,信息權(quán)益的合理權(quán)衡成為技術(shù)風(fēng)險應(yīng)對的重要命題。新時期我國對個人信息與隱私的保護(hù)進(jìn)入精細(xì)化發(fā)展階段。鑒于該問題涉及多元主體以及多方利益關(guān)系博弈,探討算法推薦中的個人信息與隱私問題,有助于進(jìn)一步厘清技術(shù)變革背景下個人信息商業(yè)化利用過程中所蘊(yùn)含的風(fēng)險,進(jìn)而尋求應(yīng)對個人信息與隱私危機(jī)的有效路徑。這對于推進(jìn)算法推薦模式的規(guī)范發(fā)展乃至信息安全領(lǐng)域治理體系的完善具有重要意義。
信息與隱私密不可分?!墩撾[私權(quán)》一書提出了“隱私權(quán)”概念,其強(qiáng)調(diào)個人免受打擾的“獨(dú)處權(quán)”,來源于不受侵犯的人格權(quán)范疇。[9]桑德拉·佩特羅尼奧將“隱私邊界”視為人們管理公共領(lǐng)域與私人領(lǐng)域的界限,認(rèn)為它并不是固定的,而是可滲透和可伸縮的。[10]隨著媒介技術(shù)的變革發(fā)展,信息的收集、傳播、利用和交換方式也發(fā)生改變,傳統(tǒng)時期界限分明的隱私觀,逐漸轉(zhuǎn)向數(shù)字化社會以個人信息自控為核心的隱私內(nèi)涵,普遍的信息流動也導(dǎo)致了前所未有的隱私風(fēng)險。
任何一種新技術(shù)的出現(xiàn),往往伴隨著人們生存與生活方式的變遷。信息技術(shù)對隱私保護(hù)的沖擊,首先表現(xiàn)為大量的個人網(wǎng)絡(luò)行為被持續(xù)地記錄、保存和利用,私人領(lǐng)域逐漸向公共領(lǐng)域延伸,公共領(lǐng)域不斷向私人領(lǐng)域滲透,二者的界限日益模糊,由此隱私邊界漸趨消融。在早期以“場所”為導(dǎo)向的隱私界定中,“公共”和“隱私”被視為天然對立的概念,“公共”則意味著公開,非私密空間不存在任何隱私。[11]正如阿倫特所說,任何在公共場合所見、所聞的東西,都有最大程度的公開性。[12]“公共場所無隱私”的主張也一度成為法律實(shí)踐中的隱私判定標(biāo)準(zhǔn)。然而在以數(shù)據(jù)為基礎(chǔ)、由算法建構(gòu)的數(shù)字化社會,一方面,人們的社交活動實(shí)現(xiàn)了以“圈子”為核心向以“關(guān)系”為紐帶的網(wǎng)絡(luò)交往轉(zhuǎn)向,個人信息范圍逐漸向外延伸,信息的公私邊界漸趨消融;[13]另一方面,媒介技術(shù)的變革極大增強(qiáng)了“萬物皆可追蹤”的可能性和海量數(shù)據(jù)長期儲存的便利性,這使得用戶成為被數(shù)據(jù)化、符號化的透明個體。個人信息被廣泛用于信息的精準(zhǔn)匹配與傳播效果達(dá)成的目的,這意味著私人信息也成為可以被開發(fā)利用的“公共資源”。例如無論是具有公共屬性的網(wǎng)站搜索、留言評論行為,還是在私人網(wǎng)絡(luò)空間進(jìn)行的朋友聊天、動態(tài)發(fā)布、好友互動與分享等,都能以數(shù)據(jù)的形式加以留存和使用。網(wǎng)絡(luò)虛擬世界與現(xiàn)實(shí)生活密切交織,信息流動與共享使得公共領(lǐng)域與私人領(lǐng)域的邊界變得模糊而難以區(qū)分,以往被視為私人領(lǐng)域的個人信息,如今也以“數(shù)字記憶”的方式進(jìn)入公共空間。因此,數(shù)字化社會的個人信息正被賦予更多的公開性和公共屬性,用戶對其不愿公開的私密信息逐漸失去控制,作為私人領(lǐng)域“不受干擾”的私域空間正逐漸消失。
在傳統(tǒng)的隱私觀念范疇,隱私所代表的私密性是與公共空間所具有的公開性相區(qū)分的概念,隱私內(nèi)涵的相對性決定了其通常是社會主體間利益協(xié)商的結(jié)果,基于不同時期社會公共利益的考量,對于隱私保護(hù)難免有所取舍。傳統(tǒng)時期個人信息的核心功能在于可交流屬性,它是個體參與社會生活用以標(biāo)識自身的工具,[14]客觀上難以通過共享個人信息來獲取經(jīng)濟(jì)利益。由于隱私權(quán)代表著人格權(quán)范疇的合法權(quán)利,其強(qiáng)調(diào)個體自由與個人尊嚴(yán)的不容侵犯性,這意味著私人信息的商業(yè)化利用是不被允許的。數(shù)字時代個人信息呈現(xiàn)出普遍的流動性特征,技術(shù)賦能使得個人信息的商業(yè)價值得以充分挖掘,由此也引發(fā)了隱私內(nèi)涵的嬗變。信息的流動與交換所創(chuàng)造的價值增益是數(shù)字經(jīng)濟(jì)發(fā)展的根本動因,數(shù)據(jù)成為蘊(yùn)含巨大商業(yè)價值的社會資源,而技術(shù)變革則為個人信息獲取和使用提供了手段。在商業(yè)邏輯的助推下,作為隱私的個人信息逐漸從人格權(quán)中剝離,并能夠加以商業(yè)化利用,由此個人信息的交換價值和商品屬性得以充分發(fā)掘,其財產(chǎn)價值逐漸顯現(xiàn)。在大數(shù)據(jù)與人工智能技術(shù)應(yīng)用日益成熟的背景下,個人信息也被推至商業(yè)化應(yīng)用與增值的快車道,其中算法推薦廣告行業(yè)集中體現(xiàn)了個人信息的商業(yè)化利用過程。以實(shí)時競價(Real Time Bidding)廣告為例,數(shù)據(jù)分析與需求匹配是精準(zhǔn)投放的關(guān)鍵,實(shí)際上在整個廣告投放流程中,個人信息在各類數(shù)據(jù)處理和廣告交易平臺上為網(wǎng)絡(luò)服務(wù)提供者所利用和消費(fèi)。[15]盡管個人信息關(guān)涉人格尊嚴(yán),但現(xiàn)實(shí)中又具有可交易的財產(chǎn)性特征,[14]數(shù)字化社會頻繁出現(xiàn)的隱私爭議,究其原因,也主要在于個人信息與隱私的保護(hù)和利用沖突。一方面,在這場以個人信息價值挖掘?yàn)楹诵牡慕灰谆顒又?,網(wǎng)絡(luò)服務(wù)提供者能夠通過新技術(shù)手段深入洞察用戶網(wǎng)絡(luò)行為特征,依據(jù)其所獲得的個人信息進(jìn)行內(nèi)容推薦決策,以滿足用戶個性化的信息需求,信息傳播的運(yùn)行效率得以極大提升,并且服務(wù)雙方都在一定程度上有所增益。而就個人信息與隱私保護(hù)而言,當(dāng)用戶網(wǎng)絡(luò)行為信息成為網(wǎng)絡(luò)服務(wù)提供者理解和滿足用戶需求的基礎(chǔ),更多具有敏感性的私人信息也流向了公共空間,隱私信息不再是人格權(quán)范疇完全不容侵犯的領(lǐng)域,而成為能在合理預(yù)期范圍之內(nèi)進(jìn)行流轉(zhuǎn)的“商品”。信息隱私的這種“流動”狀態(tài)下的財產(chǎn)屬性,也在一定程度引發(fā)了用戶在人格權(quán)益層面的讓渡或受損風(fēng)險。
信息技術(shù)的發(fā)展為更高效地釋放個人信息價值提供了可能。鑒于網(wǎng)絡(luò)服務(wù)提供者與用戶個體之間所掌握的信息資源差異懸殊,這種信息持有的不對稱也導(dǎo)致了信息價值收益的失衡。首先,數(shù)字化社會由網(wǎng)絡(luò)平臺主導(dǎo)的信息流動模式,從根本上顛覆了傳統(tǒng)時期以個人為導(dǎo)向的信息分享機(jī)制,網(wǎng)絡(luò)服務(wù)提供者成為個人信息的持有者和使用者,用戶則成為被算法“操控”的對象,個人信息權(quán)益越來越難以保障。借助于各種數(shù)據(jù)追蹤技術(shù),網(wǎng)絡(luò)服務(wù)提供者能夠源源不斷地獲取用戶網(wǎng)絡(luò)行為信息,從而形成無形的“監(jiān)控”網(wǎng)絡(luò),通過數(shù)據(jù)資源與算法程序的結(jié)合,網(wǎng)絡(luò)服務(wù)提供者能夠?qū)⑺@得的個人信息充分用于提升自身效益和市場競爭力,而用戶則逐漸淪為網(wǎng)絡(luò)服務(wù)中被動的信息資源提供者,無法充分享有應(yīng)有的信息價值收益。另一方面,算法技術(shù)的“排他性”也帶來了“算法黑箱”問題,即由于算法的不透明性所引發(fā)的令人難以理解的狀態(tài),[16]本質(zhì)上反映了算法服務(wù)的使用者對其中原理以及意圖的不知情。由于算法技術(shù)作為數(shù)據(jù)輸入、數(shù)據(jù)處理以及數(shù)據(jù)輸出的一套運(yùn)作程序系統(tǒng),普通用戶很難明確其中復(fù)雜的技術(shù)原理,算法的不透明性與不可解釋性特征,使得網(wǎng)絡(luò)服務(wù)提供者與用戶之間存在著嚴(yán)重的信息不對等,[17]前者憑借充分的信息資源持有優(yōu)勢,更容易滋生算法偏見、利益操控等問題。因此,在由網(wǎng)絡(luò)服務(wù)提供方主導(dǎo)的這場資源差距懸殊的“協(xié)商”中,雙方巨大的“信息鴻溝”使得網(wǎng)絡(luò)服務(wù)提供者占據(jù)絕對優(yōu)勢,信息資源持有失衡讓用戶更容易淪為精準(zhǔn)傳播中一擊即倒的“靶子”。[15]數(shù)字時代的隱私憂患席卷而來,網(wǎng)絡(luò)服務(wù)提供者通過信息資源占有與價值開發(fā)而廣泛受益,而用戶則在算法黑箱面前無能為力,既無從知曉哪些個人信息被收集,也無法明確個人信息的使用和流向。這種信息不對稱助長了算法推薦中網(wǎng)絡(luò)服務(wù)雙方權(quán)利不平等局面,用戶的弱勢地位造成無可避免的隱私讓渡,隱私顧慮沖擊著網(wǎng)絡(luò)服務(wù)雙方的信任機(jī)制,由此難以建立持續(xù)而良好的協(xié)作溝通關(guān)系。
隱私意味著自我與他人之間的界限,是自我意識發(fā)展的前提,“沒有一定程度的隱私,就不可能有文明的生活”。[18]隱私權(quán)的保護(hù)旨在使得個人有所隱藏、保留和獨(dú)處, 得為自主而擁有一定范圍的內(nèi)在自我。[19]數(shù)字化社會的算法建構(gòu)無處不在,我們猶如身處透明化的社會環(huán)境之中,個人隱私卻無處遁形。由媒介技術(shù)變革所引發(fā)的隱私風(fēng)險,核心在于人們無法有效控制個人信息的流動范圍,且信息自控和自決受到算法邏輯的沖擊,而當(dāng)前無論是法律規(guī)約還是自律規(guī)范,都難以在個人信息的普遍商業(yè)化應(yīng)用中提供有效的信息與隱私安全保障,個人信息自主性正受到全面數(shù)字化建構(gòu)的侵蝕。
個人信息是一切可以識別本人的信息的總和,其中“識別”是構(gòu)成個人信息的實(shí)質(zhì)要素,包括直接識別和間接識別的信息。[20]個人信息的“識別性”是界定個人信息的核心以及信息賦權(quán)的基礎(chǔ),[21]目前已成為世界多數(shù)國家制定個人信息或隱私保護(hù)法所采用的個人信息范圍界定依據(jù)。[22]例如歐盟1995 年《數(shù)據(jù)保護(hù)指令》、我國2021年實(shí)施的《個人信息保護(hù)法》,都將“與已識別或可識別的自然人有關(guān)的任何信息”界定為個人信息范疇。在實(shí)際的隱私糾紛案中,如“朱燁訴北京百度網(wǎng)訊科技有限公司隱私權(quán)糾紛案”“英國谷歌定向行為廣告案”等,能否準(zhǔn)確識別具體個人都是重要的判定標(biāo)準(zhǔn)。
伴隨著互聯(lián)網(wǎng)與大數(shù)據(jù)技術(shù)的變革發(fā)展,信息的“識別性”邊界日益泛化,可識別信息范圍趨于模糊而引起諸多爭議,技術(shù)變遷背景下的個人信息與隱私保護(hù)也面臨新的挑戰(zhàn)。一方面,信息技術(shù)的發(fā)展引發(fā)了關(guān)于信息“識別性”的質(zhì)疑,“可識別”與“不可識別”的信息范圍存在相對性,以往不具備識別性的個人信息,隨著新技術(shù)的應(yīng)用也極有可能變得能夠進(jìn)行準(zhǔn)確識別。例如以往難實(shí)現(xiàn)的地理位置、面部表情識別等,如今都能通過技術(shù)手段加以精準(zhǔn)識別。除此之外,關(guān)聯(lián)性信息因素使得信息識別變得更為復(fù)雜,因?yàn)榧词故浅跏茧A段無法識別的個人信息,借助于數(shù)據(jù)關(guān)聯(lián)算法仍能夠準(zhǔn)確識別出個體,“整合型隱私”衍生出更為復(fù)雜的隱私問題。[23]另一方面,匿名化處理是個人信息“去標(biāo)識化”所廣泛采用的技術(shù)保護(hù)手段,并且我國相關(guān)法律規(guī)定也將匿名化處理后的信息排除在個人信息范圍之外,但實(shí)際上匿名化處理也可能面臨失效問題。由于信息“匿名化”主要是將精細(xì)化的個人信息進(jìn)行模糊處理,使得信息在一般情況下難以識別具體個人,從而達(dá)到對數(shù)據(jù)庫中具有敏感性的個人信息加以保護(hù)的目的。然而由于信息技術(shù)不斷迭代,匿名化處理后的信息也會面臨“再識別”風(fēng)險,通過強(qiáng)大的關(guān)聯(lián)算法、反加密技術(shù)等同樣能描繪出個體的“數(shù)字畫像”,匿名化的技術(shù)保護(hù)效力在實(shí)際應(yīng)用中難以保證。因此,從法律中個人信息識別性的內(nèi)涵變遷,到技術(shù)實(shí)踐中匿名化、數(shù)據(jù)加密等“反識別”方法的保護(hù)局限,技術(shù)變革不斷沖擊著基于“識別性”而建立的個人信息權(quán)益基礎(chǔ)。
當(dāng)前網(wǎng)絡(luò)服務(wù)提供者實(shí)現(xiàn)精準(zhǔn)推薦主要依賴大規(guī)模的數(shù)據(jù)資源與算法分發(fā)機(jī)制,且對個人信息收集與使用的精細(xì)化程度直接影響其收益。算法推薦對用戶個性化需求的滿足,需要在個人信息挖掘基礎(chǔ)上,實(shí)現(xiàn)用戶行為的精準(zhǔn)預(yù)測,這個過程需要依賴大規(guī)模的原始數(shù)據(jù),因此盡可能多地獲取大量的個人信息,是促成推薦內(nèi)容“千人千面”的必然選擇。為了避免網(wǎng)絡(luò)服務(wù)提供者肆意進(jìn)行用戶信息收集和使用,“授權(quán)同意”機(jī)制成為當(dāng)前法規(guī)中信息與隱私保護(hù)的普適機(jī)制,[24]這意味著需要在用戶知情的情況下,授權(quán)允許網(wǎng)絡(luò)服務(wù)提供者收集和使用必要的個人信息。為此網(wǎng)絡(luò)服務(wù)提供者須以隱私條款的形式公開其信息收集和使用情況,以確保用戶知情后根據(jù)自身意愿做出合理選擇。雖然授權(quán)許可機(jī)制為個人信息與隱私保護(hù)提供了靈活保障,但實(shí)際上由于其中存在明顯的權(quán)利不均衡和話語不對等問題,多數(shù)情況下用戶既無法實(shí)現(xiàn)有效知情,也無法做出遵從其真實(shí)意愿的選擇決策。
首先,知情是用戶同意授權(quán)的基礎(chǔ),而網(wǎng)絡(luò)服務(wù)提供者通過隱私聲明予以公開承諾的方式,既缺乏詳盡說明信息收集的動機(jī),也無法充分告知數(shù)據(jù)處理及使用的真實(shí)情況。用戶的授權(quán)決策主要依據(jù)已發(fā)布的隱私條款,而網(wǎng)絡(luò)服務(wù)提供者作為信息收集和持有方,對個人信息的充分獲取與價值挖掘關(guān)乎其核心利益,擁有更多的個人信息資源即意味著更強(qiáng)的競爭優(yōu)勢,這就導(dǎo)致其既沒有限制采集個人信息的動機(jī),也缺乏有效保護(hù)隱私信息的內(nèi)在動力。作為信息價值收益的獲益方,網(wǎng)絡(luò)服務(wù)提供者更期待的是用戶主動披露更多信息,即便是隱私聲明中的保護(hù)承諾,通常也只是出于法規(guī)限制的考慮,而為了達(dá)到“合規(guī)”的目的,所以隱私條款要么形式隱蔽難以發(fā)覺,要么內(nèi)容晦澀難懂,用戶很難實(shí)現(xiàn)有效知情。在多數(shù)情況下,用戶并不清楚自己的哪些行為被追蹤,更不知道哪些信息、什么時候被收集以及怎樣被使用,[25]技術(shù)手段的不斷更迭使得網(wǎng)絡(luò)服務(wù)提供者的信息收集和使用變得更加隱蔽且難以察覺,個人信息權(quán)益侵犯也往往是在用戶“無感”狀況下發(fā)生的。另一方面,數(shù)字時代的信息流動性特征,也決定了網(wǎng)絡(luò)服務(wù)提供者難以實(shí)現(xiàn)充分告知,由于用戶授權(quán)機(jī)制所依據(jù)的隱私聲明是網(wǎng)絡(luò)服務(wù)提供者關(guān)于信息收集、處理和使用的事先預(yù)判,因而通常只能涵蓋常規(guī)的信息處理環(huán)節(jié),而在個人信息的“下游”處理中,尤其是涉及第三方信息共享和交易時,信息流轉(zhuǎn)中蘊(yùn)含著難以預(yù)判的未知性。除此之外,一些并不敏感的個人信息片段經(jīng)過有目的排列、組合后,可能成為具有重要商業(yè)價值的信息要素,復(fù)雜的整合型隱私問題也加劇了隱私保護(hù)困難,[26]普通用戶很難充分了解其中的技術(shù)運(yùn)作原理,因此更無從得知個人信息收集和使用的真實(shí)情況。
其次,個人有效同意的核心在于自主選擇,而由于網(wǎng)絡(luò)服務(wù)提供者與用戶之間的不平等協(xié)商,用戶授權(quán)同意往往是不得已而為之。網(wǎng)絡(luò)服務(wù)提供者收集和使用個人信息需要獲得用戶授權(quán),主要借助隱私聲明的方式予以說明,用戶據(jù)此做出“同意”或“不同意”的選擇。這種協(xié)商方式本身建立于雙方信息不對稱基礎(chǔ)之上,處于弱勢地位的用戶難以明確網(wǎng)絡(luò)服務(wù)提供者自我揭示的保護(hù)規(guī)則是否合理,只能參與這場“接受或是離開”的游戲。[27]部分隱私條款甚至不被重視,且內(nèi)容往往流于形式,存在語句不通、重復(fù)等明顯錯誤。[28]由此觀之,隱私聲明反而淪為網(wǎng)絡(luò)服務(wù)提供者“免于法律責(zé)任”的避風(fēng)港,授權(quán)同意機(jī)制成為網(wǎng)絡(luò)服務(wù)提供者“合理”獲取個人信息、維護(hù)自身利益的另類途徑。因此,隱私聲明中“非同意即離開”的規(guī)則實(shí)際上所提供的唯一選擇就是“同意”。倘若因隱私顧慮而放棄使用某項(xiàng)網(wǎng)絡(luò)服務(wù),則可能加劇“數(shù)字鴻溝”而淪為網(wǎng)絡(luò)時代的“信息隱民”,所以用戶只能參與到這場不平等的個人信息交換機(jī)制之中,[29]在此情況之下授權(quán)保護(hù)機(jī)制難有實(shí)效。
除此之外,“授權(quán)同意”機(jī)制還面臨用戶隱私?jīng)Q策成本問題。充分理解各項(xiàng)隱私政策,需要用戶投入大量的時間和精力去解讀各項(xiàng)晦澀難懂的隱私規(guī)定,若內(nèi)容條款適時更新,則意味著用戶需要持續(xù)關(guān)注隱私條款的變動,才能獲得必要的知情信息。但如果因不滿隱私政策而選擇退出,尋求其他替代性網(wǎng)絡(luò)服務(wù)時又必然需要新的成本投入。當(dāng)前過高的隱私管理成本同樣限制了用戶的自主選擇。事實(shí)上,用戶授權(quán)通常是只是在有限理性或者無意識情況下做出的選擇,諸多限制性因素使得授權(quán)同意保護(hù)機(jī)制面臨“失靈”危機(jī)。在尚未有效建立相應(yīng)規(guī)范體系的情況下,算法推薦機(jī)制可以說是以個人信息乃至隱私的商業(yè)化利用為代價的。
人的自主性建立于自由意志發(fā)揮的基礎(chǔ)之上,而在由數(shù)據(jù)和算法技術(shù)打造的透明化生存環(huán)境中,算法推薦在很大程度上限制了用戶的真實(shí)選擇,個人信息自主性實(shí)現(xiàn)的基礎(chǔ)正逐漸被算法推薦邏輯所消解。Solove認(rèn)為“數(shù)據(jù)庫中的信息通常只是抓住一些刻板印象和非理性行為,而無法對人們的個性做出細(xì)致入微的刻畫,因此難以反映我們的真實(shí)生活”。[30]算法推薦機(jī)制基于個人信息展開定制化服務(wù),在此過程中網(wǎng)絡(luò)服務(wù)提供者根據(jù)其所獲得的用戶網(wǎng)絡(luò)行為信息,對個體進(jìn)行數(shù)字化建構(gòu),進(jìn)而理解和預(yù)測其需求及偏好,從而有針對性地推出滿足用戶需求的信息內(nèi)容。由此,差異化個體被建構(gòu)成為承載各種標(biāo)簽的“數(shù)字畫像”,網(wǎng)絡(luò)服務(wù)提供者基于其捕獲的碎片化信息,不斷塑造更趨近其預(yù)期的“理想角色”,而用戶的自主決策則成為依附于算法程序的異化結(jié)果。借助算法程序的信息篩選與需求匹配,網(wǎng)絡(luò)服務(wù)提供者可以利用其所掌握的數(shù)據(jù)信息來推動、勸服、影響、甚至限制用戶認(rèn)同,[31]數(shù)據(jù)驅(qū)動下個性化信息內(nèi)容的精準(zhǔn)觸達(dá),實(shí)際上是網(wǎng)絡(luò)服務(wù)提供者對個人自主決策的“理想化”塑造,這種信息過濾和精準(zhǔn)推薦往往并非用戶真實(shí)情況的體現(xiàn),而是經(jīng)由網(wǎng)絡(luò)服務(wù)提供者事先預(yù)設(shè)的算法邏輯的結(jié)果呈現(xiàn)。
網(wǎng)絡(luò)服務(wù)提供者對個人信息的充分占有,也為其追求自身利益最大化提供了有效途徑,而越是對用戶有更加充分的了解,網(wǎng)絡(luò)服務(wù)提供者就更容易找出能夠說服其進(jìn)行理想化決策的理由,從而促進(jìn)網(wǎng)絡(luò)服務(wù)交易達(dá)成。例如為追求更好的廣告效果和營銷收益,網(wǎng)絡(luò)服務(wù)提供者通過對個人生活習(xí)慣及需求動向的長期關(guān)注,預(yù)測用戶喜好、分析產(chǎn)品購買率、推測產(chǎn)品使用場景,為其“量身定制”滿足其特定需求的產(chǎn)品或服務(wù)。[32]另外,根據(jù)用戶信息而采用算法推薦技術(shù)對用戶實(shí)施差別定價,“大數(shù)據(jù)殺熟”行為侵害了用戶的合法權(quán)益,也破壞了互聯(lián)網(wǎng)市場的交易秩序。[33]根據(jù)北京消費(fèi)者協(xié)會2022年發(fā)布的《大數(shù)據(jù)“殺熟”問題調(diào)查報告》(3)參見北京市消協(xié)發(fā)布大數(shù)據(jù)“殺熟”問題調(diào)查報告.http://www.bj315.org/xxyw/xfxw/202209/t20220909_35059.shtml。數(shù)據(jù),七成多受訪者認(rèn)為存在大數(shù)據(jù)“殺熟”現(xiàn)象,其目的在于獲取更多的經(jīng)濟(jì)利益,有66.47%的受訪者認(rèn)為大數(shù)據(jù)“殺熟”侵犯了個人信息保護(hù)權(quán)。此外,基于情感定向的精準(zhǔn)推薦也在不斷突破用戶消費(fèi)的心理防線,個人信息披露往往能帶來即時的好處(如:注冊會員即享優(yōu)惠),但當(dāng)對方太了解我們時,我們就失去了自主權(quán)。[34]總而言之,與網(wǎng)絡(luò)服務(wù)提供者所掌握的信息和技術(shù)優(yōu)勢相比,用戶的劣勢地位導(dǎo)致了其在風(fēng)險感知和預(yù)判上的滯后。所以在與網(wǎng)絡(luò)服務(wù)提供者的協(xié)商溝通中,用戶更容易被所謂的個性化內(nèi)容觀點(diǎn)所裹挾,從而成為數(shù)字建構(gòu)中被“捕獲”的個體。
“自主性”來源于希臘詞中表達(dá)自我管理、自我支配的概念,其哲學(xué)范疇的內(nèi)涵指代人根據(jù)自由意志進(jìn)行自主活動的狀態(tài)。[35]數(shù)字時代算法推薦機(jī)制對人的自主性沖擊主要表現(xiàn)為個人信息的“失權(quán)”危機(jī),而當(dāng)前的信息“賦權(quán)”機(jī)制尚未有效確立與落實(shí),由此個人信息自由受到算法權(quán)力的操控。算法權(quán)力反作用于人類甚至統(tǒng)治支配人的現(xiàn)象被視為算法權(quán)力的異化,[36]這構(gòu)成算法推薦機(jī)制全面內(nèi)嵌于人們社會生活的現(xiàn)實(shí)背景下,應(yīng)對技術(shù)風(fēng)險需要解決的緊迫議題。概而言之,算法推薦模式引發(fā)的個人信息自主性沖擊體現(xiàn)在對信息獲取與信息分發(fā)的深度介入,作為信息輸入端的算法能夠?qū)崿F(xiàn)個人信息的獲取與分析處理,而作為輸出端的算法則控制著信息需求匹配,由此建立用戶與信息服務(wù)之間的精準(zhǔn)連接。在此過程中,算法推薦機(jī)制替代了人的自主選擇,商業(yè)利益驅(qū)動個人信息價值的釋放,程序規(guī)則的全面嵌入更加助推了人的主體性危機(jī)。基于智能算法的精準(zhǔn)推薦模式蘊(yùn)含著與個人信息自由乃至信息自主相悖離的異化力量,這集中體現(xiàn)了數(shù)字時代算法推薦所帶來的技術(shù)風(fēng)險。
在以信息要素為基礎(chǔ)的數(shù)字化社會,信息資源的獲取與價值挖掘是網(wǎng)絡(luò)服務(wù)提供者提升自身競爭力的關(guān)鍵,個人信息自主性問題由算法推薦機(jī)制所引發(fā)的信息與隱私權(quán)益受損而起。因而應(yīng)對算法共生時代個人信息自主性危機(jī),首先需要圍繞信息與隱私的保護(hù)規(guī)范展開。個人信息作為算法系統(tǒng)運(yùn)行的基礎(chǔ)資源,決定了算法推薦機(jī)制的實(shí)際效力,而用戶對個人信息的自控與自決則決定了其能在多大程度上實(shí)現(xiàn)信息自主。在基于“數(shù)據(jù)—算法”邏輯建構(gòu)的信息流動機(jī)制中,自主性構(gòu)建有賴于從兩方面重塑用戶的主體性:一是用戶對其信息的自控,即個人依據(jù)其自身意志決定透露個人信息的行為,這是數(shù)字時代個人信息與隱私管理的核心內(nèi)涵;二是個人自主決定信息觸達(dá),即意味著用戶能夠根據(jù)自身需求進(jìn)行信息選擇。這種“由內(nèi)而外”的信息使用權(quán)和“由外而內(nèi)”的信息選擇權(quán),共同構(gòu)成了數(shù)字化社會中個人信息自主性的兩大維度。因此,當(dāng)前如何規(guī)范管理個人信息及隱私是關(guān)涉自主性構(gòu)建的關(guān)鍵范疇,它既觸及數(shù)字時代個人與其信息要素的所屬關(guān)系問題,也關(guān)乎實(shí)際運(yùn)作中信息價值收益的合理分配,集中體現(xiàn)了技術(shù)風(fēng)險語境下如何處理人的主體性問題需要思考的時代命題。
在與算法共生的時代,“信息賦權(quán)”旨在通過保障個人在其信息獲取、處理以及使用過程中的主體性權(quán)益,形成用戶主導(dǎo)的信息流動機(jī)制,以個人信息的自控與自決“倒逼”算法機(jī)制與信息處理的透明公開。早在20世紀(jì)90年代,歐盟就開啟了個人信息的立法保護(hù)規(guī)定,(4)1995年7月24日歐盟部長會議制定的《關(guān)于涉及個人信息處理的個人保護(hù)以及此類信息自由流動的第95/46號指令》(簡稱《個人信息保護(hù)指令》)以應(yīng)對互聯(lián)網(wǎng)時代隨之而來的個人信息權(quán)益問題。如今法律規(guī)制已成為數(shù)字化生存中應(yīng)對個人信息與隱私問題的普遍選擇,就現(xiàn)實(shí)路徑而言,法律規(guī)制中合理界定個人信息范圍是基礎(chǔ)依據(jù),相應(yīng)的行業(yè)自律規(guī)約是有效落實(shí)的關(guān)鍵,形成多方協(xié)同的精細(xì)化規(guī)范體系是目標(biāo)追求。
1.推進(jìn)差異化場景中的信息分類與風(fēng)險分級
信息的實(shí)時流動使得動態(tài)場景下個人信息范圍界定變得困難,信息識別性邊界的模糊成為個人信息賦權(quán)亟待解決的問題。技術(shù)變革帶來的個人信息與隱私保護(hù)挑戰(zhàn),主要在于動態(tài)的信息場景取代了以往靜態(tài)模式下“二元化”的信息預(yù)判。信息賦權(quán)基礎(chǔ)與構(gòu)建自主性的現(xiàn)實(shí)路徑,首先在于實(shí)現(xiàn)信息流動中的個人信息分類與隱私風(fēng)險分級,推進(jìn)動態(tài)場景導(dǎo)向的個人信息與隱私保護(hù)機(jī)制的構(gòu)建?!皥鼍皩?dǎo)向”的理念源于尼森鮑姆的“情景脈絡(luò)完整性”理論,[37]意在強(qiáng)調(diào)“尊重個人信息原始收集的具體場景,其后續(xù)傳播利用不得超出原初的情景脈絡(luò)”。[38]這種動態(tài)的個人信息保護(hù)理論框架在現(xiàn)有法律中已有所體現(xiàn),例如GDPR 在授權(quán)許可的基礎(chǔ)上,增加了被遺忘權(quán)、數(shù)據(jù)攜帶權(quán)等,為個人提供了更加靈活的隱私信息管理方式;CCPA引入了“選擇退出”(opt-out)的方法作為授權(quán)原則的協(xié)同機(jī)制,只有在合理授權(quán)范圍內(nèi)的信息處理無需經(jīng)由個人再次同意,而超出此范圍則用戶有權(quán)依據(jù)其合理隱私期待而選擇退出,由此體現(xiàn)出差異化情景導(dǎo)向的隱私保護(hù)機(jī)制在信息流動場景中的適用性。
不同信息流動場景下的個人信息進(jìn)行分類和風(fēng)險分級,關(guān)涉到當(dāng)前我們應(yīng)該保護(hù)哪些個人信息這一核心問題,構(gòu)成信息流動中個人信息與隱私保護(hù)機(jī)制趨于精細(xì)化的基礎(chǔ)。例如我國《個人信息保護(hù)法》就針對敏感信息處理做出了專門規(guī)定,對于“一旦泄露或者非法使用,容易導(dǎo)致人的人格尊嚴(yán)受到侵害或者人身、財產(chǎn)安全受到危害”的敏感信息,不僅需要充分必要的獲取目的,還需要有嚴(yán)格的保護(hù)措施,并且要獲得個人單獨(dú)同意,除此之外還需考慮未成年人敏感信息處理的特殊性;(5)參加《個人信息保護(hù)法》第二十八條. http://www.customs.gov.cn/kjs/zcfg73/4265285/index.html。GDPR也對涉及九類個人敏感數(shù)據(jù)信息做出了“禁止處理”的特殊規(guī)定。(6)參見“General Data Protection Regulation”第 9 條,第 1 款. https://gdpr-info.eu/art-9-gdpr/。伴隨信息與通信技術(shù)的發(fā)展,個人數(shù)據(jù)信息類型變得更加豐富,敏感信息的范圍也在不斷拓展,更多的信息類型被納入其中,由此被用以處理哪些信息需要進(jìn)行保護(hù)的問題。[2]這也表明,信息技術(shù)的進(jìn)步也使得個人信息的內(nèi)涵與外延發(fā)生變化,個人信息與隱私保護(hù)的理論框架也需要不斷拓展和持續(xù)更新,未來需要基于動態(tài)場景理念,結(jié)合利益權(quán)衡原則,圍繞信息內(nèi)容、信息主體和信息價值等多維度,制定個人信息分類的細(xì)化標(biāo)準(zhǔn),為信息流動中的隱私風(fēng)險評估提供詳細(xì)依據(jù),從而推動制定個人信息與隱私保護(hù)的針對性方案。
2.技術(shù)賦能行業(yè)自律與隱私管理
隱私管理是人們對其分享信息時機(jī)、對象以及內(nèi)容等方面的考慮,[39]當(dāng)前由技術(shù)變革帶來的個人隱私風(fēng)險問題,也有賴于借助技術(shù)手段予以解決。既有的“授權(quán)同意”保護(hù)機(jī)制之所以淪為形式條款的核心問題在于:一是脫離差異化使用場景的“全有或者全無式”預(yù)判,以及同意或者退出的選擇模式,用戶難以在有效知情的情況下做出自主決策;二是面對過高的隱私管理成本和有限的用戶理性,用戶很難充分理解網(wǎng)絡(luò)服務(wù)提供者發(fā)布的隱私條款,既無從判斷其內(nèi)容規(guī)則的合理性,也無法進(jìn)行實(shí)現(xiàn)常態(tài)化的隱私風(fēng)險評估與決策。因此,個人信息保護(hù)實(shí)踐的推進(jìn)有待于融入技術(shù)管理手段,完善差異化場景中分類信息的風(fēng)險等級評估機(jī)制,以技術(shù)工具規(guī)避用戶隱私管理的非理性誤區(qū),實(shí)現(xiàn)個人信息與隱私風(fēng)險的實(shí)時監(jiān)測與評估,并根據(jù)實(shí)際情況提供相應(yīng)的解決方案建議。
首先,行業(yè)應(yīng)加快構(gòu)建個人信息保護(hù)的技術(shù)規(guī)范系統(tǒng),依據(jù)動態(tài)場景差異為用戶提供多元化的選擇,從而為個人信息權(quán)益提供實(shí)質(zhì)性的保護(hù)措施。例如美國互聯(lián)網(wǎng)協(xié)會推出的“個人隱私選擇平臺”(personal privacy preference platform,簡稱“P3P”),為個人的隱私管理提供了靈活的選擇空間, 在一定程度上彌補(bǔ)了選擇或退出的單向決策缺陷。其次,應(yīng)運(yùn)用技術(shù)手段為用戶提供個性化的隱私風(fēng)險評估與管理方案,鑒于網(wǎng)絡(luò)服務(wù)提供者對個人信息的收集和使用涉及多個環(huán)節(jié),個人信息與隱私保護(hù)應(yīng)從信息流動的全流程予以考量,根據(jù)“信息生命周期”的不同和用戶網(wǎng)絡(luò)行為的差異,提供分階段、分場景以及分類信息的隱私風(fēng)險評估報告,既要說明其中的隱私風(fēng)險,也要明確信息使用為用戶帶來的價值收益,從而根據(jù)利益權(quán)衡原則為用戶提供相應(yīng)的優(yōu)化建議。另外,當(dāng)用戶遇到高隱私風(fēng)險的網(wǎng)絡(luò)服務(wù)應(yīng)用時,應(yīng)及時發(fā)布敏感信息泄露風(fēng)險預(yù)警,從而提升用戶的隱私風(fēng)險意識。由此,通過技術(shù)賦能為個人信息與隱私管理提供科學(xué)合理的研判機(jī)制,用切實(shí)可行的簡化操作方式,真正為個人信息與隱私保護(hù)帶來實(shí)效。
3.法律規(guī)制與自治協(xié)同構(gòu)建精細(xì)化的規(guī)范體系
隨著智能算法推薦成為社會運(yùn)行的常態(tài),構(gòu)建相應(yīng)的個人信息與隱私問題的規(guī)制體系已刻不容緩。由于算法推薦中的隱私問題關(guān)涉多主體、多環(huán)節(jié)和多方利益,且隨著技術(shù)變革其動態(tài)化和復(fù)雜性與日俱增,個人信息與隱私保護(hù)機(jī)制的完善有賴于法律規(guī)制與自治的多方協(xié)同,推進(jìn)理論框架與保護(hù)實(shí)踐的有機(jī)融合。這不僅需要從歐盟的法律規(guī)制路徑和美國行業(yè)自律模式中獲得啟發(fā)借鑒,而且要依據(jù)我國數(shù)字行業(yè)的發(fā)展階段,逐漸完善我國個人信息與隱私保護(hù)的多方協(xié)同治理體系,規(guī)范網(wǎng)絡(luò)服務(wù)中的個人信息收集和使用,從而打造良好的信息生態(tài)環(huán)境。
具體而言,首先需要從法律層面進(jìn)一步完善行業(yè)個人信息保護(hù)特別法規(guī)體系,在以《個人信息保護(hù)法》為核心的綜合性法律保護(hù)基礎(chǔ)上,逐步構(gòu)建更具針對性的行業(yè)特別法規(guī)體系。雖然綜合性法律具有系統(tǒng)而全面的優(yōu)勢,但也可能會面臨細(xì)化層面的行業(yè)適應(yīng)性問題,過于概括和抽象的內(nèi)容難免存在實(shí)際應(yīng)用的局限,這就需要針對行業(yè)特點(diǎn)制定相應(yīng)的法律條款。我國《民法典》在個人信息保護(hù)與利用方面構(gòu)成特別法;[40]歐盟的《電子通信數(shù)據(jù)保護(hù)指令》、美國的《電子通信隱私權(quán)法》《家庭教育權(quán)利與隱私法》等[41]都是針對特殊行業(yè)領(lǐng)域的專門法。我國各相關(guān)行業(yè)也需要依據(jù)法律規(guī)定,構(gòu)建個人信息保護(hù)的行業(yè)自律規(guī)約機(jī)制和通用標(biāo)準(zhǔn),這有賴于以中國互聯(lián)網(wǎng)協(xié)會等為代表的行業(yè)力量,積極推動個人信息保護(hù)行業(yè)規(guī)范體系的建立,例如借鑒美國的行業(yè)自律機(jī)制,實(shí)施行業(yè)指引(suggestive industry guidelines)和在線隱私認(rèn)證在線隱私認(rèn)證(online privacy program),[20]由行業(yè)聯(lián)盟根據(jù)法律要求制定整個行業(yè)適用的隱私保護(hù)自律規(guī)范,并要求行業(yè)成員遵守和執(zhí)行,同時也可以通過網(wǎng)絡(luò)隱私認(rèn)證機(jī)制,為符合隱私保護(hù)規(guī)范要求的網(wǎng)絡(luò)服務(wù)提供者提供隱私認(rèn)證標(biāo)志,以便用戶選擇更能保障信息隱私安全的網(wǎng)絡(luò)服務(wù)。再者,就個人信息保護(hù)的用戶自治而言,在為用戶提供相應(yīng)的隱私風(fēng)險監(jiān)測、評估、解決及溯源問責(zé)路徑的同時,也要注重個人信息素養(yǎng)的不斷提升,增強(qiáng)個人信息與隱私保護(hù)的自我管理意識與自主性??傊悄芩惴ㄍ扑]時代的個人信息與隱私保護(hù),有賴于從基礎(chǔ)法律規(guī)制、行業(yè)自律和個人自治層面協(xié)同推進(jìn),構(gòu)建有機(jī)融合的多元并行框架,從而為信息商業(yè)價值應(yīng)用與個人信息及隱私權(quán)益保護(hù)的合理權(quán)衡提供可行路徑,以期促進(jìn)透明化生存時代個人信息自主性構(gòu)建。
信息要素作為一種社會資源已經(jīng)成為當(dāng)前數(shù)字化社會運(yùn)行的必要基礎(chǔ),信息流動不斷革新傳統(tǒng)的個人信息與隱私內(nèi)涵,算法機(jī)制的深度內(nèi)嵌使得透明化生存中如何構(gòu)建個人信息自主性成為新的時代命題。伴隨著信息技術(shù)發(fā)展潮流,數(shù)據(jù)和算法愈發(fā)成為行業(yè)創(chuàng)新發(fā)展的核心驅(qū)動力量,數(shù)字化社會的矛盾與沖突也日益圍繞信息資源及其價值挖掘展開。個人信息與隱私的商業(yè)化利用中所顯現(xiàn)的個人自主性危機(jī),集中反映了算法技術(shù)的工具理性所帶來的人文價值的沖擊。由于個人信息與隱私保護(hù)關(guān)乎個體人格權(quán)益、經(jīng)濟(jì)效益以及社會的長足發(fā)展,其不僅涉及技術(shù)、經(jīng)濟(jì)、法律等多元社會議題,且相應(yīng)保護(hù)機(jī)制的建立也面臨多方社會主體利益的調(diào)和與博弈。如今我國的個人信息與隱私保護(hù)制度體系的構(gòu)建進(jìn)入關(guān)鍵時期,在結(jié)合國際經(jīng)驗(yàn),基于法制框架和行業(yè)自律路徑,探討信息商業(yè)價值挖掘與個人信息權(quán)益保護(hù)之間的有效平衡之外,未來更需要納入多元主體視角展開研究,為技術(shù)變革背景下的個人自主性構(gòu)建提供理論與實(shí)踐指引。