蔡舒敏,陳 功
(湖南科技大學(xué) 人文學(xué)院,湖南 湘潭 411201)
近年來,關(guān)于算法新聞與個(gè)人隱私保護(hù)的問題,成為學(xué)界和業(yè)界所共同探討的熱點(diǎn)話題。究竟怎樣的算法行為算觸犯到用戶的個(gè)人隱私?是否有具體的場景來判斷用戶被侵害的深淺?基于用戶個(gè)人信息偏好而形成的算法推送機(jī)制,是未來新聞業(yè)需要重點(diǎn)研究的領(lǐng)域。美國信息隱私保護(hù)研究學(xué)者尼森鮑姆(Helen Nissenbaum1998)提出的“情景脈絡(luò)完整性”理論,或許能幫助我們找到判定侵權(quán)行為的某種尺度。
信息科學(xué)技術(shù)的快速發(fā)展,給人們生活既帶來新的機(jī)遇也帶來了新挑戰(zhàn)。商業(yè)利益加劇算法平臺(tái)違法獲取用戶的隱私,大數(shù)據(jù)對(duì)“告知與許可”原則的顛覆,無疑加劇了侵犯隱私問題的嚴(yán)峻性。
智能算法新聞已經(jīng)放棄了傳統(tǒng)“明目張膽”的粗劣采集方式,而采用更隱蔽的手段,利用聚合內(nèi)容與渠道分發(fā)之間建立起把關(guān)過濾機(jī)制,超脫了簡單的計(jì)算公式規(guī)則,在用戶不知不覺中獲取他們的個(gè)人信息。算法推薦機(jī)制通過用戶自定義的個(gè)性化標(biāo)簽、用戶社交關(guān)系、機(jī)器算法等協(xié)同過濾的方式,代替過去傳統(tǒng)的信息把關(guān)人模式,其運(yùn)作機(jī)制更智能、更隱蔽。如2019年AI換臉App“ZAO”一時(shí)火爆全網(wǎng)。ZAO在發(fā)布還不到24小時(shí)內(nèi),不僅在各大社交媒體上刷屏,更登上蘋果手機(jī)端下載排行榜第二、微博熱搜話題榜前十,堪稱“現(xiàn)象級(jí)”軟件。然而,隨著使用人群逐漸增多,該App的許多問題被不斷披露,如“霸王條款式”的用戶協(xié)議、對(duì)影視劇版權(quán)的侵犯、對(duì)用戶生物信息的竊取,都威脅著網(wǎng)絡(luò)生態(tài)安全。顯然,不管是初始時(shí)采用明目張膽的“霸王條款”,還是對(duì)生物特征信息或人臉信息的采集,都是對(duì)用戶隱私的極大侵犯。對(duì)這種隱蔽式的“無感侵害”,人類應(yīng)更加警惕和省思。
技術(shù)不斷革新推動(dòng)著新聞業(yè)態(tài)的發(fā)展進(jìn)步,技術(shù)的賦權(quán)使得人人都擁有發(fā)聲話筒。以微信、微博、抖音等為代表的社交媒體,讓每一個(gè)用戶的信息共享欲望、自我表露的行為日益呈爆炸式增長。用戶每發(fā)一條朋友圈、微博、短視頻等個(gè)人內(nèi)容的信息,都可以匯聚成用戶畫像個(gè)體,使得“在線用戶”具有可追蹤性,包括用戶關(guān)系和其他敏感的私人信息。大量用戶生成的數(shù)據(jù)極易存在暴露個(gè)人隱私的風(fēng)險(xiǎn),然而大多數(shù)用戶的個(gè)人隱私保護(hù)意識(shí)還較為薄弱,殊不知,正是這些自我生產(chǎn)的內(nèi)容暴露了自身和他人信息。例如,用戶在Twitter上公開分享他們的度假計(jì)劃,這些數(shù)據(jù)極易被陌生人所獲悉和推斷,從而被別有用心者用于入室盜竊。從淺層次來看,用戶個(gè)人自主發(fā)布的信息數(shù)據(jù)(Cookies)會(huì)給自身和他人帶來一定的風(fēng)險(xiǎn)隱患。
根據(jù)美國《華盛頓郵報(bào)》2013年6月6日的報(bào)道,在2007年美國國家安全局(NSA)和聯(lián)邦調(diào)查局(FBI)就啟動(dòng)了“棱鏡計(jì)劃”,其項(xiàng)目計(jì)劃主要是實(shí)施網(wǎng)絡(luò)秘密監(jiān)控。美國的“棱鏡監(jiān)控項(xiàng)目”通過接入全國互聯(lián)網(wǎng)中心的服務(wù)器,利用算法爬蟲技術(shù),收集和挖掘用戶個(gè)人上網(wǎng)記錄、機(jī)構(gòu)平臺(tái)數(shù)據(jù)、國家情報(bào)數(shù)據(jù)進(jìn)行背后的秘密監(jiān)控,其參與監(jiān)控對(duì)象包括谷歌、微軟、蘋果、雅虎等在內(nèi)的國際性搜索引擎和社交工具。消息還稱“棱鏡”項(xiàng)目監(jiān)控的信息途徑主要包括:每個(gè)用戶的聊天記錄、通話記錄、搜索記錄、文件傳輸記錄、購買商品記錄、好友社交圈等細(xì)節(jié),用戶通過算法平臺(tái)獲取的信息,都可能遭到政府的秘密監(jiān)控。WhatsApp和Twitter等社交軟件也被曝出泄露用戶隱私的嫌疑,從淺層次來看,目前侵犯隱私的風(fēng)險(xiǎn),已經(jīng)從侵害個(gè)人隱私安全上升到危及國家信息安全。
不難看出,隱私泄露損害用戶權(quán)益,可能會(huì)引發(fā)新一輪的倫理失范。在市場化改革中商業(yè)利益和社會(huì)利益失衡,流量思維凌駕產(chǎn)品本位,部分平臺(tái)方責(zé)任意識(shí)欠缺,販賣平臺(tái)內(nèi)部的用戶個(gè)人信息,以期達(dá)到盈利的效果,致使用戶隱私泄露事件頻發(fā)。作為用戶,雖自身權(quán)益受到損害,但無法有效地找到合理途徑進(jìn)行自我維權(quán),其矛盾點(diǎn)讓他們無所適從。同樣,人工算法建構(gòu)圓形監(jiān)獄,技術(shù)黑箱背后存在更隱蔽的歧視和控制,個(gè)體隱私的全景式敞視讓客觀表象難掩偏見。算法平臺(tái)保護(hù)用戶隱私規(guī)則的模糊,讓用戶自主維權(quán)變得舉步維艱,新聞推薦機(jī)制并未完全跳出算法偏見的窠臼,算法機(jī)制下侵犯隱私的問題日益突出。
美國紐約大學(xué)媒介文化與傳播研究所尼森鮑姆教授(Helen Nissenbaum)曾提出“情境脈絡(luò)完整性”理論(Contextual Integrity,簡稱CI理論),試圖厘清在社交網(wǎng)絡(luò)時(shí)代下出現(xiàn)的隱私保護(hù)困境成因,認(rèn)為主要成因是由于算法在采集用戶信息時(shí)違背了原定情境脈絡(luò)中的“適宜性”及“傳遞性”原則。[1](P119-157)在他看來,當(dāng)前我們正處復(fù)雜多變的信息環(huán)境,每個(gè)個(gè)體絕不能單向理解“隱私權(quán)”,而應(yīng)要有動(dòng)態(tài)式、遞進(jìn)式、多維式的角度來看待平臺(tái)侵犯用戶隱私,隱私侵犯的界定也取決于所處的情境脈絡(luò),其中包括了以資訊主體(Information actor)、信息屬性(information attribute)和傳播原則(communication principles)三個(gè)要素共同組成的具體判斷方法。[2](P32-48)如“情景導(dǎo)向原則”強(qiáng)調(diào)平臺(tái)應(yīng)源于尊重用戶個(gè)人信息原始收集時(shí)的具體情景的規(guī)定,其后續(xù)傳播及利用用戶數(shù)據(jù)不得超出原初設(shè)定的情景脈絡(luò),否則就屬于侵犯用戶權(quán)益。[3](P68)
“情境脈絡(luò)完整性”理論的核心精髓在于要將初始收集信息時(shí)的語境與消息交換時(shí)的語境(context)相關(guān)聯(lián)考慮,每一種信息的傳遞行為都離不開特定的場景傳播,信息的傳播和使用受制于特定社會(huì)時(shí)空下的資訊流動(dòng)規(guī)范(norms)。保護(hù)隱私就是保護(hù)情境脈絡(luò)的完整性不受先前約定原則的破壞,以及保障信息傳遞的合理性空間。[4](P55)可見,“情境脈絡(luò)完整性”理論基于兩個(gè)準(zhǔn)則:第一,人們的日常生活總是交織于多種社會(huì)情境之中;第二,每一種情境都有一套與之相對(duì)的傳播場景規(guī)范,這一特定場景下的規(guī)范與其他傳播情境下的規(guī)范又有霄壤之別。[5](P74-80)特定場景下的社會(huì)規(guī)范塑造和限制著人們的角色、行為,使第一行為主體的原始場景與第二再現(xiàn)場景各有千秋。此外,CI理論認(rèn)為“隱私”概念還分兩種類型的信息規(guī)范。[6](P133-135)第一種是規(guī)范的適當(dāng)性。規(guī)范的適當(dāng)性專指平臺(tái)呈現(xiàn)的個(gè)人信息在特定情境脈絡(luò)下是否適當(dāng)。比如醫(yī)生詢問患者的過往病史行為是合適的,但詢問患者的私密偏好是不適當(dāng)?shù)?;醫(yī)生之間互相交流各自治療患者的經(jīng)驗(yàn)是合適的,但泄露病人的家庭背景又是不正當(dāng)?shù)?。換言之,當(dāng)我們處在不同的社會(huì)情境之中,所使用的語言表達(dá)、社會(huì)規(guī)范,被置于另一個(gè)情境中也許就變得不再適當(dāng)。第二種是規(guī)范的傳遞原則。傳遞原則是指對(duì)流通中的信息稍加限定,以便了解信息在哪些情況下是被允許傳播的。信息流通離不開個(gè)人的自我分享,但并非表面所有的信息都是可以被傳播的。
例如,用戶A發(fā)的朋友圈照片,在他自己初始設(shè)定的可見標(biāo)簽里傳播是正常的,用戶A知道自己發(fā)出的信息對(duì)應(yīng)的接收對(duì)象有誰,從而可以安心地“曬動(dòng)態(tài)”,但一旦被A的可見朋友私自轉(zhuǎn)發(fā)到另一個(gè)地方后,隨著轉(zhuǎn)發(fā)者和瀏覽者的不同,其所處的社交網(wǎng)絡(luò)中的情境脈絡(luò)也發(fā)生了轉(zhuǎn)化,二次傳播信息脫離了原來限定的情境脈絡(luò),致使在原來情境脈絡(luò)中不被自我視為隱私的信息,轉(zhuǎn)換到另一情境脈絡(luò)場景中,可能就成為自我無比珍視的隱私。由此可見,信息一次傳播和信息二次轉(zhuǎn)播之間存在明顯上的語境差異,導(dǎo)致平臺(tái)在二次傳遞信息過程中極易違背“CI理論”中的“適宜性”原則和“知情同意狀態(tài)”原則。一旦信息在傳播過程中違背了這兩個(gè)原則,那么平臺(tái)侵犯用戶個(gè)人隱私的現(xiàn)象便不可避免。
總的來說,“情境脈絡(luò)完整性”(CI理論)認(rèn)為隱私權(quán)并不是對(duì)信息永久封存保密,也不是一種控制對(duì)外傳播信息的權(quán)利,而是一種“個(gè)人信息合乎時(shí)宜地進(jìn)行傳遞”的權(quán)利。[7](P184)“情境脈絡(luò)完整性”理論沒有將信息的傳播方式囿于某一種司法條例之下,而是把傳播適當(dāng)性放置不同情境中的利益歸屬和價(jià)值層面上,判斷隱私越界與否就是衡量偏離這些價(jià)值的程度大小。[8](P1-4)算法采取到的用戶信息是否合宜地進(jìn)行二次傳播,取決于當(dāng)時(shí)所處的情境脈絡(luò)。世界上絕不存在脫離情境脈絡(luò)的信息,也沒有一個(gè)絕對(duì)的、線性的、統(tǒng)一的標(biāo)準(zhǔn)來判斷什么狀態(tài)下屬于隱私領(lǐng)域、什么不屬于隱私領(lǐng)域。對(duì)于平臺(tái)是否越權(quán)采集用戶信息的行為,離不開原初設(shè)定的情境脈絡(luò)。特別是在算法平臺(tái)傳播個(gè)體信息時(shí),倘若平臺(tái)已事先與用戶約定好條例,在之后的傳播場景中就要履行當(dāng)時(shí)的承諾,遵循社會(huì)規(guī)則的契約精神,保護(hù)好用戶的個(gè)人信息。
“情境脈絡(luò)完整性”理論已被視為個(gè)體隱私是否得到保護(hù)的判斷基準(zhǔn)。例如,歐盟國把CI理論用來衡量《歐盟通用數(shù)據(jù)保護(hù)條例》中具體規(guī)則的適當(dāng)性和合法性,也有學(xué)者將CI理論視為隱私法學(xué)的未來研究趨勢。[9](P149-161)這便意味著,在未來的數(shù)字時(shí)代里,對(duì)于數(shù)據(jù)隱私安全把控來看,一個(gè)適應(yīng)各類情境需要的多元隱私構(gòu)造將不可或缺,而CI理論恰能為這一動(dòng)態(tài)多元構(gòu)成提供必要的理論支撐,這或許能給我國如何保護(hù)隱私安全的問題帶來些許啟發(fā)。然而,該理論給我們提供參考借鑒的同時(shí)也需要我們進(jìn)行反向思考,因?yàn)檎Z境會(huì)隨著社會(huì)規(guī)范和技術(shù)可承受性的波動(dòng)而發(fā)生滑移和變化,網(wǎng)絡(luò)空間的野蠻生長使“情境脈絡(luò)完整性”理論變得復(fù)雜化,致使超出當(dāng)下法律條例的可判范圍,需要我們?nèi)蘸髮?duì)該理論進(jìn)行多維思考和深究。
算法技術(shù)并不像人類生物一般,擁有感性和理性的價(jià)值判斷,如何平衡好網(wǎng)絡(luò)信息抓取與用戶隱私保護(hù)之間的關(guān)系,使其既能發(fā)揮算法新聞的優(yōu)勢,又能保護(hù)好用戶的隱私流動(dòng),讓人們真正享受到技術(shù)的紅利,才是媒介進(jìn)步的最終目的。大數(shù)據(jù)時(shí)代下,我們可以從媒體、權(quán)責(zé)方、算法價(jià)值導(dǎo)向三個(gè)角度,共同探討隱私權(quán)保護(hù)的可實(shí)現(xiàn)路徑。
媒介中的窺視文化、液態(tài)監(jiān)視與隱私歧視現(xiàn)象層出不窮,這是保護(hù)隱私和承擔(dān)社會(huì)責(zé)任的常見矛盾。尊重傳播情境、提升媒介的“數(shù)據(jù)素養(yǎng)”、積極引入第三方評(píng)估認(rèn)證機(jī)構(gòu)是有效的改進(jìn)路徑。媒體必須加強(qiáng)自身的社會(huì)責(zé)任,以便在信息傳播不正常和隱私受到侵犯的情況下,為公民及時(shí)維權(quán)發(fā)聲。媒體人應(yīng)恪守新聞職業(yè)道德,堅(jiān)守正確的新聞價(jià)值導(dǎo)向原則,引領(lǐng)行業(yè)朝著良性方向發(fā)展。同時(shí),新聞媒體機(jī)構(gòu)也應(yīng)擔(dān)負(fù)起責(zé)任意識(shí),杜絕新聞亂象。打造開放有序的媒體環(huán)境、營造包容規(guī)范的公共領(lǐng)域、構(gòu)建權(quán)威共識(shí)的輿論語境,就少不了媒介素養(yǎng)和社會(huì)責(zé)任意識(shí)的提高。
2020年7月22日,中央網(wǎng)信辦和公安部門一起召開了重新整改國內(nèi)App亂象治理工作。而后,由工信部印發(fā)的《關(guān)于開展縱深推進(jìn)App侵害用戶權(quán)益專項(xiàng)整治行動(dòng)的通知》正式實(shí)施。此次的專項(xiàng)網(wǎng)絡(luò)治理行動(dòng)將重點(diǎn)督促平臺(tái)方加強(qiáng)應(yīng)用軟件建設(shè),處理好用戶數(shù)據(jù)隱私,公開透明地存儲(chǔ)好用戶數(shù)據(jù),而對(duì)于擅自泄露用戶隱私的企業(yè)將加大打壓力度,爭取早日消除國內(nèi)App存在的安全隱患。[10]智能算法新聞背后需要有多個(gè)主體共同來控制,因此,對(duì)新聞算法的規(guī)制需要政府,企業(yè),社會(huì)共同參與、管理、監(jiān)督,既不能完全依賴政府來監(jiān)管,也不能只寄望于平臺(tái)自身。要建立分層管理制度,把責(zé)任擔(dān)當(dāng)放在首位,明確權(quán)責(zé)方的權(quán)限,設(shè)置多元主體共同監(jiān)管,保障網(wǎng)民信息安全權(quán)益。
算法推薦機(jī)制大多基于流量至上的規(guī)則來運(yùn)作,極易產(chǎn)生“次生效應(yīng)”,出現(xiàn)大量標(biāo)題黨,低俗惡趣味的信息,新聞內(nèi)容質(zhì)量良莠不齊,內(nèi)容同質(zhì)化加劇,謠言橫生。因此,算法新聞亟須克服單一“眼球經(jīng)濟(jì)”為標(biāo)準(zhǔn)的推送機(jī)制。有學(xué)者認(rèn)為,人類應(yīng)該在實(shí)時(shí)變化的互聯(lián)網(wǎng)環(huán)境下,重新定義智能化新聞,并對(duì)算法新聞保持一定的理性,新聞從業(yè)人員要在發(fā)布新聞中傳遞出具有真正人文價(jià)值的內(nèi)容(張志安、劉杰,2017)。[11](P5-9)不可否認(rèn),機(jī)器人只是一種輔助工具,人工智能目前還存在著許多缺陷,如人工智能不能理解新聞背后的因果鏈,難以產(chǎn)生有溫度的新聞。而作為有理性和感性并存的記者,才能真正生產(chǎn)有溫度的新聞。
布雷特·金在《智能浪潮:增強(qiáng)時(shí)代的來臨》一書中談到:增強(qiáng)時(shí)代的到來,使得人類擁有前所未有的優(yōu)勢以及潛能,但前提是需要我們擁抱技術(shù)所帶來的新變革、新轉(zhuǎn)型和再創(chuàng)新。[12](P201)在算法技術(shù)涌現(xiàn)如雨后春筍的當(dāng)下,算法平臺(tái)給我們閱讀新聞帶來了巨大便利的同時(shí),也給個(gè)人隱私帶來難以預(yù)料的新危機(jī)?;凇扒榫趁}絡(luò)完整性”理論,分析流動(dòng)化隱私和信息傳播場景,可以為保護(hù)隱私提供了新的研究視角。日后還需更多學(xué)者共同探討其理論的本土化路徑及價(jià)值,對(duì)破解算法新聞的隱私保護(hù)困局不無裨益。