吳亮
商業(yè)機(jī)構(gòu)用戶畫像應(yīng)用的政府治理責(zé)任研究
吳亮
(華東理工大學(xué)法學(xué)院,上海,200237)
商業(yè)機(jī)構(gòu)的用戶畫像目前在人工智能系統(tǒng)、智能預(yù)測、場景識別等方面得到廣泛應(yīng)用,其“監(jiān)控式”信息匯集方式帶來的個人信息侵權(quán)風(fēng)險、算法決策帶來的過濾泡效應(yīng)與差別對待風(fēng)險,對政府的用戶畫像治理形成新挑戰(zhàn)。我國已初步形成用戶畫像發(fā)展與治理的政策體系,相應(yīng)法律框架也逐漸成型。在國際上,用戶畫像治理的政府責(zé)任包括個人信息治理和智能算法治理兩種不同的模式,政府的用戶畫像治理責(zé)任應(yīng)當(dāng)在憲法的國家保護(hù)義務(wù)框架下,實(shí)現(xiàn)發(fā)展促進(jìn)與風(fēng)險預(yù)防的價值協(xié)調(diào)。我國應(yīng)通過頂層設(shè)計對治理模式進(jìn)行延伸迭代,推進(jìn)個人信息治理與智能算法治理的協(xié)同,并且將預(yù)警原則和國家擔(dān)保責(zé)任原則作為治理責(zé)任的分配原則。
用戶畫像治理;政府責(zé)任;個人信息治理;智能算法治理
隨著人工智能掀起新的技術(shù)革命,用戶畫像作為一種數(shù)據(jù)分析工具獲得廣泛應(yīng)用。所謂“用戶畫像”(user portrait),是指通過收集、匯聚、分析個人信息,對特定自然人的職業(yè)、經(jīng)濟(jì)、健康、教育、喜好、信用、行為等做出分析或預(yù)測,形成個人特征模型的過程[1]。無論是國家層面的公共治理還是私人層面的精準(zhǔn)營銷,都通過用戶畫像收集、挖掘和分析公民個人信息,描繪人格輪廓或群體概貌,進(jìn)而預(yù)測使用者的特質(zhì)或需求。在國外,劍橋分析公司利用臉書(Facebook)使用者的網(wǎng)絡(luò)活動記錄建立用戶圖像,對社會公眾精準(zhǔn)投放政治宣傳廣告,預(yù)測和影響總統(tǒng)選舉活動。谷歌、微軟等商業(yè)機(jī)構(gòu)結(jié)合用戶在搜索引擎和網(wǎng)站的瀏覽與交易記錄,分析其潛在消費(fèi)需求與消費(fèi)能力,使其個性化推薦和廣告投放更加精準(zhǔn)。在國內(nèi),政府部門匯聚低保、殘疾人、優(yōu)撫等保障對象的數(shù)據(jù),制作困難群眾的個人畫像,為疫情防控、社會救助與精準(zhǔn)扶貧提供支持。人民銀行征信系統(tǒng)、百行征信等機(jī)構(gòu)收集、處理和共享源于金融機(jī)構(gòu)、互聯(lián)網(wǎng)金融的信用數(shù)據(jù),依法合規(guī)向社會提供公民的個人信用畫像,為普惠金融服務(wù)提供良好助力。然而,用戶畫像在增加消費(fèi)者便利、促進(jìn)產(chǎn)業(yè)創(chuàng)新與社會管理而受到青睞的同時,也帶來網(wǎng)絡(luò)社會治理的新挑戰(zhàn)?!氨本┐笊锌萍加邢薰九c羅懿個人信息保護(hù)案”“王某訴每日優(yōu)鮮公司隱私侵權(quán)案”等都表明,某些商業(yè)機(jī)構(gòu)忽略了個人信息不當(dāng)收集和使用、算法決策帶來的過濾泡效應(yīng)與差別對待風(fēng)險等問題。由于用戶畫像引起的法律問題具有復(fù)雜性,目前的法律治理框架難以徹底解決。政府應(yīng)當(dāng)順應(yīng)用戶畫像自身的邏輯和規(guī)律進(jìn)行治理,在借鑒國內(nèi)外經(jīng)驗(yàn)的基礎(chǔ)上探索改良創(chuàng)新的路徑。囿于篇幅,本文的討論以商業(yè)機(jī)構(gòu)的用戶畫像應(yīng)用為主,不涉及公共部門的用戶畫像應(yīng)用。
“現(xiàn)代信息社會是由資訊網(wǎng)絡(luò)形成的社會結(jié)構(gòu),并被不斷創(chuàng)新的高科技所推動。”[1]用戶畫像的法律規(guī)范雖然是制度構(gòu)建問題,但是首先要面對的是技術(shù)認(rèn)知問題。用戶畫像的理念最早是由交互設(shè)計之父庫柏(Alan Cooper)于1999年提出的,指“通過真實(shí)數(shù)據(jù)分析得出標(biāo)簽化的目標(biāo)用戶模型”[2]。換言之,給個體或者群體用戶貼上多維度、提煉化的標(biāo)簽,加以綜合就能勾勒整體特質(zhì)的畫像,例如健康畫像、信用畫像等。用戶畫像的數(shù)據(jù)內(nèi)容廣泛,涉及人口屬性、興趣特征、消費(fèi)特征、位置特征、設(shè)備屬性等。網(wǎng)絡(luò)服務(wù)提供者、社會治理機(jī)構(gòu)在大數(shù)據(jù)與人工智能技術(shù)的基礎(chǔ)上,依托聚類分析、關(guān)聯(lián)規(guī)則等算法比對和分析用戶的行為記錄,全面描述和剖析其特征,合理預(yù)測其心理和行為。在技術(shù)上,用戶畫像需要經(jīng)過“數(shù)據(jù)收集— 數(shù)據(jù)清洗(聚類分析)—細(xì)分假設(shè)—算法建?!獦?gòu)建畫像—場景應(yīng)用”的流程[3]。在功能上,用戶畫像可以挖掘用戶的個性化特質(zhì),洞察未來趨勢和人群差異,提升管理精細(xì)度、營銷精準(zhǔn)度與服務(wù)匹配度。迄今為止,用戶畫像已經(jīng)廣泛應(yīng)用于人工智能系統(tǒng)、智能預(yù)測、場景識別等領(lǐng)域。
1. 人工智能系統(tǒng)的應(yīng)用
用戶畫像借助由深度學(xué)習(xí)、智能算法、類神經(jīng)網(wǎng)絡(luò)與大數(shù)據(jù)分析組成的人工智能系統(tǒng)的預(yù)測功能,對數(shù)據(jù)實(shí)現(xiàn)語義層、服務(wù)層的融合,提高行為預(yù)測與決策回應(yīng)的科學(xué)性與客觀性。首先,嵌入深度學(xué)習(xí)技術(shù)的人工智能是人工智能的第四級—— 最高級類型。與設(shè)計者給予特征的機(jī)器學(xué)習(xí)不同,深度學(xué)習(xí)是由機(jī)器自己創(chuàng)造特征,提升了人工智能感知的自動化程度?;谏疃葘W(xué)習(xí)的智能算法配合類神經(jīng)網(wǎng)絡(luò)(CNN)的使用,使機(jī)器得以模仿人腦進(jìn)行函數(shù)演算和非監(jiān)督式學(xué)習(xí),分析與辨識出海量數(shù)據(jù)蘊(yùn)藏的潛在規(guī)律,進(jìn)而達(dá)到預(yù)測效果[4]。其次,類神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)的技術(shù)基礎(chǔ),模擬生物神經(jīng)系統(tǒng)網(wǎng)絡(luò)進(jìn)行信息處理的數(shù)學(xué)模型,其運(yùn)作分為依據(jù)演算法對輸入數(shù)據(jù)進(jìn)行運(yùn)算的學(xué)習(xí)階段,以及通過神經(jīng)元輸出計算結(jié)果和進(jìn)行可靠性驗(yàn)證的回想階段[5]。最后,大數(shù)據(jù)技術(shù)也是用戶畫像的重要技術(shù)依賴,可以針對海量數(shù)據(jù)進(jìn)行比對和預(yù)測,在數(shù)據(jù)分析階段發(fā)揮關(guān)鍵作用。
2. 智能預(yù)測的應(yīng)用
隨著人工智能系統(tǒng)的自動化,各領(lǐng)域的用戶畫像應(yīng)用均在不斷拓展智能預(yù)測的探索。在商業(yè)營銷與金融領(lǐng)域,用戶畫像模型通過挖掘和剖析用戶的靜態(tài)和動態(tài)數(shù)據(jù),勾勒產(chǎn)品服務(wù)的供需情況,進(jìn)而精準(zhǔn)預(yù)測消費(fèi)者的潛在需求,挖掘用戶的偏好與情緒需求。在社會安保領(lǐng)域,基于用戶畫像的安保防控措施頗為常見,精準(zhǔn)鎖定安全保衛(wèi)熱點(diǎn)和維護(hù)社會治安。歐盟的乘客姓名記錄系統(tǒng)(PNR)的用戶畫像模型已能通過乘客的航空活動信息預(yù)測其社會關(guān)系、精神狀態(tài)和行動意圖,從而甄別可疑的恐怖分子[6]。不過,基于人格尊嚴(yán)、個人隱私及相關(guān)監(jiān)管政策的限制,通過用戶畫像來預(yù)測個人行為的活動很大程度上處于被限制或禁止的狀態(tài)。
3. 場景識別的應(yīng)用
用戶畫像有助于建立完善的用戶洞察模型,以行為區(qū)別用戶,提高社會管理者或者商業(yè)機(jī)構(gòu)的場景識別能力。目前,用戶畫像的場景識別應(yīng)用主要有以下兩種[7]:一是行為模式剖析,即為了研究行為模式以及既有行為的意義,通過歸納法、演繹法發(fā)現(xiàn)固定模式與解釋偏好規(guī)律。最常見的是利用網(wǎng)絡(luò)瀏覽記錄來追蹤在線消費(fèi)者的活動,或者通過智能穿戴設(shè)備的手勢、行動、睡眠等資訊,推測消費(fèi)者的個性特質(zhì)、社交偏好等個人信息。二是定位剖析,即商業(yè)機(jī)構(gòu)通過位置服務(wù)(LBS)、打卡記錄等來定位某區(qū)域內(nèi)的大規(guī)模人群,推測其行程安排、導(dǎo)航路線、消費(fèi)地點(diǎn)等,并用于精準(zhǔn)營銷和廣告投放。不過,場景識別應(yīng)用的生態(tài)仍然有待改善,用戶隱私安全與信任、多類型數(shù)據(jù)的使用、多維度數(shù)據(jù)的融合、行為預(yù)測的準(zhǔn)確度等關(guān)鍵性瓶頸均有待突破[8],用戶畫像帶來的網(wǎng)絡(luò)社會治理風(fēng)險也未被充分理解,這些都對場景識別應(yīng)用的擴(kuò)展形成阻礙。
用戶畫像的應(yīng)用蘊(yùn)含巨大的社會與經(jīng)濟(jì)利益,但是也帶來延伸性、滲透性的法律風(fēng)險,需要依托政府、社會的多元協(xié)同治理才能有效應(yīng)對。對于政府端而言,用戶畫像應(yīng)用給政府促進(jìn)發(fā)展與預(yù)防風(fēng)險的治理能力提出了如下挑戰(zhàn):
其一,用戶畫像所依托的“監(jiān)控式”信息匯集方式極大削弱了用戶的個人信息控制能力,加劇了網(wǎng)絡(luò)社會中數(shù)據(jù)處理者與用戶之間的權(quán)力失衡,而個人信息保護(hù)制度缺乏有效應(yīng)對機(jī)制。用戶畫像的第一個步驟就是匯整與統(tǒng)合不同來源的個人信息,發(fā)現(xiàn)其關(guān)聯(lián)性并且建立聯(lián)結(jié),具體舉措包括:一是不對稱的秘密監(jiān)視,用戶持續(xù)處于完全可見的透明狀態(tài)而數(shù)據(jù)處理者則不可見。二是對人群的全面檢查,通過分類識別、評價預(yù)測、賞罰獎懲等機(jī)制有效地引導(dǎo)用戶的行為模式。據(jù)調(diào)查顯示,一些商業(yè)APP暗中通過“擅自收集”“超范圍收集”等違規(guī)方式,精準(zhǔn)且長久記錄完整的消費(fèi)者圖像,用以預(yù)測、調(diào)控和獨(dú)占用戶的未來消費(fèi)決策①。這種“監(jiān)控式”信息匯集方式會造成新型個人信息侵權(quán)風(fēng)險。信息處理者將用戶累積的數(shù)據(jù)提煉成零成本、高價值的資產(chǎn)—— 行為盈余(behavior surplus),通過向用戶索取、主動收集等方式萃取和重組描繪個體樣貌的數(shù)據(jù)。這種秘密監(jiān)視方式持續(xù)時間長、分布區(qū)域廣,難以被覺察。個人信息的使用和流通由大數(shù)據(jù)與人工智能自動完成,用戶根本無從知曉和介入,從而侵犯到公民不受干擾和審查的信息自決權(quán)。
公私部門運(yùn)用大數(shù)據(jù)技術(shù)系統(tǒng)、全面地收集用戶的個人信息,進(jìn)而形成以信息監(jiān)控為特征的監(jiān)控社會。大量個人信息被匯整而成的特征描繪(profiling)使信息處理者能夠貼近觀察與監(jiān)視用戶的一舉一動,甚至從中推敲出未經(jīng)揭露但是更具敏感性、私密性的個人信息。用戶對其個人信息的控制程度逐漸降低,導(dǎo)致個人特質(zhì)遭受他人詳盡觀察的“累積效應(yīng)”[9]。美國法的“馬賽克理論”詳細(xì)描述了這種信息累加整合而產(chǎn)生的加權(quán)效果。隨著技術(shù)的進(jìn)步,累積效應(yīng)導(dǎo)致信息資料的可識別性標(biāo)準(zhǔn)出現(xiàn)相對化、流動化趨勢,弱化去識別化措施的保護(hù)效果[10]。任何不具有識別性的信息都可能通過與其他信息資料的交叉比對,轉(zhuǎn)變成為可識別的個人信息。這類信息資料由于已經(jīng)公開或者被使用,導(dǎo)致無法再以個人信息的名義加以保護(hù),由此產(chǎn)生個人信息保護(hù)的法律難題[11]。而且在整個監(jiān)控的過程中,用戶毫不知情,甚至在追求消費(fèi)便利的過程中自愿參加和主動接受規(guī)訓(xùn)。后續(xù)的用戶畫像大多屬于超出收集目的的“目的外使用”情形,不僅復(fù)雜難測,而且欠缺透明度,用戶對其自身信息收集、使用的認(rèn)知有限,甚至被排除在外而無法有效應(yīng)對?!氨O(jiān)控式”信息匯集方式造成事前告知同意程序失去意義,個體對個人信息的控制能力降低。
進(jìn)一步而言,用戶畫像是依托高科技建構(gòu)的“人際互動之虛擬形象”,識別、監(jiān)視乃至塑造著個人在真實(shí)空間的消費(fèi)主體面貌,蘊(yùn)含著對社會成員產(chǎn)生自我規(guī)訓(xùn)與隱形約束的權(quán)力效應(yīng)。用戶畫像的全面檢查方式提高了商業(yè)機(jī)構(gòu)對消費(fèi)者的控制效率,使其淪為被觀察的檔案和被權(quán)力宰制的對象。其重點(diǎn)不是用戶的自我決定與發(fā)展軌跡,而是其行為模式必須受到商業(yè)機(jī)構(gòu)的檢查,以及受到積分、評等、排名等獎罰機(jī)制的矯正和引導(dǎo)。商業(yè)機(jī)構(gòu)通過用戶畫像來檢查和控制普通人的狀態(tài),占據(jù)觀察和檢查的優(yōu)勢地位,它和社會公眾之間產(chǎn)生“觀察者”與“被觀察者”的不平等權(quán)力關(guān)系,“深刻介入個人的內(nèi)心與行動,根據(jù)人們的過去塑造人們的現(xiàn)在與將來”。
其二,依賴智能算法的標(biāo)簽分類會嵌入程序設(shè)計者、決策者的主觀價值偏見,或者在關(guān)聯(lián)性分析中融入不符合社會價值觀的判斷,明顯扭曲決策的合理性,增加過濾泡效應(yīng)與差別對待風(fēng)險。用戶畫像的應(yīng)用并非僅僅是取得用戶人格、喜好的特征描繪,更重要的是輔助決策。信息處理者運(yùn)用智能算法對用戶數(shù)據(jù)進(jìn)行關(guān)聯(lián)性分析,比對與預(yù)測用戶不為常人所知的人格特質(zhì),衍生個人并未直接提供的新數(shù)據(jù),用以預(yù)測、調(diào)控和獨(dú)占用戶的未來消費(fèi)或者行為決策,個性化推薦、行為定向廣告、智能安保設(shè)施就是典型案例。但是,這種用戶畫像應(yīng)用雖然滿足用戶的個性化要求,但是也造成個體成員隔離于整體社會的影響人們對周圍環(huán)境正確認(rèn)知的“過濾泡效應(yīng)”。用戶畫像一旦分析出個人的心理偏好、消費(fèi)傾向、行為模式,就會根據(jù)預(yù)測結(jié)果層層過濾,量身打造令其滿意的信息內(nèi)容,隱藏不符合其意向的內(nèi)容[12]。這種做法勢必導(dǎo)致個人接觸的信息同質(zhì)化,容易窄化個人的認(rèn)知范圍,進(jìn)而影響到思想和行為自主性,減少人們對新理念、新行為或者社會互動的嘗試,侵害和限制人格的自由發(fā)展。
除了過濾泡效應(yīng)之外,程序設(shè)計者、決策者在通過基于特征描繪的關(guān)聯(lián)性分析對用戶進(jìn)行標(biāo)簽分類時,在算法中可能會融入強(qiáng)烈的個人主觀偏見,導(dǎo)致差別對待的扭曲結(jié)果。這包括兩類情形:一是數(shù)據(jù)不當(dāng)聯(lián)結(jié),將人臉特征、聲音聯(lián)結(jié)到人格特質(zhì)、性格取向、智力缺陷等,可能對特定群體造成嚴(yán)重的刻板印象與歧視對待。如根據(jù)現(xiàn)有的罪犯人臉數(shù)據(jù)庫辨識出具有某項特定人臉特征的公民,將其作為潛在罪犯予以重點(diǎn)防范,這種做法超越道德判斷與人格尊嚴(yán)保護(hù)的法律底線。“算法運(yùn)算過程的不透明性,并不客觀完整的數(shù)據(jù)樣本,以及人類對人工智能技術(shù)的濫用和對算法決策結(jié)果的盲目自信,導(dǎo)致算法錯誤被進(jìn)一步放大。”[13]二是數(shù)據(jù)偏差引起的歧視。由于數(shù)據(jù)輸入的不準(zhǔn)確、不完整、不及時,或者目標(biāo)對象本身由于貧困、偏僻、漏報而影響了數(shù)據(jù)的精準(zhǔn)性,都可能造成用戶畫像扭曲決策者對特定群體的正確印象,進(jìn)而導(dǎo)致決策的不公正[14]。以刷單炒信現(xiàn)象為例,個人信息或者用戶評價的失真導(dǎo)致用戶畫像數(shù)據(jù)在收集階段就有嚴(yán)重瑕疵,并且影響到貸款、授信、交易等決策的客觀準(zhǔn)確。
自2018年以來,我國開始對用戶畫像相關(guān)活動進(jìn)行法律監(jiān)管。2018年5月,國家標(biāo)準(zhǔn)化管理委員會發(fā)布推薦性國家標(biāo)準(zhǔn)——《信息安全技術(shù)個人信息安全規(guī)范》(GB/T 35273—2017),標(biāo)志著用戶畫像風(fēng)險規(guī)制工作被納入政府治理的軌道。迄今為止,我國針對用戶畫像政府治理領(lǐng)域的政策立場日益清晰,法律框架也逐漸成形。
1. 對智能預(yù)測應(yīng)用的積極支持
基于用戶畫像的智能預(yù)測應(yīng)用是促進(jìn)我國全面數(shù)字化轉(zhuǎn)型的重要舉措,得到了數(shù)字經(jīng)濟(jì)、數(shù)字政府等領(lǐng)域的政策認(rèn)可。在數(shù)字經(jīng)濟(jì)領(lǐng)域,中央全面深化改革委員會《關(guān)于深化新一代信息技術(shù)與制造業(yè)融合發(fā)展的指導(dǎo)意見》以及上海市委、市政府《關(guān)于全面推進(jìn)上海城市數(shù)字化轉(zhuǎn)型的意見》等地方性政策,均將基于用戶畫像的智能預(yù)測應(yīng)用納入數(shù)據(jù)服務(wù)產(chǎn)業(yè)扶持政策體系中,強(qiáng)調(diào)要以挖掘社會數(shù)據(jù)要素價值為導(dǎo)向,統(tǒng)籌規(guī)劃、系統(tǒng)構(gòu)建產(chǎn)品智能化與數(shù)據(jù)驅(qū)動的新興服務(wù)業(yè)態(tài),促進(jìn)相關(guān)的組織架構(gòu)、算法規(guī)制、標(biāo)準(zhǔn)制定、安全評估等能力建設(shè)。《廣東省人民政府關(guān)于加快數(shù)字化發(fā)展的意見》提出大力發(fā)展數(shù)據(jù)清洗、建模、可視化、用戶畫像、行業(yè)分析、信用評價等數(shù)據(jù)服務(wù)產(chǎn)業(yè)[15]。在數(shù)字政府領(lǐng)域,《國民經(jīng)濟(jì)和社會發(fā)展第十四個五年規(guī)劃和2035年遠(yuǎn)景目標(biāo)綱要》提出“加強(qiáng)數(shù)字社會、數(shù)字政府建設(shè),提升公共服務(wù)、社會治理等數(shù)字化智能化水平”的目標(biāo),為智能預(yù)測應(yīng)用在公共服務(wù)、文化消費(fèi)、小額信貸等領(lǐng)域的推廣奠定了政策基礎(chǔ)[16]。國務(wù)院《關(guān)于進(jìn)一步優(yōu)化營商環(huán)境降低市場主體制度性交易成本的意見》提出“對企業(yè)進(jìn)行分類畫像,推動惠企政策智能匹配、快速兌現(xiàn)”。這些規(guī)定為政府促進(jìn)用戶畫像與數(shù)字治理應(yīng)用場景的結(jié)合,提供了有力支持。
2. 對場景識別應(yīng)用的嚴(yán)格監(jiān)管
自2018年起,我國對場景識別應(yīng)用的政府治理日趨嚴(yán)格。以基于用戶畫像的定向推送服務(wù)為例,《信息安全技術(shù)個人信息安全規(guī)范》限制個人信息收集的明確身份指向性,避免用戶畫像精確定位到特定個人,如推送商業(yè)廣告不得直接使用基于特定自然人個人信息的用戶畫像[17]?!蛾P(guān)于開展APP違法違規(guī)收集使用個人信息專項治理的公告》倡導(dǎo)APP運(yùn)營者在定向推送新聞、時政、廣告時,為用戶提供拒絕接受定向推送的選項?!缎畔踩夹g(shù)個人信息安全規(guī)范》新設(shè)用戶畫像的使用限制條款:個人特征描述不得包含恐怖迷信,危害國家安全、榮譽(yù)和利益等違法內(nèi)容;用途也不得侵害公民、法人和其他組織的合法權(quán)益,不能危害國家安全、榮譽(yù)和利益?!痘ヂ?lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》要求加強(qiáng)用戶模型和用戶標(biāo)簽管理,不得將違法和不良信息關(guān)鍵詞作為用戶標(biāo)簽并據(jù)以推送信息。
3. 對不當(dāng)處理個人信息行為的強(qiáng)力約束
《信息安全技術(shù)個人信息安全規(guī)范》確立了用戶畫像對個人信息收集的“最小夠用原則”,并要求個人信息處理者的隱私政策應(yīng)當(dāng)涵蓋收集、使用用戶畫像的目的及各個業(yè)務(wù)功能?!痘ヂ?lián)網(wǎng)個人信息安全保護(hù)指南》依據(jù)用戶畫像的增值應(yīng)用為用戶所帶來的法律后果的不同,將其區(qū)分為“不經(jīng)用戶授權(quán)”和“經(jīng)用戶授權(quán)”兩種形式,并強(qiáng)調(diào)用戶有反對或者拒絕的權(quán)利?!禔PP違法違規(guī)手機(jī)使用個人信息自評估指南》規(guī)定,如果APP經(jīng)營者將個人信息用于用戶畫像、個性化展示等,隱私政策中應(yīng)說明其應(yīng)用場景和可能影響?!痘ヂ?lián)網(wǎng)個人信息安全保護(hù)指南》以是否可能為用戶帶來法律后果作為標(biāo)準(zhǔn),劃分用戶畫像的用戶授權(quán)同意機(jī)制?!缎畔踩夹g(shù)個人信息安全規(guī)范》首次規(guī)定對信息系統(tǒng)自動決策的安全影響評估要求,以及對涉及申訴的決策結(jié)果增加人工復(fù)核的要求?!秱€人金融信息保護(hù)技術(shù)規(guī)范》明確將用戶畫像、特征標(biāo)簽等加工后的信息納入個人信息或者個人敏感信息的范疇,強(qiáng)調(diào)整合個人信息須經(jīng)本人授權(quán)同意。
法律是“體現(xiàn)時代特征并與公共政策保持密切親緣關(guān)系的規(guī)則體系”[18]。分析用戶畫像治理的政府責(zé)任、總結(jié)政策得失,離不開解讀既有的法律框架。盡管我國尚未針對用戶畫像的政府治理出臺專門性法規(guī),但是治理的法律框架卻有跡可循。我國已經(jīng)建立起一系列法律規(guī)范,既賦權(quán)政府預(yù)防與懲治犯罪、防范網(wǎng)絡(luò)風(fēng)險、保障公民合法權(quán)利等多項責(zé)任,也授權(quán)政府實(shí)施多項舉措以促進(jìn)大數(shù)據(jù)產(chǎn)業(yè)與推動數(shù)字治理的發(fā)展。這些法律規(guī)范為用戶畫像政府治理提供制度支撐,構(gòu)成政府部門的責(zé)任界限。
1. 引導(dǎo)用戶畫像相關(guān)產(chǎn)業(yè)發(fā)展的法律框架
《數(shù)據(jù)安全法》確立了以數(shù)據(jù)開發(fā)利用與產(chǎn)業(yè)發(fā)展促進(jìn)數(shù)據(jù)安全的統(tǒng)籌發(fā)展理念,對不同領(lǐng)域的專門性立法提供方針指引。這些專門性立法包括交通管理、公共安全、民生服務(wù)等方面的地方性法規(guī)、規(guī)章和規(guī)范性文件。如國務(wù)院出臺放管服改革優(yōu)化營商環(huán)境法規(guī),在信用信息的歸集共享基礎(chǔ)上形成完善的小微企業(yè)風(fēng)險畫像,引導(dǎo)金融機(jī)構(gòu)的普惠小微金融服務(wù)[19]。上海市施行“一網(wǎng)統(tǒng)管+精準(zhǔn)救助”法規(guī)體系,匯聚多部門數(shù)據(jù)形成個人和家庭屬性標(biāo)簽,從社區(qū)、家庭、個人三個維度對社區(qū)居民進(jìn)行民生畫像,提高社會救助服務(wù)能級。上述法律規(guī)范已經(jīng)為政府推動用戶畫像的發(fā)展提供了基本框架。用戶畫像的發(fā)展面臨著裁量措施的合理性、創(chuàng)新激勵的有效性、財政優(yōu)惠的合法性等問題,在制定相關(guān)法律政策時需要加以回應(yīng),為政府發(fā)展用戶畫像的法定責(zé)任提供規(guī)范指引。
2. 防范用戶畫像風(fēng)險的法律框架
在風(fēng)險預(yù)防方面,基于既有的個人信息保護(hù)、數(shù)據(jù)安全、算法應(yīng)用的監(jiān)管實(shí)踐,有關(guān)政府責(zé)任的法律框架比較清晰。這包括以下兩方面內(nèi)容:
一是有關(guān)個人信息保護(hù)與數(shù)據(jù)安全的法律規(guī)定,在用戶畫像政府治理方面具有價值導(dǎo)向作用?!稊?shù)據(jù)安全法》對用戶畫像雖未直接涉及,但是對數(shù)據(jù)處理者確立了“合法、正當(dāng)、促進(jìn)經(jīng)濟(jì)社會發(fā)展,增進(jìn)人民福祉,符合社會公德和倫理”的原則?!秱€人信息保護(hù)法》強(qiáng)調(diào)涉及用戶畫像的自動化決策若可能對個人權(quán)益造成重大影響,個人對其信息的收集與處理擁有反對權(quán)與拒絕權(quán);在通過自動化決策方式進(jìn)行商業(yè)營銷、信息推送時,應(yīng)當(dāng)提供不針對其個人特征的選項。《數(shù)據(jù)安全管理辦法》要求網(wǎng)絡(luò)運(yùn)營者不得以改善服務(wù)質(zhì)量、提升用戶體驗(yàn)、定向推送信息、研發(fā)新產(chǎn)品等為由,以默認(rèn)授權(quán)、功能捆綁等形式強(qiáng)迫、誤導(dǎo)個人同意收集其信息?!渡钲诮?jīng)濟(jì)特區(qū)數(shù)據(jù)條例》也規(guī)定了數(shù)據(jù)處理者對用戶畫像的規(guī)則與用途的明示義務(wù),且個人擁有拒絕用戶畫像與個性化推薦的權(quán)利。另外,金融、社交平臺、健康防疫等專業(yè)領(lǐng)域涉及用戶畫像的個人信息保護(hù)也逐步加強(qiáng),如《個人金融信息保護(hù)技術(shù)規(guī)范》新增用戶畫像對個人特征描述的限制、個性化展示與數(shù)據(jù)匯聚融合的限制等要求。
二是有關(guān)算法應(yīng)用的法律規(guī)定?!蛾P(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》明確了商業(yè)機(jī)構(gòu)對算法應(yīng)用結(jié)果的主體責(zé)任,對檢索過濾類算法強(qiáng)化特征庫和標(biāo)簽庫的有效性評估,對調(diào)度決策類算法加強(qiáng)對不合理差別待遇的治理?!痘ヂ?lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》要求算法推薦服務(wù)提供者向用戶提供選擇或者刪除針對其個人特征的用戶標(biāo)簽的功能?!渡虾J芯W(wǎng)絡(luò)交易平臺網(wǎng)絡(luò)營銷活動算法應(yīng)用指引》規(guī)定網(wǎng)絡(luò)交易平臺經(jīng)營者應(yīng)當(dāng)確保消費(fèi)者畫像依據(jù)來源合法,尊重消費(fèi)者人格尊嚴(yán),避免使用有違社會公德、歧視性、偏見性的用戶標(biāo)簽。政府責(zé)任全面滲透到用戶畫像治理的各領(lǐng)域,成為行政執(zhí)法的重要依據(jù)。
用戶畫像的興起伴隨著商業(yè)機(jī)構(gòu)數(shù)據(jù)監(jiān)控權(quán)力的不斷加強(qiáng),基于特征描繪的算法決策也蘊(yùn)含著過濾泡效應(yīng)與差別對待風(fēng)險。這種風(fēng)險難以通過市場力量加以化解,需要由政府介入實(shí)施規(guī)制,消除用戶的侵權(quán)風(fēng)險與維系市場主體的創(chuàng)新動力。從國外實(shí)踐來看,用戶畫像政府治理責(zé)任具有“以信息主體信任為中心的個人信息治理模式”和“以算法主體責(zé)任為中心的智能算法治理模式”兩種不同的模式。
個人信息治理模式已經(jīng)成為歐美政府治理責(zé)任的主流模式,如《歐盟一般信息保護(hù)規(guī)范》(GDPR)、《英國信息保護(hù)法》(DPA)、《美國統(tǒng)一個人數(shù)據(jù)保護(hù)法》(UPDPA)、《美國加州隱私權(quán)法案》(CPRA)等。正如美國學(xué)者拜爾金(Balkin)在《隱私的受托模式》一文中所指出的,將信托關(guān)系下規(guī)范契約當(dāng)事人之間法律關(guān)系的做法引入個人信息保護(hù)領(lǐng)域,建立基于信任關(guān)系脈絡(luò)的信息受托人模式,強(qiáng)化數(shù)據(jù)處理者依據(jù)信任關(guān)系所承擔(dān)的忠誠義務(wù)是用戶畫像政府治理的發(fā)展趨勢①。相對于用戶而言,數(shù)據(jù)處理者是居于個人信息控制和專業(yè)知識的優(yōu)勢一方,因此應(yīng)當(dāng)善盡基于委托的雙重忠實(shí)義務(wù):第一,在數(shù)據(jù)處理者與用戶之間,用戶將其個人信息通過合意轉(zhuǎn)讓給數(shù)據(jù)處理者,數(shù)據(jù)處理者應(yīng)當(dāng)為了維護(hù)用戶的最佳利益而利用數(shù)據(jù),協(xié)助其有效行使自主權(quán)能,并擔(dān)保人格尊嚴(yán)等權(quán)益不因數(shù)據(jù)濫用而產(chǎn)生侵害風(fēng)險。第二,在數(shù)據(jù)處理者與國家、社會之間,國家、社會基于信任將個人信息的利用權(quán)限委托給特定的數(shù)據(jù)處理者,數(shù)據(jù)處理者應(yīng)對其活動的合法、公平承擔(dān)擔(dān)保責(zé)任,并遵守監(jiān)管規(guī)則。為了確保數(shù)據(jù)處理者履行信息受托人義務(wù),法律應(yīng)不斷強(qiáng)化公民同意其個人信息用于用戶畫像的各項權(quán)利,保障其掌握個人信息流動的范圍,同時通過高額罰金、司法救濟(jì)和信息安全機(jī)制,課予信息處理者管理個人信息的各項責(zé)任。主要的制度設(shè)計包括:
其一,強(qiáng)調(diào)數(shù)據(jù)處理者向用戶的充分告知義務(wù)。為了消除“監(jiān)控式”信息匯集方式帶來的危險,世界各國均將充分告知機(jī)制作為個人信息保護(hù)的基本要求,如《歐盟一般信息保護(hù)規(guī)范》針對用戶畫像的告知義務(wù)向數(shù)據(jù)處理者提出兩項合法標(biāo)準(zhǔn):一是告知內(nèi)容應(yīng)當(dāng)具有實(shí)質(zhì)意義,包括數(shù)據(jù)處理者會收集和利用何種個人信息,用戶畫像的分類標(biāo)簽邏輯等;二是用戶畫像及其后續(xù)決策對數(shù)據(jù)來源主體可能造成的法律后果應(yīng)予告知。
其二,強(qiáng)化信息主體的自主性與反制“捆綁式同意”的用戶同意權(quán)強(qiáng)化機(jī)制。如《歐盟一般信息保護(hù)規(guī)范》(GDPR)規(guī)定,除了基于重大公益目的或者履行用戶和信息處理者之間的協(xié)議所必需,用戶畫像對個人信息的收集和利用應(yīng)當(dāng)具備用戶“自主、具體、知情、明確、明示”的授權(quán)同意[20]。只要用戶反對或后續(xù)申請撤回,則與其相關(guān)的信息收集與用戶畫像服務(wù)行為須立即停止。對于涉及宗教信仰、生物識別特征等敏感性個人信息的用戶畫像,優(yōu)先保護(hù)個人信息權(quán)益,原則上不得利用此類信息進(jìn)行自動化決策。
但是,個人信息治理模式仍然存在著諸多不足:第一,混合資料(bastard data)的出現(xiàn)動搖了以個人信息保護(hù)為基點(diǎn)的用戶畫像政府治理框架[21]。隨著大數(shù)據(jù)分析、機(jī)器學(xué)習(xí)促成的“數(shù)據(jù)累積效應(yīng)”,個人信息的可識別性標(biāo)準(zhǔn)遭遇嚴(yán)重挑戰(zhàn),信息處理者可以從非個人信息中輕易獲取相當(dāng)于個人信息的混合資料,并且逃脫法律的監(jiān)管。第二,以告知同意規(guī)則作為獲取個人信息合法權(quán)源的制度設(shè)計不適應(yīng)實(shí)際需要。在告知層面,隱私政策冗長、不明確,用戶受限于認(rèn)知偏差、信息不對稱而不能完全理解隱私政策,或誤解隱私風(fēng)險[22]。在同意層面,用戶畫像如果不涉及跨網(wǎng)絡(luò)運(yùn)營者使用或者不產(chǎn)生法律結(jié)果,就可不經(jīng)用戶授權(quán)使用其個人信息。然而,“不經(jīng)本人授權(quán)”由于欠缺必要的配套機(jī)制,面臨著個人信息易遭濫用的質(zhì)疑。法律雖在免于用戶事前授權(quán)的條款中內(nèi)置了用戶反對或拒絕權(quán),對于其內(nèi)涵外延、落實(shí)機(jī)制卻沒有詳細(xì)表述。這種缺位導(dǎo)致立法和實(shí)踐難有大的作為,只能停留在象征意義的宏觀話語。另外,第三方接受個人信息處理者的轉(zhuǎn)讓,對個人信息的增值應(yīng)用雖然需要履行告知同意程序,卻無法回應(yīng)“個人即使同意交出信息也仍有隱私權(quán)保障之必要”的法理質(zhì)疑[23]。第三,當(dāng)前的法律聚焦于規(guī)范對個人的信息收集和特征描繪,卻忽略了特定群體的信息收集和特征描繪。在實(shí)踐中,很多信息處理者利用機(jī)器學(xué)習(xí)技術(shù)先建立不同資料組的特征,在此基礎(chǔ)上概率性剖析特定個人屬于何種群體,同樣可以實(shí)現(xiàn)對個人的特征描繪。第四,用戶畫像使用者與不同用戶之間從點(diǎn)到點(diǎn)的線性關(guān)系演化成由多點(diǎn)組成的個面關(guān)系,難以準(zhǔn)確界定侵權(quán)范圍。如在劍橋分析公司丑聞事件中,不良企業(yè)通過平臺媒體的訂閱者向外散布政治廣告,誤導(dǎo)更多人的投票決策,實(shí)際受害者難以估量。而且,用戶畫像造成的侵害是個人信息收集、處理和數(shù)字身份決策共同加成的結(jié)果,人們的自我認(rèn)同、人格特質(zhì)都會受此影響,具體的侵害效果難以量化評估。
智能算法治理模式著眼于強(qiáng)化算法主體的課責(zé)性,通過創(chuàng)造出符合正當(dāng)程序原則的算法管制規(guī)則,彌補(bǔ)個人信息治理模式對用戶畫像的規(guī)范缺失。圍繞正當(dāng)程序約束來強(qiáng)化用戶畫像的法律監(jiān)管是發(fā)達(dá)國家的重要經(jīng)驗(yàn)[24]。2021年《歐盟人工智能法》、2019年《歐盟人工智能倫理準(zhǔn)則》、2020年《美國人工智能倡議法》、2019年《美國人工智能增長研究法案》(GRAITR)及其配套的《美國人工智能政府法案》均主張參考正當(dāng)程序邏輯約束用戶畫像與算法分析決策,排除公私部門“算法黑匣”的恣意操控,保障個人得到公平公正對待,并且滿足公眾對政府決策的安定性、可預(yù)測性需求。有學(xué)者歸納了正當(dāng)法律程序?qū)ψ詣踊瘺Q策的管制要求,即“規(guī)范應(yīng)事先制定以減少恣意裁量的可能;規(guī)范應(yīng)平等適用于同類個案且得出近似的結(jié)果;確保規(guī)范的隨機(jī)適用不會被任何利益團(tuán)體操控”[25]。迄今為止,學(xué)界和實(shí)務(wù)界對基于用戶畫像的自動化決策進(jìn)行程序規(guī)范的認(rèn)知,主要是圍繞人為介入搭配算法透明兩項義務(wù)來開展程序管制的,具體包括兩項內(nèi)容。
其一,算法決策的人為介入義務(wù),即在分配智能算法與自然人在決策執(zhí)行中的互動關(guān)系時,以自然人而非機(jī)器作為最終課責(zé)對象,內(nèi)容包括“算法只能輔助自然人作出決策”和“自然人保留事后推翻算法決策的權(quán)利”。這是由于,智能算法的運(yùn)作具有不可預(yù)測的特征,可能在關(guān)聯(lián)性分析中形成歧視性、不公正的推論與評價結(jié)果,并導(dǎo)致公民由于擔(dān)心受到差別對待而有意無意地改變內(nèi)在思想與外在言行,對人格尊嚴(yán)和人性自主造成影響。人為介入義務(wù)的具體要求包括:在算法建構(gòu)階段應(yīng)由自然人判斷數(shù)據(jù)選擇和算法應(yīng)用的適當(dāng)性;在基于算法的決策階段應(yīng)由自然人審查基于算法的自動化決策邏輯是否合理,并據(jù)此決定采納、修正或者推翻。
其二,算法應(yīng)用的透明化義務(wù),即通過算法相關(guān)資訊的披露打破智能算法的黑箱,提升自然人對智能算法的掌握度與信任度。由于算法決策的正當(dāng)性取決于自然人對算法內(nèi)容的掌握程度與信任程度,因此,人為介入義務(wù)需要以“算法具備說明能力”作為人機(jī)良性互動、避免算法出錯的主要規(guī)制手段。換言之,通過一定的透明化手段讓社會公眾得以理解數(shù)據(jù)、算法及其各種判斷的過程,降低智能算法的不可預(yù)測性,提升人們對其的信任程度。這里的透明化手段具體包括兩種:一是“形式透明化型”,即將算法程序代碼向社會進(jìn)行披露和公示,方便監(jiān)管部門進(jìn)行靜態(tài)分析。如《美國人工智能政府法案》規(guī)定商業(yè)機(jī)構(gòu)運(yùn)用用戶畫像時應(yīng)當(dāng)將其算法程序、訓(xùn)練數(shù)據(jù)交由權(quán)威的第三方專業(yè)機(jī)構(gòu)審核,確保其符合安全、合理標(biāo)準(zhǔn)。但是,算法程序代碼本身的復(fù)雜性、無序性,僅有靜態(tài)分析可能誤導(dǎo)社會忽略其潛在的關(guān)鍵弊端,同時靜態(tài)分析難以追蹤算法程序與環(huán)境互動的實(shí)際過程,難以完全消除算法偏差。二是“實(shí)質(zhì)透明化型”,即要求商業(yè)機(jī)構(gòu)在運(yùn)用用戶畫像時實(shí)現(xiàn)全過程公開透明,確保數(shù)據(jù)輸入、算法模型、邏輯決策、信息篩選、動態(tài)展示等全過程信息的動態(tài)匯集與公開披露,避免決策者借助“算法黑箱”逃脫法律規(guī)范和社會監(jiān)督。典型的如《歐盟人工智能法》《美國人工智能倡議法》等。
但是,智能算法治理模式也會遭遇一些疑難問題:第一,透明化錯覺問題,即大量的資訊披露會給社會公眾帶來透明化明升暗降的錯覺,未必代表更有效的透明化[26]。數(shù)據(jù)處理者可能會通過控制算法披露的時間、增加算法理解的難度、延時更新數(shù)據(jù)庫、以多重披露制造理解混亂等方法,誤導(dǎo)社會公眾的認(rèn)知和降低外部監(jiān)督的成效。第二,系統(tǒng)漏洞問題,即算法公開會泄露自動化決策機(jī)制中的代理變數(shù),導(dǎo)致社會公眾知曉某些非直接測量結(jié)果的評估因素,比如測量履約風(fēng)險的薪資、人格特質(zhì)、信用記錄要求,并且采取規(guī)避應(yīng)對措施[27]。隨機(jī)變數(shù)的產(chǎn)生方式如果為人所知,或者在不確認(rèn)變數(shù)是否真的隨機(jī)而有可能存在規(guī)律的情況下,就會影響算法的預(yù)測與評價功能,易造成自動化決策的不公平或失真。第三,私人部門透明化的正當(dāng)性質(zhì)疑。要求私人部門的特定信息向社會公開透明,在很多情況下未必經(jīng)得起利益平衡原則的考驗(yàn)[28]。如果不存在超越商業(yè)秘密、知識產(chǎn)權(quán)、經(jīng)營自主權(quán)等私人 利益的公益保護(hù)之必要,則不宜向私人部門課以公開義務(wù)。因此,如何適應(yīng)技術(shù)的發(fā)展加強(qiáng)對上述問題的應(yīng)對,是進(jìn)一步制度設(shè)計要認(rèn)真對待的問題。
用戶畫像應(yīng)用既有正面意義,也存在技術(shù)風(fēng)險,運(yùn)用政府規(guī)制實(shí)現(xiàn)市場因素與國家任務(wù)的協(xié)調(diào)是一條可行途徑。政府對用戶畫像風(fēng)險的治理責(zé)任可以回溯到憲法上的國家保護(hù)義務(wù)理論。國家保護(hù)義務(wù)源于基本權(quán)客觀規(guī)范體系,在德國法上是指國家負(fù)有保護(hù)公民生命、健康、自由與財產(chǎn)等法益的作為義務(wù),在“具有危險防御功能的法治國”“社會國”原則下,積極排除來自第三方主體的侵害或危險行為[29]。我國憲法制度雖然與德國有別,也無法簡單套用法治國、社會國概念來詮釋國家任務(wù),但是在處理發(fā)展促進(jìn)與風(fēng)險預(yù)防的關(guān)系方面,國家保護(hù)義務(wù)理論具有借鑒意義。國家在實(shí)施憲法第十四、二十條規(guī)定的“發(fā)展、促進(jìn)和推廣科學(xué)技術(shù)以及發(fā)展社會生產(chǎn)力”任務(wù)時,也要從維護(hù)人性尊嚴(yán)與人格自由發(fā)展的角度出發(fā),為用戶畫像確立清晰合法的行為價值標(biāo)準(zhǔn)。有學(xué)者整理國家針對七種憲法風(fēng)險的預(yù)防義務(wù),并指出該義務(wù)對基本權(quán)利的保護(hù)程度與方式,隨著現(xiàn)代社會風(fēng)險的高度不確定而呈現(xiàn)出動態(tài)擴(kuò)張的趨勢[30]。
在憲法的國家保護(hù)義務(wù)框架下,為實(shí)現(xiàn)發(fā)展促進(jìn)與風(fēng)險預(yù)防的價值協(xié)調(diào),實(shí)現(xiàn)用戶畫像政府治理的目標(biāo)協(xié)同,需要實(shí)現(xiàn)不同價值趨向的動態(tài)平衡。以風(fēng)險預(yù)防為導(dǎo)向的國家保護(hù)義務(wù)不限于消極排除侵犯公民個人信息犯罪等現(xiàn)實(shí)損害,更包括積極防范用戶畫像的數(shù)據(jù)安全、差別對待等風(fēng)險,在其未對公民權(quán)利造成嚴(yán)重且不可恢復(fù)的損害之前,進(jìn)行有效管控。但是,風(fēng)險預(yù)防的目標(biāo)并不是零風(fēng)險,而是通過成本效益分析建構(gòu)適當(dāng)?shù)谋Wo(hù)標(biāo)準(zhǔn),實(shí)現(xiàn)社會公共利益與風(fēng)險預(yù)防之間的最大凈收益。數(shù)字革命是社會進(jìn)步與經(jīng)濟(jì)發(fā)展的動力,政府應(yīng)當(dāng)適度容忍伴隨其而生的“剩余風(fēng)險”合理存在,對危害后果是否發(fā)生、發(fā)生時間與范圍難以確定的危險不必一概干預(yù)[31]?!皣也灰四暼藗儗︼L(fēng)險的恐懼,忽略人類理性局限而采取過度避險的措施。”[32]政府如果貿(mào)然采取積極干預(yù)措施,可能拘束第三人的行動自由、財產(chǎn)權(quán)、經(jīng)營自由、商業(yè)秘密而造成權(quán)利沖突。因此,國家干預(yù)措施的選擇應(yīng)當(dāng)保留靈活性,不宜將所有用戶畫像的應(yīng)用一概納入高風(fēng)險治理框架,而要根據(jù)其涉及的信息安全風(fēng)險程度、關(guān)聯(lián)性分析涉及的違法性與不當(dāng)性、可能影響的范圍、受害權(quán)利的性質(zhì)等因素,在“禁止過度侵害”的最高限度與“禁止保護(hù)不足”的最低限度之間作出最佳判斷,設(shè)計分級規(guī)制體系。
我國的用戶畫像政府治理雖然躋身世界前列,但是仍然主要停留在傳統(tǒng)的個人信息治理模式層面,偏重個人信息收集階段的信息安全保障,對基于特征描述之算法決策階段的技術(shù)治理不足,偏重監(jiān)管信息但是監(jiān)管算法尚不充分,信息與算法分而治之且未形成有機(jī)統(tǒng)一。依據(jù)不同風(fēng)險的分類管理是技術(shù)治理的普遍做法,有助于根據(jù)不同的場景實(shí)現(xiàn)規(guī)制精細(xì)化。用戶畫像是個人信息、算法及一系列判斷的組合,因此,技術(shù)治理體系理應(yīng)將個人信息和算法作為兩大分類標(biāo)準(zhǔn),從單一管控走向多元統(tǒng)籌,推進(jìn)本土化制度建設(shè)與規(guī)范引領(lǐng),形成在全球更有影響力的用戶畫像治理政府責(zé)任體系。
第一,推進(jìn)政府對個人信息治理模式的全鏈條責(zé)任治理。當(dāng)前,我國政府的用戶畫像治理責(zé)任主要聚焦于信息安全導(dǎo)向下的信息服務(wù)規(guī)范和用戶個人信息保護(hù),盡管已經(jīng)在個人信息治理的基礎(chǔ)上作出諸多細(xì)化與創(chuàng)新,但是仍然需要進(jìn)一步優(yōu)化。用戶畫像在應(yīng)用過程中造成擴(kuò)散性風(fēng)險與危害,傳統(tǒng)的告知同意機(jī)制遠(yuǎn)不足以應(yīng)對情勢考量與案件裁判之需要。首先,需要強(qiáng)化現(xiàn)有的告知同意機(jī)制,并由政府進(jìn)行監(jiān)督,進(jìn)一步落實(shí)《個人信息保護(hù)法》的公開透明原則,提高告知內(nèi)容的清晰、全面、準(zhǔn)確程度,確保用戶同 意是建立在充分考慮和正確認(rèn)知風(fēng)險的基礎(chǔ)上的[33]。其次,將全鏈條責(zé)任治理的重心從個人信息收集階段轉(zhuǎn)向利用階段,減輕用戶基于同意而自擔(dān)侵權(quán)風(fēng)險的責(zé)任,加重數(shù)據(jù)處理者作為信息受托人的信息安全責(zé)任。應(yīng)當(dāng)以數(shù)據(jù)處理者為中心來設(shè)計責(zé)任承擔(dān)規(guī)則:一是明確商業(yè)機(jī)構(gòu)的“個人信息擔(dān)保義務(wù)”,包括不得超出法定范圍與限度利用個人信息,對個人信息處理的全過程進(jìn)行告知、通知與公示,保障信息質(zhì)量,進(jìn)行來源合法性審查、敏感信息校驗(yàn)等。二是確立商業(yè)機(jī)構(gòu)對配合行政規(guī)制和公民請求救濟(jì)的嚴(yán)格協(xié)助義務(wù),如履行風(fēng)險監(jiān)測、數(shù)據(jù)認(rèn)證、算法審查、資料申報等手續(xù),為公民設(shè)立程序參與、撤回退出、賠償請求、違規(guī)舉報等機(jī)制。強(qiáng)化數(shù)據(jù)處理者對用戶受托責(zé)任的制度設(shè)計,有利于督促其認(rèn)真協(xié)助公民妥善行使知情、訪問、更正、刪除等權(quán)利,對《信息安全技術(shù)個人信息安全規(guī)范》等法律中有關(guān)用戶畫像限制使用、組織信息安全管理要求等也應(yīng)作出相應(yīng)調(diào)整。
第二,促進(jìn)政府對智能算法治理模式的監(jiān)管升級。2022年《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》標(biāo)志著我國用戶畫像政府治理開始并重對待個人信息治理模式與智能算法治理模式,將規(guī)制重點(diǎn)延伸到算法技術(shù)支持者。這是對技術(shù)風(fēng)險發(fā)展的因應(yīng)性制度調(diào)整。用戶畫像治理超越個人信息治理模式,為用戶畫像的每個階段都制定規(guī)則,符合國際發(fā)展趨勢。智能算法治理模式能夠有效克服個人信息治理模式對用戶畫像的規(guī)范缺失:其一,在告知同意規(guī)則難以充分發(fā)揮功效的情況下,該模式直接將規(guī)制對象從個人信息轉(zhuǎn)向用戶畫像的應(yīng)用活動即自動化決策本身,有效防范用戶畫像所產(chǎn)生的新型風(fēng)險。其二,算法程序通過比較兩組相似而敏感程度不同的數(shù)據(jù),有效避免機(jī)器學(xué)習(xí)間接使用個人敏感信息作出決策的可能,從而杜絕混合資料所造成的“個人敏感信息不當(dāng)成為自動化決策的關(guān)鍵因素”的風(fēng)險。因此,應(yīng)當(dāng)圍繞用戶畫像應(yīng)用的全流程來設(shè)計制度,在整體立法框架下統(tǒng)籌協(xié)調(diào)信息、算法的規(guī)制,將個人信息治理模式、智能算法治理模式統(tǒng)一納入未來的用戶畫像基礎(chǔ)性立法。不過,現(xiàn)有立法的一些具體措施還難以滿足實(shí)踐需求。例如,由于立法沒有“用戶標(biāo)簽”概念,以及“選擇或刪除用戶標(biāo)簽”的具體實(shí)現(xiàn)路徑與效果衡量缺乏明確規(guī)定,導(dǎo)致用戶無法自主控制希望接收到的個性化內(nèi)容推薦信息的標(biāo)簽、畫像維度,用戶調(diào)控個性化內(nèi)容推薦展示相關(guān)性程度的能力實(shí)際上仍十分受限。又如,當(dāng)前的規(guī)制聚焦于算法機(jī)制機(jī)理、特征庫、標(biāo)簽制度備案說明等透明性規(guī)制,缺乏圍繞算法公平性的人為介入義務(wù)規(guī)制。需要在保證算法分析系統(tǒng)的透明化之外,探索強(qiáng)化算法決策結(jié)果的可責(zé)性,確保設(shè)計者、執(zhí)行者和監(jiān)督者彼此之間的獨(dú)立性與相互制衡,避免算法決策的自我增強(qiáng)與自我回饋效應(yīng)陷入無人察覺、難以矯正的風(fēng)險。
1. 預(yù)警原則
預(yù)警原則(the precautionary principle),即行政規(guī)制領(lǐng)域處理不確定風(fēng)險的法律原則,是指“對具有規(guī)制所需事實(shí)的不確定性、科學(xué)實(shí)驗(yàn)的不確定性等風(fēng)險議題,在缺乏證據(jù)證明損害的情形下應(yīng)盡早實(shí)施規(guī)制”[34]。依據(jù)啟動規(guī)制的門檻差異,預(yù)警原則又分為兩類:一是強(qiáng)的預(yù)警原則,即政府在面臨特定風(fēng)險時,即便無法證明因果關(guān)系,也要立即采取預(yù)警措施。二是弱的預(yù)警原則,即僅僅要求政府針對程度嚴(yán)重且不可恢復(fù)的風(fēng)險,才需要承擔(dān)主動預(yù)警的義務(wù)[35]。隨著人們風(fēng)險認(rèn)知的深化,預(yù)警原則不再限于“強(qiáng)調(diào)不確定性條件不得成為延緩規(guī)制的正當(dāng)理由,要求盡早應(yīng)對風(fēng)險”的傳統(tǒng)含義,逐漸從降低規(guī)制啟動門檻的指導(dǎo)原則轉(zhuǎn)換成審查規(guī)制程序能否有效評估、處理與應(yīng)對不確定性風(fēng)險的程序性要求。預(yù)警原則絕非對不確定性風(fēng)險的單純回應(yīng),而是涉及社會不同群體間如何整合評估與應(yīng)對風(fēng)險的決策過程,風(fēng)險規(guī)制從“專家評估—行政規(guī)制—群體溝通”的線性模式轉(zhuǎn)化為三者融合于同一程序的環(huán)形模式[36]。以往由特定專家獨(dú)占的風(fēng)險傷害幾率和嚴(yán)重性詮釋機(jī)制逐漸松動,這就為其他領(lǐng)域?qū)<遗c普通民眾參與規(guī)制標(biāo)準(zhǔn)制定、風(fēng)險評估提供了契機(jī),信息公開、正當(dāng)程序、公共參與等成為風(fēng)險規(guī)制的重要舉措。由于不確定性風(fēng)險的存在,政府對用戶畫像治理的責(zé)任離不開預(yù)警原則的支撐與指引。
首先,用戶畫像政府治理應(yīng)采取弱的預(yù)警原則。只有當(dāng)用戶畫像對公民權(quán)利、社會公共利益的潛在或者現(xiàn)實(shí)危險達(dá)到嚴(yán)重且不可恢復(fù)的程度時,政府才能啟動規(guī)制。在某些利用大數(shù)據(jù)定向推送個性化服務(wù)、智能社交推薦、企業(yè)營銷與運(yùn)營推送活動中,用戶畫像的個人信息侵權(quán)、差別對待、資料獨(dú)裁風(fēng)險發(fā)生的蓋然性較低,損害程度與范圍較小,政府若是為了確保過程安全,一概要求用戶畫像使用者舉證證明其行為的合法性,則既不符合成本效益要求,也無法達(dá)到兼顧促進(jìn)發(fā)展與風(fēng)險預(yù)防的效果。對于這類不具有重大風(fēng)險但具備發(fā)展?jié)摿Φ募夹g(shù)應(yīng)用與產(chǎn)業(yè)發(fā)展,政府應(yīng)當(dāng)寬容對待。
其次,用戶畫像政府治理應(yīng)當(dāng)構(gòu)建一套彈性健全的規(guī)制程序。社會各界對個人信息侵權(quán)、差別對待、資料獨(dú)裁風(fēng)險的認(rèn)知經(jīng)歷著由淺入深的變化,預(yù)警原則提倡風(fēng)險認(rèn)知的社會生成過程從規(guī)制程序角度不斷調(diào)整風(fēng)險規(guī)制的社會屬性與價值選擇,促進(jìn)政府更加穩(wěn)健、理性地作出決策。具體的程序機(jī)制包括:一是跨領(lǐng)域的專家參與。用戶畫像為大數(shù)據(jù)、人工智能技術(shù)的使用帶來規(guī)制的新挑戰(zhàn),凸顯出風(fēng)險規(guī)制帶有多元利益平衡的特征,因此,規(guī)制程序應(yīng)當(dāng)整合各領(lǐng)域?qū)I(yè)意見,提供跨領(lǐng)域溝通機(jī)會的參與模式,吸納法學(xué)以外的倫理學(xué)、心理學(xué)、社會學(xué)等領(lǐng)域?qū)<?。二是普通民眾的參與。在風(fēng)險評估階段,政府通過公眾參與,可知曉社會對個人信息侵權(quán)、差別對待、資料獨(dú)裁風(fēng)險的認(rèn)知程度,引導(dǎo)規(guī)制資源的有效分配[37]。在風(fēng)險管理與溝通階段,通過公眾參與確保利害關(guān)系人的意見與需求被決策程序吸納,雙方在相互交換信息與意見反饋的過程中逐步確立結(jié)果,避免政策立場過度激進(jìn)或者僵化。三是最壞情況分析,即將發(fā)生概率未知或者較小但是可能釀成重大損失的風(fēng)險納入事先考慮的應(yīng)對范圍[38]。比如,用戶畫像治理不宜忽略大數(shù)據(jù)殺熟、大數(shù)據(jù)黑名單效應(yīng)等最壞情況的發(fā)生,法律應(yīng)當(dāng)預(yù)設(shè)不同主體的責(zé)任分擔(dān)與應(yīng)對機(jī)制。四是信息反饋機(jī)制,將最新研究進(jìn)展反饋并融合于規(guī)制結(jié)構(gòu),盡量消除不確定性條件對決策的影響,確保規(guī)制措施的適時調(diào)整與優(yōu)化。
2. 國家擔(dān)保責(zé)任原則
國家擔(dān)保責(zé)任原則,即政府委托私人參與公共任務(wù)履行時,為了避免由于履行責(zé)任的轉(zhuǎn)移導(dǎo)致該公共任務(wù)不能充分實(shí)現(xiàn)或者公私利益受到侵害,國家承擔(dān)確保任務(wù)履行公平、有效、穩(wěn)定的擔(dān)保責(zé)任。行政法意義的擔(dān)保不僅包括民法意義的排除或確保無瑕疵,還擴(kuò)展到預(yù)防瑕疵的出現(xiàn)[39]。依據(jù)該原則,政府與私人組成公益責(zé)任共同體,彼此之間承擔(dān)履行公共任務(wù)的連帶責(zé)任,政府以擔(dān)保者身份保證、監(jiān)督、引導(dǎo)與調(diào)控私人實(shí)現(xiàn)公共目標(biāo)。根據(jù)德國學(xué)者的歸納,其內(nèi)涵包括三項內(nèi)容[40]:一是準(zhǔn)備責(zé)任,即政府應(yīng)當(dāng)預(yù)設(shè)法律框架控制公私協(xié)力可能出現(xiàn)的爭議,如準(zhǔn)入門檻、遴選程序等。二是監(jiān)督責(zé)任,即為了維護(hù)公共管理與服務(wù)質(zhì)量,政府依據(jù)公共任務(wù)的公益性強(qiáng)度,通過外部監(jiān)督、信息披露等方式限制私人機(jī)構(gòu)的自主性,抑制其自利偏差行為。三是承接責(zé)任,即為了避免私人機(jī)構(gòu)對公共任務(wù)的履行出現(xiàn)嚴(yán)重負(fù)面影響,要求政府承擔(dān)“補(bǔ)破網(wǎng)”的潛在履行責(zé)任。如果政府的監(jiān)督管理效果不佳,則有必要終止企業(yè)運(yùn)營或者強(qiáng)制接管。
用戶畫像自始就呈現(xiàn)“商業(yè)機(jī)構(gòu)自我規(guī)制為主、政府外部規(guī)制為輔”的特征。很多商業(yè)機(jī)構(gòu)采取平臺自身內(nèi)設(shè)治理機(jī)制的“元規(guī)制”方式,依托大數(shù)據(jù)技術(shù)運(yùn)行規(guī)則、自律檢核機(jī)制等加強(qiáng)風(fēng)險防范?!秶鴦?wù)院辦公廳關(guān)于促進(jìn)平臺經(jīng)濟(jì)規(guī)范健康發(fā)展的指導(dǎo)意見》強(qiáng)調(diào)商業(yè)機(jī)構(gòu)依法承擔(dān)與其技術(shù)能力、掌控能力相匹配的自我規(guī)制義務(wù),包括對平臺內(nèi)商戶的審查登記、信息報送和采取必要措施義務(wù)。究其原因,是由于用戶畫像及其技術(shù)應(yīng)用趨于復(fù)雜,專業(yè)性強(qiáng)且發(fā)展變化迅速,外部規(guī)制的貿(mào)然干預(yù)不但容易沖擊大數(shù)據(jù)分析、智能算法等技術(shù)原理與發(fā)展規(guī)律,而且有悖于開放競爭的法律要求。但是,用戶畫像治理作為公共任務(wù)的目的在于,通過風(fēng)險預(yù)防方式避免個人或者群體遭到用戶畫像使用者的侵權(quán)損害,尤其是智能算法帶來的差別對待和資料獨(dú)裁風(fēng)險具有隱蔽性、擴(kuò)散性,產(chǎn)生類似于公害的侵權(quán)效果。因此,政府仍要對商業(yè)機(jī)構(gòu)履行自我規(guī)制義務(wù)的結(jié)果進(jìn)行擔(dān)保,促使作為被委托主體的私人展現(xiàn)預(yù)期的規(guī)制效能。對照國家擔(dān)保責(zé)任原則,現(xiàn)有制度應(yīng)作出以下完善:一是健全商業(yè)機(jī)構(gòu)自我規(guī)制的組織與程序法律框架。在組織規(guī)范層面,政府基于公共任務(wù)需求仍應(yīng)引導(dǎo)商業(yè)機(jī)構(gòu)的人員配置與組織安排,如按照《數(shù)據(jù)安全法》設(shè)立負(fù)責(zé)數(shù)據(jù)合規(guī)的首席數(shù)據(jù)官。在程序規(guī)范層面,政府應(yīng)一方面強(qiáng)化利益回避機(jī)制,防范商業(yè)機(jī)構(gòu)由于追求私利而影響用戶畫像治理的結(jié)果公平性;另一方面,也要通過技術(shù)性規(guī)制標(biāo)準(zhǔn)的清晰化且合理化,提高商業(yè)機(jī)構(gòu)的自我規(guī)制效能。自我規(guī)制范圍應(yīng)限于違法標(biāo)準(zhǔn)十分清晰且能以技術(shù)邏輯實(shí)現(xiàn)的內(nèi)容。二是建立商業(yè)機(jī)構(gòu)自我規(guī)制的接管機(jī)制。商業(yè)機(jī)構(gòu)未能切實(shí)履行用戶畫像治理的公共任務(wù)時,政府不宜僅限于單純的事后處罰,應(yīng)當(dāng)預(yù)設(shè)適當(dāng)?shù)慕庸軛l件,親自承擔(dān)該任務(wù)或者挑選其他的適格主體。
用戶畫像正在重塑經(jīng)濟(jì)產(chǎn)業(yè)形態(tài)與社會治理規(guī)則,不可避免地帶來了個人信息侵權(quán)、差別對待等風(fēng)險,需要通過行政規(guī)制的力量來化解這些技術(shù)風(fēng)險。我國初步建立了支撐用戶畫像政府治理的法律制度,構(gòu)成政府部門的責(zé)任界限。用戶畫像的治理責(zé)任分配應(yīng)當(dāng)充分考慮發(fā)展促進(jìn)與風(fēng)險預(yù)防兩種價值的平衡,對治理模式進(jìn)行延伸迭代,協(xié)同適用“以信息主體信任為中心的個人信息治理模式”和“以算法主體責(zé)任為中心的智能算法治理模式”,并且基于預(yù)警原則和國家擔(dān)保責(zé)任原則配置具體的治理責(zé)任。
① 參見《信息安全技術(shù)—— 個人信息安全規(guī)范》(GB/T 35273—2017)第3.7條規(guī)定。
[1] HEIDEGGER M. The question concerning technology and other essays[M]. NewYork: Garland Publishing, 1977: 120?123.
[2] COOPER A. The inmates are running the asylum[M]. Indianapolis:Sams Technical Publishing, 1999: 22?25.
[3] 亓叢, 吳俊.用戶畫像概念溯源與應(yīng)用場景研究[J].重慶交通大學(xué)學(xué)報(社會科學(xué)版), 2017,17(5):82?87.
[4] RICH M. Machine learning, automated suspicion algorithms, and the fourth amendment[J]. University of Pennsylvania Law Review, 2015, 164: 871.
[5] MACCARTHY M. Standards of fairness for disparate impact assessment of big data algorithms[J]. Cumberland Law Review , 2017,48(4): 67?148.
[6] CHRISTIN A. Algorithms in practice: Comparing web journalism and criminal justice[J]. Big Data & Society, 2017, 4(2): 1?13.
[7] 宋美琦, 陳燁, 張瑞. 用戶畫像研究述評[J]. 情報科學(xué), 2019, 37(4): 171?177.
[8] 黃文彬, 徐山川, 吳家輝, 等. 移動用戶畫像構(gòu)建研究[J]. 現(xiàn)代情報, 2016, 36(10): 54?61.
[9] 張文顯. 構(gòu)建智能社會的法律秩序[J]. 東方法學(xué), 2020,79(5): 4?19.
[10] 劉艷紅. 公共空間運(yùn)用大規(guī)模監(jiān)控的法理邏輯及限度——基于個人信息有序共享之視角[J]. 法學(xué)論壇, 2020, 35(2): 5?16.
[11] 吳旭陽. 法律與人工智能的法哲學(xué)思考——以大數(shù)據(jù)深度學(xué)習(xí)為考察重點(diǎn)[J]. 東方法學(xué), 2018,63(3): 18?26.
[12] 王利明. 論數(shù)據(jù)權(quán)益:以“權(quán)利束”為視角[J]. 政治與法律, 2022(7): 99?113.
[13] 吳亮. 網(wǎng)絡(luò)中立管制的法律困境及其出路——以美國實(shí)踐為視角[J]. 環(huán)球法律評論, 2015, 37(3): 127?139.
[14] NISSENBAUM H. Privacy in context: Technology, policy, and the integrity of social life[M]. California: Stanford Law Books, 2009:220?226.
[15] 汪慶華. 人工智能的法律規(guī)制路徑: 一個框架性討論[J]. 現(xiàn)代法學(xué), 2019, 41(2): 54?63.
[16] 趙惟.加快完善數(shù)據(jù)要素市場化配置[N].人民日報, 2021?8?2(4).
[17] 凌鋒. 以數(shù)字治理助推國家治理能力現(xiàn)代化[N]. 法治日報, 2021?06?23(5).
[18] 韓鑫.“用戶畫像”, 用好更要管好[N].人民日報, 2020?7?17(4).
[19] 魯鵬宇. 法政策學(xué)初探——以行政法為參照系[J]. 法商研究, 2012, 29(4): 111?118.
[20] 陳潭, 王穎. 人工智能時代政府監(jiān)管的實(shí)踐轉(zhuǎn)向[J]. 中南大學(xué)學(xué)報(社會科學(xué)版), 2023, 29(2): 136?144.
[21] BALKIN J M. The fiduciary model of privacy[J]. Harvard Law Review, 2020,133(1): 11?33.
[22] MITTELSTADT B. From individual to group privacy in big data analytics[J]. Philosophy & Technology, 2017, 30(4): 475?494.
[23] CUSTERS B, U VRABEC H, FRIEDEWALD M. Assessing the legal and ethical impact of data reuse[J]. European Data Protection Law Review, 2019, 5(3): 317?337.
[24] 徐明. 大數(shù)據(jù)時代的隱私危機(jī)及其侵權(quán)法應(yīng)對[J]. 中國法學(xué), 2017(1): 130?149.
[25] SIMMONS R. Big data, machine judges, and the legitimacy of the criminal justice system[J]. U.C. Davis Law Review, 2018,52(2): 1067?1068.
[26] 梅立潤. 人工智能時代國家治理的算法依賴及其衍生難題[J]. 中南大學(xué)學(xué)報(社會科學(xué)版), 2022, 28(6): 123?131.
[27] DOSHI?VELEZ F, KORTZ M, BUDISH R, et al. Accountability of AI under the law: The role of explanation[J]. Electronic Journal, 2017: 1?21.
[28] BAMBAUER JANE, TAL ZARSKY.The algorithm game[J]. Notre Dame Law Review, 2018,94(1):1?25.
[29] 崔靖梓. 算法歧視挑戰(zhàn)下平等權(quán)保護(hù)的危機(jī)與應(yīng)對[J]. 法律科學(xué)(西北政法大學(xué)學(xué)報), 2019, 37(3): 29?42.
[30] 徐琳. 人工智能推算技術(shù)中的平等權(quán)問題之探討[J]. 法學(xué)評論, 2019, 37(3): 152?161.
[31] 吳亮. 政府?dāng)?shù)據(jù)授權(quán)運(yùn)營治理的法律完善[J]. 法學(xué)論壇, 2023, 38(1): 111?121.
[32] 王旭. 論國家在憲法上的風(fēng)險預(yù)防義務(wù)[J]. 法商研究, 2019, 36(5): 112?125.
[33] ZINN J. Recent developments in sociology of risk and uncertainty[J]. Historical Social Research, 2006, 31(1): 275?286.
[34] CASS R SUNSTEIN. Worst?case scenarios[M]. Massachusetts :Harvard University Press, 2009: 17?70.
[35] 黃锫. 元宇宙的行政規(guī)制路徑: 一個框架性分析[J]. 中國法學(xué), 2022(6): 175?196.
[36] BODANSKY D. Law: Scientific uncertainty and the precautionary principle[J]. Environment, 1991, 33(2): 4?44.
[37] 陳潭. 國家治理的大數(shù)據(jù)賦能:向度與限度[J]. 中南大學(xué)學(xué)報(社會科學(xué)版), 2021, 27(5): 133?143.
[38] STEPHEN TROMANS. High talk and low cunning: Putting environmental principles into legal practice[J]. Journal of Planning and Environmental law, 1995,39(2): 779, 782.
[39] 施密特·阿斯曼. 秩序理念下的行政法體系建構(gòu)[M]. 林明鏘, 等譯. 北京: 北京大學(xué)出版社, 2012: 163?174.
[40] CITRON D K, PASQUALE F. The scored society: Due process for automated predictions[J]. Washington Law Review, 2014, 89(1): 1?33.
[41] 陳愛娥. 國家角色變遷下之行政任務(wù)[J]. 月旦法學(xué)教室, 2003,3(1): 104?111.
[42] 楊登峰. 國家任務(wù)社會化背景下的行政法主題[J]. 法學(xué)研究, 2012, 34(4): 26?29.
On the government governance responsibility of the application of user portrait in commercial organizations
WU Liang
(School of Law, East China University of Science and Technology, Shanghai 200237, China)
User portraits of commercial organizations are now widely used in artificial intelligence systems, intelligent forecasting, scene recognition and other aspects. The risk of personal information infringement brought by the "monitoring based" information aggregation method, the filtering bubble effect and differential treatment risk brought by algorithm decision-making, pose new challenges to the government's user profile governance. China has initially formed a policy system for the development and governance of user profiles, and the corresponding legal framework has gradually taken shape. User profile governance responsibilities include two different modes: personal information governance and intelligent algorithm governance. The government's responsibility for user profile governance should be coordinated with the value of promoting development and preventing risks within the framework of the constitutional national protection obligation. China should extend and iterate the governance model through top-level design, promote the synergy between personal information governance and intelligent algorithm governance, and use the principles of early warning and national guarantee responsibility as the allocation principles of governance responsibilities.
user profile management; government responsibility; personal information governance; intelligent algorithm governance
2022?12?29;
2023?07?26
教育部人文社科規(guī)劃基金項目“公共數(shù)據(jù)授權(quán)運(yùn)營的行政法規(guī)制研究”(23YJA820028);上海市浦江人才計劃項目“公共數(shù)據(jù)開放的行政法問題研究”(21PJC027);上海市教育科學(xué)研究一般項目“學(xué)生網(wǎng)絡(luò)欺凌的法律防治與網(wǎng)德教育研究”(C2021013)
吳亮,男,安徽池州人,法學(xué)博士,華東理工大學(xué)法學(xué)院副教授,主要研究方向:行政法學(xué)、數(shù)字政府建設(shè),聯(lián)系郵箱:wlwulaw@ecust.edu.cn
10.11817/j.issn. 1672-3104. 2024.01.007
D922.1
A
1672-3104(2024)01?0063?13
[編輯: 蘇慧]