李晶
【關鍵詞】人工智能;算法歧視;憲法平等;挑戰(zhàn)及應對
在計算機領域中,算法是一種利用復雜的控制架構實現(xiàn)運算的方式。簡而言之,就是對某個特定的對象,將特定的指令錄入軟件中,再由該指令進行計算,得出最終的結果。它具有通用性、有效性、有窮性、確切性等特點,通用性是指可反復使用的,有效性是指可實現(xiàn),有窮性是指算法的運算步驟是有限制的,而確切性是指算法的每一步驟都有確切的意義。這些特點保證了該方法的可用性和易用性,而且該方法可以突破人類的計算量限制,做出科學、高效的決策,因此受到了很多人的歡迎,一些人甚至相信,這種方法可以“包治百病”,給人類做出最好的決策。
“算法”無疑是一柄“雙刃劍”,其在一定程度上放大了人類的歧視,損害了民主政治、平等文化、和諧社會與綠色生態(tài)、市場經(jīng)濟和諧發(fā)展。無論是在道德和法制方面,都有嚴格的規(guī)定禁止歧視,包括算法上的歧視。由于存在于資本內(nèi)部的算法歧視,破壞了市場的穩(wěn)定,因此必須對此加以規(guī)范,政府也對此情況尤為重視,進行了有力的監(jiān)管。例如,在2021年4月16日,阿里巴巴被處以182億元的行政罰款,而在2021年的4月26日,美團以“二選一”等壟斷方式被發(fā)起訴訟,唯品會、百度、騰訊等網(wǎng)絡公司,都因為壟斷而遭到了懲罰。就我國現(xiàn)行的反算法歧視而言,雖然已有不少學者對其進行過相關的探討,但其在立法層面上的指導作用并不顯著。我國《憲法》在平等原則上為規(guī)制算法歧視提供了憲法的依據(jù),平等原則作為憲法的基本內(nèi)涵,[1]充分利用其憲法功能,為我國的反歧視制度與國家治理體系的建設和管理水平的現(xiàn)代化,提出了具有憲法意義的價值導向,從而推動反算法歧視問題的治理有效性。
偏見代理的算法歧視,就是利用個體識別數(shù)據(jù)的延伸,利用各種相關性和特征的關聯(lián)性,從而實現(xiàn)了對個體的歧視,甚至造成不公正的結果。算法出現(xiàn)歧視性后果,并非是算法制定者的故意而為,而是由于他們在設定算法時邏輯有很大的缺陷,從而使得理性和感性因素的混合造成了歧視性的結果。
算法的決策與預測都是以基本的數(shù)據(jù)的客觀性和中立性為依據(jù)的。但是,實際情況中也出現(xiàn)了行為與當事人沒有對應的情形,從而導致在這種情形下進行算法實際上是不公平也不正確的。針對因數(shù)據(jù)偽造而造成的算法歧視,其關鍵是要對其進行嚴格的數(shù)據(jù)審核。面對大量的信息,應該讓那些使用算法篩選的人來負責,基于他們自己的構建基礎增加找出差錯的可能性。[2]
因為大多數(shù)情況下,雖然有人愿意去維護自己的權益尋求法律對個人信息保護的救濟,但個人的訴訟成本、提供證據(jù)還是證明因果關系,都很難向法院提起侵權之訴,[3]付出的成本與收益并不相符,很多人可能更傾向于放棄,這使得算法決策者懷有很強烈的僥幸心理。哪怕有一小部分維權者,也能用大多數(shù)人的虧損來彌補?!秱€人信息保護法》第8條明確指出,審查機構必須保證信息的安全性,但并未明確規(guī)定是否僅限于使用算法進行信息的加工,同時由于很多公司將信息處理分包給別的公司,導致了信息保障是由兩方共同承擔或僅由一方承擔也不甚明確。但從保護個人信息和隱私的角度,個人信息一經(jīng)傳遞至其他公司,無論它是否要對信息進行處理,都負有保障信息不外泄的安全責任。
原本人類在對各項事務擁有決策權,算法產(chǎn)生以后大數(shù)據(jù)的收集使得一些信息內(nèi)部存在著邏輯關系,數(shù)據(jù)來源于社會,社會差異化的背景下反映社會特征的數(shù)據(jù)本身是有差異的,例如美國刑事犯罪預測算法,可能更會將黑人或黑人聚集地區(qū)劃分為犯罪風險更高的地區(qū),[4]所以在社會本身就是存在歧視和偏見的。偏見代理算法歧視中更是夾雜了算法設計者自身的特點,如其個人的喜好,價值觀念和固有邏輯都會在算法編輯中呈現(xiàn),他所關注和收納的大數(shù)據(jù)本身的偏見和歧視夾雜著自身的邏輯體系,在算法的運作中將展現(xiàn)的淋漓盡致,這就大大增加了被決策對象的質(zhì)疑。
基于偏見代理的算法歧視,算法決策者并不會主動將主觀的價值植入算法中,之所以會有歧視性的產(chǎn)生,很大程度上是因為算法不透明或者審查問題。偏見代理型算法歧視呈現(xiàn)出“中立進—偏見出”的運行特征,即決策者在算法機器中輸入了中立的數(shù)據(jù),卻得出了帶有歧視性的結果。所以,僅對社會和經(jīng)濟利益作出決策,其方式和目的如果都是合理的,屬于差異化的合理范圍;但在涉及公民各項基本權利的情況下,對偏見代理的算法歧視應進行嚴格的審核,加強數(shù)據(jù)更新的監(jiān)督體系,國務院也在2017年制定了《新一代人工智能發(fā)展規(guī)劃》,其中就強調(diào)在人工智能快速發(fā)展的時期,要用好人工智能這把“雙刃劍”,高度重視人工智能可能帶來的風險,確保人工智能安全、可靠、可控發(fā)展。
特征選擇型算法歧視采取了“偏見進—偏見出”的運行模式,即決策者在算法機器中直接輸入諸如種族、性別等帶有偏見的信息,以求得出帶有偏見的計算結果。特征選擇算法歧視的決策是以海量的數(shù)據(jù)為基礎的,由于它的分析標準的選取、分類、賦值等都是人為地設定的,并且摻雜了人的主觀意志,所以造成了算法上的歧視。[5]特征選取的歧視將具有歧視含義的敏感性信息直接導入系統(tǒng)中,這是傳統(tǒng)的歧視方式在互聯(lián)網(wǎng)上的體現(xiàn),與以往的歧視相比,僅僅介入了大數(shù)據(jù)、算法等因素。
算法的預測就是利用過去對將來進行預言,算法預測模型看似是對將來的,實際上也是對過去的。[6]例如,用不同所有者不同品牌的手機打開某購物APP搜索關鍵詞“電飯鍋”,就會發(fā)現(xiàn)后臺推送的“電飯鍋”數(shù)據(jù)和排名不盡相同,綜合分析在此購物網(wǎng)站消費等級越高的手機所有者,其搜索“電飯鍋”結果的前幾名價格越高,消費等級越低或者沒有在此網(wǎng)站消費過的手機所有者則被推送的是價格平價的“電飯鍋”產(chǎn)品。不難看出,簡單的產(chǎn)品搜索行為也會因為消費者的消費等級、消費習慣或消費偏好而不同,后臺推送時會加強對被納入該類別的個體的調(diào)查與研究,有時也會收集其負面訊息。例如,在谷歌搜索引擎搜索黑人姓名時,除了出現(xiàn)馬丁·路德·金的介紹外,出現(xiàn)的大多是關于黑人犯罪的新聞條目,這正是基于算法偏見的導向性而得出的結果。出現(xiàn)馬丁·路德·金的介紹也很難消除由這些算法造成的歧視,他們只會把這些杰出的個人看作是一個意外,而不會考慮個體積極因素的影響,這一事件展現(xiàn)出谷歌對黑人群眾平等權的侵害。
特征選擇算法只有在基于特定人考慮的情況下做出選擇,才符合合理差別待遇,而其他特征選擇算法則明顯違背了憲法規(guī)定的平等內(nèi)涵。所以對于算法的管控,還是要先從算法決策者的角度進行規(guī)制,畢竟收集大量的數(shù)據(jù)最后還是要進行算法的處理,算法歸根結底還是人類的智慧,[7]2019年我國實施的《電子商務法》第二章通過規(guī)定電子商務經(jīng)營者的權利義務來實現(xiàn)對算法運用行為的監(jiān)管。 針對算法歧視,首先,我們依然可以遵循“用規(guī)制人的思路來規(guī)制算法”,建構針對性的抑制算法偏見的監(jiān)管機制,要求監(jiān)管機關對平等權的算法侵害進行嚴查,其次,當公民的平等權受到算法侵害時,應當有訴訟途徑可以要求侵害者停止侵害、消除影響、賠償。
大數(shù)據(jù)“殺熟”是一種典型的算法偏見。大數(shù)據(jù)“殺熟”型算法歧視主要表現(xiàn)在通過對計算機過往數(shù)據(jù)不斷進行學習,然后采取價格歧視、特定推送等手段,實現(xiàn)“同物不同價”目的。例如,兩個人使用不同品牌手機在同一款旅游APP搜索同一家酒店,手機顯示出的價格大不相同,不常使用這款APP的消費者搜索到的房間價格要比經(jīng)常使用此款APP的消費者的價格要低,這是因為平臺根據(jù)消費者的使用習慣,故意利用“大數(shù)據(jù)”殺熟;此外,兩個不同品牌手機在某APP會員的收費也不相同,高級手機要支付更多的費用。
價格歧視分為三級,一級價格歧視在現(xiàn)實中比較少見,有觀點認為基于大數(shù)據(jù)和算法,平臺可以根據(jù)每個消費者的習慣、偏好、購買歷史等進行用戶畫像,實現(xiàn)“一人一價”,“大數(shù)據(jù)殺熟”接近于一級價格歧視。[8]當消費者在日常討論自己的商品喜好或者購買意向時,經(jīng)常會出現(xiàn)打開手機購物軟件就會出現(xiàn)剛談論過的商品或廣告,從而引起人們的注意,這很大程度上屬于商家通過監(jiān)聽獲取到的相關數(shù)據(jù),這種商業(yè)競爭行為這種貌似合情合理,但其實已經(jīng)嚴重違反了憲法的平等原則,也嚴重侵犯了公民的隱私權。價格歧視,這種不特定人群付出比其他人更多代價的價格歧視,實則與《憲法》中規(guī)定的平等內(nèi)容相違背,并且它違背了同品同價、同質(zhì)同價的市場交易的普遍規(guī)律。
通常我們在醫(yī)院因為取藥處不提供塑料袋,不得不向旁邊自助免費取袋機求助,掃過二維碼之后的一番操作看似簡單,雖然滿足了用戶的需求,但在不知不覺間用戶的個人信息已經(jīng)被采集,這些信息對于用戶而言并無太多價值,但對于采集平臺而言卻是極具價值。用戶的信息在不斷采集中,后臺也逐步完成了用戶的畫像,平臺利于日趨完善的用戶畫像精準推送各類廣告信息,從而產(chǎn)生巨大經(jīng)濟價值。
算法歧視具有潛在性,即高價購買者不會意識到存在低價購買者的真實情況。在這些消費者來看,低價格是不存在的,其實這就等于剝奪了知情的權利和選擇的權利,這不是一種合理的差別對待,而是一種不公平的待遇。類似的,特定推送其實是根據(jù)人們的搜索、聊天等自身的活動進行推送,但也不能完全排除了算法決策者利用一些關聯(lián)來進行歧視。所以,當特定推送僅僅是為了定制化服務,就應該給用戶一個明確的提示,告知用戶這個特定推送是一種普通的技術,不會違背平等原則。對于用戶而言,因為信息的采集較為隱秘,所以導致用戶無從得知自己授權的個人信息是否超過了必要的限度,用戶也無法知曉個人信息的實際用途及其利用是否合理。[9]
越來越多學者認為對應大數(shù)據(jù)“殺熟”應主要從算法規(guī)制和個人信息保護兩方面著手,我國在信息保護方面也制定了相關的法律,《個人信息保護法》13-18條規(guī)定,在處理個人信息時,個人信息處理者方必須征求信息所有者的同意。2020年10月正式施行的《在線旅游經(jīng)營服務管理暫行規(guī)定》第十五條中也有明確要求:“在線旅游經(jīng)營者不得濫用大數(shù)據(jù)分析等技術手段,基于旅游者消費記錄、偏好等設置不公平的交易條件,侵犯旅游者合法權益”。與此同時,加強個人信息的保護,避免平臺對信息的濫用也尤為重要,宣傳消費者享有的各項數(shù)據(jù)信息權利,加大自身對個人信息的保護重視程度,勸導消費者在網(wǎng)上下單前多進行比較,擇最優(yōu)價格購買。如發(fā)現(xiàn)大數(shù)據(jù)“殺熟”現(xiàn)象已經(jīng)存在,可以采用反向用戶畫像的方法,如卸載相關“殺熟”軟件;搜索不相關的信息;換其他用戶名重新登錄等方式,增強自身權益保護意識,主動打破算法歧視帶來的不平等。
雖然算法在不知不覺間已經(jīng)對人們的生活產(chǎn)生了深遠的影響,但是這項技術卻不能絕對地保持價值中立。雖然它對于便利人們的生活起到了至關重要的作用,但是也必須闡明它有可能會侵犯人的基本權利。偏見代理、特征選擇以及數(shù)據(jù)“殺熟”的三種形式的算法歧視,對憲法中的平等原則提出了挑戰(zhàn)。由于算法的歧視確實存在,而且其隱藏程度很高,因此必須明確判斷的標準,隨時關注它是否屬于合理差別對待范疇,還是對平等權構成了威脅。算法歧視問題使算法無法充分發(fā)揮其積極效用,損害了用戶之間的平等權與商家的利益,給下一步人工智能發(fā)展中的算法進步帶來了阻力。
針對由算法歧視引起的公平問題,首先要規(guī)范平臺和平臺內(nèi)商家的定價行為,監(jiān)督平臺制定透明的價格規(guī)則,讓消費者自由選擇,保障消費者的知情權。二是重視對現(xiàn)有平臺經(jīng)營行為的監(jiān)督,實現(xiàn)政府、媒體等對平臺的第三方聯(lián)合監(jiān)管;三是要加強對大數(shù)據(jù)的監(jiān)管,督促算法決策者對大數(shù)據(jù)的不斷更新和優(yōu)化,以客觀公正的態(tài)度維護市場競爭的良好秩序;四是提高用戶防范意識,嚴格把控手機的相關權限,提高警惕性和維權的意識。五是進行算法歧視治理法律制度的具體建構,公平作為算法的核心價值,應該要求主管機關出臺相應政策予以規(guī)制。