陳欣欣
沈陽(yáng)工業(yè)大學(xué)文法學(xué)院,遼寧 沈陽(yáng) 110870
人工智能算法以迅雷不及掩耳之勢(shì)進(jìn)入到人們的生活中,在不知不覺(jué)中,已經(jīng)成了我們生活中難以離開(kāi)的“必需品”。隨著大數(shù)據(jù)、互聯(lián)網(wǎng)、云計(jì)算等技術(shù)的發(fā)展,人工智能算法在社會(huì)中的運(yùn)用越來(lái)越普遍,與人們的生活愈加密不可分。但是人工智能算法在給我們帶來(lái)便利的同時(shí),也存在一定的自身局限性,對(duì)個(gè)人及社會(huì)的發(fā)展產(chǎn)生一定的不利影響。本文將著重對(duì)人工智能算法的局限性及其可能產(chǎn)生的對(duì)個(gè)人的不利影響和社會(huì)危機(jī)進(jìn)行法理學(xué)上的探討。
人工智能算法自身的局限性是指由人工智能算法技術(shù)特性,或者說(shuō)其內(nèi)在運(yùn)行邏輯而先天具有的局限性。它客觀存在,并不以人的意志為轉(zhuǎn)移。本文主要從算法的“機(jī)器性”及導(dǎo)向偏見(jiàn)性?xún)蓚€(gè)方面闡述人工智能算法的自身局限。
“人工智能”這個(gè)詞匯的出現(xiàn)可以追溯到20世紀(jì)50年代,將“讓機(jī)器達(dá)到這樣的行為,即與人類(lèi)做同樣的行為”稱(chēng)為人工智能。依據(jù)人工智能的發(fā)展程度,可以將之分為弱人工智能和強(qiáng)人工智能兩個(gè)不同的階段。在弱人工智能階段,人工智能更多地作為一種工具,盡管被稱(chēng)為“與人類(lèi)做同樣的行為”,但其并沒(méi)有自主學(xué)習(xí)能力,只是機(jī)械化地執(zhí)行人類(lèi)輸入的指令。而在假設(shè)中的強(qiáng)人工智能階段,現(xiàn)存的人工智能技術(shù)尚未能夠達(dá)到機(jī)器如人的程度??傮w而言,現(xiàn)在的人工智能技術(shù)雖然能夠在一定程度上進(jìn)行自主的機(jī)器學(xué)習(xí),但仍處于弱人工智能階段。
人工智能算法是當(dāng)代人工智能技術(shù)在傳統(tǒng)算法上的應(yīng)用,具有人工智能傳統(tǒng)算法的固有特征。人工智能算法在運(yùn)行中以大數(shù)據(jù)為基礎(chǔ),以其內(nèi)在的嵌入算法為手段進(jìn)行結(jié)果輸出。從現(xiàn)階段來(lái)看,人工智能算法的運(yùn)用還在相對(duì)基礎(chǔ)的機(jī)器學(xué)習(xí)階段,盡管已被稱(chēng)為“智能”,但究其根本,仍然無(wú)法脫離人的管理和運(yùn)用,算力的介入程度尚不足以改變?nèi)肆刂频幕靖窬帧1M管伴隨著技術(shù)的發(fā)展,人工智能算法因其“智能性”與傳統(tǒng)算法具有了相當(dāng)大的區(qū)別。人工智能算法已進(jìn)入深度機(jī)器學(xué)習(xí)階段,可以在一定程度上進(jìn)行自主的機(jī)器學(xué)習(xí),但就目前的人工智能技術(shù)而言,仍是更偏向于其作為算法工具的方面,難以實(shí)現(xiàn)脫離人力的控制,更難以進(jìn)化出人的自由意志和情感。
人工智能算法產(chǎn)生的結(jié)果是具有一定的導(dǎo)向性的。當(dāng)人工智能算法計(jì)算出各種個(gè)人將來(lái)可能的行為或者習(xí)慣,基于對(duì)于大數(shù)據(jù)的依賴(lài)或者信任,就會(huì)給人們一種應(yīng)該是這樣做的印象,變相地引導(dǎo)數(shù)據(jù)權(quán)主體將來(lái)的行為。即便數(shù)據(jù)是客觀的,但數(shù)據(jù)產(chǎn)生的信息也是具有導(dǎo)向性的。這樣的導(dǎo)向偏見(jiàn)性削弱了人們“哪怕遇見(jiàn)反對(duì),也能貫徹自己意志的機(jī)會(huì)”。[1]
另外,筆者認(rèn)為,人性是復(fù)雜的、是帶有感性的,并非能夠借助純粹的、冰冷的數(shù)據(jù)能夠簡(jiǎn)單地衡量。人或許不會(huì)時(shí)刻表示出善意,或許借助冰冷的人工智能算法去推斷人的行為會(huì)得出冷漠的結(jié)果,但那只是人在平常狀態(tài)下表現(xiàn)出的一個(gè)側(cè)面,并非全部人性的反映。
人工智能算法的導(dǎo)向偏見(jiàn)還表現(xiàn)在會(huì)產(chǎn)生劣勢(shì)累積。上一輪算法的運(yùn)算結(jié)果會(huì)成為新一輪算法運(yùn)算的起始數(shù)據(jù),一旦算法數(shù)據(jù)信息主體在某一方面具有“污名化”[2]的相關(guān)信息,就會(huì)在后續(xù)的人工智能運(yùn)算中不斷地重復(fù)計(jì)入,致使數(shù)據(jù)權(quán)主體在某一方面的行為可能影響到并不應(yīng)當(dāng)受到影響的社會(huì)生活中的其他方方面面,不斷地放大已有的社會(huì)偏見(jiàn)。
從法理學(xué)的角度出發(fā),人工智能算法改變了傳統(tǒng)社會(huì)中人們的行為方式、選擇方式甚至是思維方式等,直接對(duì)個(gè)人權(quán)利和意志自由產(chǎn)生影響,可能對(duì)個(gè)人的權(quán)利和意志自由造成侵犯。本文從個(gè)人權(quán)利和意志自由兩個(gè)方面探討人工智能算法可能產(chǎn)生的危機(jī)。
1.人工智能算法對(duì)用戶(hù)行為的助推。正如在超市中,一些特價(jià)商品等會(huì)放在顯眼的位置,使進(jìn)入超市的人們能夠在進(jìn)入購(gòu)物區(qū)域的時(shí)候,以最方便的姿態(tài)看到,從而增加顧客選購(gòu)的幾率。人工智能算法亦有同樣的工作機(jī)理,平臺(tái)對(duì)用戶(hù)進(jìn)行個(gè)性化的廣告定制,將依據(jù)人工智能算法不斷演算而來(lái)的個(gè)人偏好作為“二次售賣(mài)”的標(biāo)的,將之出售給商家進(jìn)行廣告的投放從而營(yíng)利。
2.人工智能算法運(yùn)用,相當(dāng)于為原本平等的法律主體一方加上了更多的信息資源等便利,這無(wú)疑會(huì)對(duì)法律關(guān)系中的另一方的平等權(quán)造成侵犯。在傳統(tǒng)法治環(huán)境中,人與人之間交流的基礎(chǔ)是平等關(guān)系。人工智能算法的運(yùn)用在事實(shí)上產(chǎn)生了一種算法權(quán)力,這種算法權(quán)力的產(chǎn)生會(huì)造成傳統(tǒng)法治環(huán)境中原本平等的法律關(guān)系在事實(shí)上具有不平等性。
3.人工智能算法算力的基礎(chǔ)是大數(shù)據(jù),對(duì)于大數(shù)據(jù)的收集、整理和結(jié)果運(yùn)用都可能對(duì)個(gè)人的隱私權(quán)造成侵犯。人工智能算法建立在大數(shù)據(jù)運(yùn)算的基礎(chǔ)之上,不可避免地要對(duì)個(gè)人的信息進(jìn)行收集。算法數(shù)據(jù)權(quán)主體的一些基本信息,包括各種有意的行為,甚至無(wú)意的習(xí)慣,都可能會(huì)被算法吸收,加入計(jì)算的行列。這種人工智能算法的運(yùn)用,致使原本暴露在社會(huì)中的無(wú)意義的行為,經(jīng)過(guò)數(shù)據(jù)分析和規(guī)律總結(jié),定性人在過(guò)去、現(xiàn)在、未來(lái)的行為和習(xí)慣,進(jìn)一步侵犯人的隱私權(quán)。
人工智能算法的廣泛運(yùn)用會(huì)產(chǎn)生對(duì)個(gè)人意志自由的侵犯。人工智能算法會(huì)通過(guò)各種方式對(duì)人的意志自由進(jìn)行說(shuō)服,從而達(dá)到更大盈利的目的;會(huì)使人受困于信息繭房,侵犯?jìng)€(gè)人獲取信息的通道,進(jìn)而侵犯?jìng)€(gè)人的意志自由,甚至使人的身心健康受到不良影響;會(huì)弱化人的思考能力,使人的個(gè)人意志的獨(dú)立性受到侵害。
1.人工智能算法對(duì)人的說(shuō)服。通過(guò)對(duì)使用者行為的方式、習(xí)慣等不斷地推演計(jì)算,以獎(jiǎng)賞或者懲罰或者其他方式對(duì)人的行為進(jìn)行規(guī)訓(xùn),確保用戶(hù)行為能夠更加符合自身利益。例如,在有的購(gòu)物平臺(tái),會(huì)在用戶(hù)長(zhǎng)期不購(gòu)買(mǎi)商品的時(shí)候給予紅包或者優(yōu)惠券等,促使用戶(hù)進(jìn)行購(gòu)物;會(huì)對(duì)退貨率高的用戶(hù),提高運(yùn)費(fèi)險(xiǎn)的購(gòu)買(mǎi)費(fèi)用等,從而對(duì)用戶(hù)的行為進(jìn)行規(guī)訓(xùn),達(dá)到更佳的營(yíng)利目的。
2.強(qiáng)大的計(jì)算和信息推送功能,給人們帶來(lái)方便的同時(shí),也使人受困于信息繭房,對(duì)人的身心健康產(chǎn)生不良影響。一旦用戶(hù)搜索過(guò)某種信息,就不斷為其推送相關(guān)信息。現(xiàn)在諸多短視頻平臺(tái)、購(gòu)物平臺(tái)、社交平臺(tái)等,為了提高效率、達(dá)到為了更有效營(yíng)利以及服務(wù)用戶(hù)等目的,都會(huì)運(yùn)用算法精準(zhǔn)推送。用戶(hù)搜索過(guò)的信息、瀏覽過(guò)的廣告等都會(huì)成為人工智能運(yùn)算的素材,會(huì)在接下來(lái)的用戶(hù)使用中不斷推送。在有些情況下,即便用戶(hù)搜索過(guò)的是不良信息,甚至違法信息,大數(shù)據(jù)也并不就此做出識(shí)別,繼續(xù)為用戶(hù)提供相關(guān)信息。或許人們?nèi)ニ阉髂撤N信息只是出于獵奇心理,或者只是為了了解某方面的東西,但人工智能算法并沒(méi)有價(jià)值導(dǎo)向,只會(huì)在歷史上出現(xiàn)過(guò)關(guān)鍵詞的情況下,不斷地繼續(xù)推送相關(guān)信息,即便是具有不良引導(dǎo)性的甚至是違法的信息。在諸如此類(lèi)的情況下,人工智能算法對(duì)個(gè)人意志自由的侵犯極有可能引導(dǎo)個(gè)人身心朝著不良方向發(fā)展。
3.人工智能算法對(duì)于個(gè)人意志自由的侵犯還表現(xiàn)在過(guò)度依賴(lài)算法,會(huì)弱化人深入思考的能力。在傳統(tǒng)生活中,我們通過(guò)觀察、思考、邏輯推理等進(jìn)行的社會(huì)活動(dòng),在人工智能算法的干預(yù)之下,不再需要進(jìn)行深入的思考便能得出甚至是更優(yōu)質(zhì)的結(jié)論,這無(wú)疑會(huì)降低人與人之間溝通的意愿,弱化社會(huì)溝通,減少人們深入思考的機(jī)會(huì),侵犯人們的意志自由。
我國(guó)人口眾多,擁有豐厚的數(shù)據(jù)資源。大量的數(shù)據(jù)可以被數(shù)據(jù)使用者輕易地獲取、收集、運(yùn)用。這無(wú)疑促進(jìn)我國(guó)人工智能算法的前沿發(fā)展,進(jìn)而也可能產(chǎn)生一系列的由人工智能算法引發(fā)的與我國(guó)國(guó)情相關(guān)的社會(huì)危機(jī)。本文從人工智能算法對(duì)社會(huì)正義觀的影響和人的主體性地位兩個(gè)方面進(jìn)行討論。
社會(huì)的存在和發(fā)展需要有“正義”的存在。我們?cè)陂L(zhǎng)期的社會(huì)生活中經(jīng)過(guò)不斷的價(jià)值取舍,最終形成了我們當(dāng)下的正義觀。社會(huì)追求利益最大化,又用平等、公平、誠(chéng)信等原則去調(diào)整社會(huì)關(guān)系,才得以促進(jìn)社會(huì)和諧有序的發(fā)展。這種和諧有序的發(fā)展建立在“你的權(quán)利止于我的鼻尖”的基礎(chǔ)之上,建立在人與人之間是平等的主體地位之上,并不以某種非正當(dāng)觀點(diǎn)持有人數(shù)的多寡而改變。
人工智能算法歸根究底仍然是一種人創(chuàng)之物,一種沒(méi)有善惡價(jià)值觀的機(jī)器。它只能按照程序設(shè)定的目標(biāo)進(jìn)行計(jì)算,并導(dǎo)出由之而產(chǎn)生的結(jié)果。這樣的結(jié)果并沒(méi)有接受現(xiàn)實(shí)中社會(huì)價(jià)值觀的檢驗(yàn),只是由講求效率和利益的算法推算而來(lái)。但其作為結(jié)果產(chǎn)出,必然又會(huì)形成價(jià)值導(dǎo)向。即一種觀點(diǎn),即便并非完全符合傳統(tǒng)正義觀,但在基于大數(shù)據(jù)的人工智能算法結(jié)果之下,很容易造成“大家都一樣”的假象,形成群組正義觀,產(chǎn)生“少數(shù)服從多數(shù)”“法不責(zé)眾”的現(xiàn)象,對(duì)傳統(tǒng)正義觀形成侵犯。盡管時(shí)代發(fā)展可能產(chǎn)生價(jià)值觀甚至正義觀的改變等,但人工智能算法即便是建立在大數(shù)據(jù)的基礎(chǔ)之上,就整個(gè)社會(huì)整體而言,也很難說(shuō)是涵蓋了整個(gè)社會(huì)大部分人的觀點(diǎn),遑論足以改變社會(huì)價(jià)值取向的整個(gè)社會(huì)的觀點(diǎn);而且,涵蓋的人數(shù)多,也不能代表其正當(dāng)性。
人工智能算法不斷地發(fā)展進(jìn)步,其機(jī)器學(xué)習(xí)算法越來(lái)越深入,已經(jīng)存在算法能夠“脫離”算法設(shè)計(jì)師的操控,能夠進(jìn)行自我學(xué)習(xí)和自我完善,這使得人工智能算法具有一定的自主性。而人工智能算法將人的行為、習(xí)慣等作為數(shù)據(jù)進(jìn)行計(jì)算,又為現(xiàn)實(shí)生活中的人披上了一層算法的外衣,具有了特定的算法身份,人在算法中不是目的,也不是手段,只是數(shù)據(jù)。
1.人工智能算法出現(xiàn)使人客體化?,F(xiàn)代社會(huì)是以人的主體性為基礎(chǔ)構(gòu)建起來(lái)的社會(huì)。“是一個(gè)強(qiáng)調(diào)個(gè)人主義、理性主義和人道主義的社會(huì),它要求在人的生活領(lǐng)域全面貫徹個(gè)人主義、理性主義和人道主義等基本原則?!盵3]但人工智能算法的工作機(jī)理是將人視為可計(jì)算的客體,在人工智能算法的視角之下,人的所有行為習(xí)慣都只是一系列可以計(jì)算并從中得出結(jié)論的數(shù)字。這在事實(shí)上以人工智能算法為基礎(chǔ)構(gòu)建了一種不同于人的現(xiàn)實(shí)身份的算法身份,依據(jù)數(shù)據(jù)權(quán)主體的行為和習(xí)慣推演而來(lái),以人工智能算法運(yùn)算目的為導(dǎo)向,重新在算法中定義人的身份地位。在人工智能算法的框架中,人既不是消費(fèi)者也不是員工,人的價(jià)值在于生產(chǎn)數(shù)據(jù)和累積行為剩余。[4]
2.人工智能的有限自主性。人工智能算法的“智能性”使其具有且不斷地更加具有人的屬性。正如笛卡爾所說(shuō)“人是一棵會(huì)思考的蘆葦”,思維能力是人區(qū)別于他物而具有主體性的重要原因,人工智能算法的機(jī)器學(xué)習(xí)不斷深化,愈來(lái)愈趨近于人類(lèi),這無(wú)疑對(duì)人的主體性提出了挑戰(zhàn)。現(xiàn)在已經(jīng)存在深度機(jī)器學(xué)習(xí)算法,能夠脫離算法設(shè)計(jì)師的操控,在原始數(shù)據(jù)的基礎(chǔ)上,不斷地進(jìn)行自我完善和自我升級(jí),越來(lái)越符合“思考”的定義,越來(lái)越具有人的特性。
人工智能算法在我們現(xiàn)在的社會(huì)中已經(jīng)不可或缺。它大大地便利了我們的生活,使我們?cè)趯W(xué)習(xí)、工作、生活中的效率大大提升。社會(huì)生活發(fā)展到現(xiàn)在,重視算法并有效利用算法,是提高生產(chǎn)力水平的重要手段。但是,我們也不得不注意隨著新興技術(shù)的產(chǎn)生而出現(xiàn)的一系列危機(jī),我們要隨著新技術(shù)的出現(xiàn)和生產(chǎn)力的提高而不斷變化我們的生產(chǎn)關(guān)系和上層建筑,但這必須建立在基于社會(huì)實(shí)踐和歷史經(jīng)驗(yàn)等的不斷反思和探討之上。