国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能道德算法的問題及出路

2023-08-28 01:35朱奕帆丁慧鄭文學(xué)
關(guān)鍵詞:人工智能

朱奕帆 丁慧 鄭文學(xué)

摘 要:隨著人工智能對(duì)人類社會(huì)影響的普遍化,其倫理問題已成為政界、業(yè)界、學(xué)界和公眾共同關(guān)注的話題。決策算法是人工智能相關(guān)技術(shù)的核心,如何保證智能程序所作出的決策符合人類社會(huì)的道德標(biāo)準(zhǔn),是值得深入思考的問題。探討這一哲學(xué)論題,應(yīng)在對(duì)柏拉圖悖論內(nèi)涵進(jìn)行梳理的基礎(chǔ)上,從法哲學(xué)的角度探尋對(duì)人類社會(huì)道德評(píng)判標(biāo)準(zhǔn)所具有的意義,進(jìn)而通過類比機(jī)器思維與人類思維的映射關(guān)系,找出柏拉圖悖論這一哲學(xué)問題與人工智能道德算法在利益衡量問題上出現(xiàn)的困境,對(duì)其成因進(jìn)行深入分析,找出解決困境的方法。

關(guān)鍵詞:人工智能;道德算法;柏拉圖悖論;問題及出路

中圖分類號(hào):D90;TP18

文獻(xiàn)標(biāo)識(shí)碼:ADOI:10.13411/j.cnki.sxsx.2023.03.012

The Problems and Solutions of Artificial Intelligence Moral Algorithms

——Starting from Platos Paradox

ZHU Yi-fan1a, DING Hui2, ZHENG Wen-xue1b

(1.Dongbei University of Finance and Economics,a.College of Marxism; b.College of Humanities and Communication, Dalian 116025, China; 2.School of Law, Liaoning Normal University, Dalian 116029, China)

Abstract:With the universalization of AIs impact on human society, its ethical issues have become a topic of common concern among the politicians, industry, academia and the public. As the core of artificial intelligence- related technologies, how to ensure that the decisions made by intelligent programs meet the moral standards of human society is a problem worthy of in-depth consideration. On the basis of sorting out the connotation of Platos paradox, we should explore the significance of moral evaluation standards in human society from the perspective of legal philosophy. Then, by analogizing the mapping relationship between machine thinking and human thinking, we can identify the philosophical problems of Platos paradox and the dilemma of artificial intelligence moral algorithms in weighing interests, analyze its causes in depth, and find ways to solve the dilemma.

Key words:artificial intelligence; moral algorithms; Platos paradox; problems and solutions

柏拉圖悖論是起源于法學(xué)方法論的一個(gè)法哲學(xué)問題,自19世紀(jì)開始發(fā)展法哲學(xué)研究以來,歷經(jīng)許多階段,從早期的薩維尼方法論抑或是以耶林、普赫塔為代表的19世紀(jì)“概念法學(xué)”,到20世紀(jì)以新康德主義為代表的法哲學(xué)均對(duì)其進(jìn)行了探索。對(duì)于研究人類社會(huì)道德評(píng)判標(biāo)準(zhǔn)而言,進(jìn)行法學(xué)方法論的研究的最終目的是解決“法學(xué)思想中確定性之喪失”①的問題,哈弗爾卡特認(rèn)為,法學(xué)方法的選擇是具有任意性的,人們對(duì)于法學(xué)方法的選擇僅僅是要滿足于“可辯護(hù)的(vertretbaren)”或“能夠達(dá)成合意(consensus able)”的答案,而不是尋求一個(gè)在認(rèn)識(shí)上精確妥當(dāng)?shù)拇鸢?,某些法學(xué)家們甚至將社會(huì)科學(xué)視為唯一的、可以期待從中得到對(duì)自身而言具有重要知識(shí)的科學(xué)。這便導(dǎo)致了在法律評(píng)判的過程中,存在著不同的法學(xué)理論與方法論,并且遵循不同的法學(xué)理論與方法論進(jìn)行評(píng)判所得出的結(jié)論也大相徑庭。正如“利益法學(xué)利益法學(xué)派是現(xiàn)代資產(chǎn)階級(jí)法學(xué)派別之一,屬于社會(huì)學(xué)法學(xué)派的一個(gè)支派,該學(xué)派20世紀(jì)初在德國興起。利益法學(xué)派主要代表人是德國的赫克(1858-1943)、施托爾 (1891-1937)和埃爾茨巴赫(1874-1959)。該派主要觀點(diǎn)是反對(duì)傳統(tǒng)的概念論和形式主義法學(xué)觀點(diǎn),即假定現(xiàn)行法律制度是沒有漏洞的,法官只要通過適當(dāng)?shù)倪壿嬐普摚涂梢詮默F(xiàn)行的實(shí)在法演繹出正確的判決。利益法學(xué)派強(qiáng)調(diào)法官應(yīng)注意平衡各種相互沖突的利益?!迸c“價(jià)值評(píng)判法學(xué)價(jià)值評(píng)判法學(xué)認(rèn)為司法判決“究其本質(zhì)而言,應(yīng)該適用法律的價(jià)值判斷,而不能根據(jù)法官自己的價(jià)值判斷來作出”。這也是韋斯特曼(H.WESTERMANN)與吉爾曼(GERMANN)所秉持的觀點(diǎn),兩者分別在著述《民法中法官判決的本質(zhì)及界限》《法發(fā)現(xiàn)中的問題與方法》表述了這一觀點(diǎn)。持相同觀點(diǎn)的還有萊因哈德、科英以及科龍施泰因。”之爭,價(jià)值標(biāo)準(zhǔn)的不同導(dǎo)致了雖然評(píng)判結(jié)果可能是對(duì)立的,但兩種結(jié)論都是符合法學(xué)方法論內(nèi)涵的“正確結(jié)論”。事實(shí)上,任何對(duì)于道德評(píng)判的探索都是基于對(duì)人類已有的標(biāo)準(zhǔn)的研究,“法”即是這樣一種極為復(fù)雜的對(duì)象,不僅不同的單一學(xué)科研究它,哲學(xué)也研究它,在科技創(chuàng)新日益快速發(fā)展的今天,人工智能領(lǐng)域也要研究它。

通常意義上來講,每一種科學(xué)都使用某些方法和研究范式,以獲得它所提出的那些問題的答案。那么,對(duì)于法科學(xué)(Rechtswissenschaft)來講,這種在特定歷史形成的法律秩序框架中運(yùn)行的并以這種法律秩序?yàn)榛A(chǔ)來致力于解決法律問題的科學(xué),我們將其稱為法學(xué)(Jurisprudenz)。源自于德國法學(xué)家卡爾·拉倫茨在其著作《法學(xué)方法論》中對(duì)“法學(xué)”一詞所作的定義。然而,這一內(nèi)涵僅僅能夠解釋廣義上的法學(xué)是一種怎樣的科學(xué),卻無法對(duì)于更為狹義上的法科學(xué)(或法學(xué))作出解釋。因此,我們可以進(jìn)一步地認(rèn)為,沒有法哲學(xué),法學(xué)方法論則根本無法立足,沒有對(duì)于法學(xué)方法論的研究,則一切對(duì)于人類道德評(píng)判標(biāo)準(zhǔn)的研究也不會(huì)顯得根基穩(wěn)固。對(duì)于智能算法而言,是適用既定規(guī)則作出“正確(correct)”的決定?或者是應(yīng)該努力做出一項(xiàng)“正當(dāng)(proper)”的決定?我們又從何判定一項(xiàng)人工智能算法所作出的決定“正當(dāng)”與否呢?

回顧法學(xué)方法論這門學(xué)科近180年的歷史,回顧薩維尼(SAVIGNY)、耶林(JHERING)、赫克(HECK)以及凱爾森(KELSEN),雖然這些人的思想之間差異極大,但卻有一個(gè)相同的問題貫穿其間,簡而言之即法的效力“法的效力”即法的約束力,指人們應(yīng)當(dāng)以法律規(guī)定的行為模式來行為,是一種必須予以服從之力。概念與法的實(shí)證性概念;法的規(guī)范性與法的實(shí)然關(guān)聯(lián)性(Seinsbezogenheit);立法、司法以及學(xué)說在法的形成中的作用;以及法的科學(xué)性的概念關(guān)于這種連續(xù)性,在后自然法時(shí)代的法學(xué)理論和方法論被認(rèn)可得更深入的探討乃是由拉斐爾·迪·吉奧爾吉在其專著《法中的真理與合法性》(1980)中呈現(xiàn)。他相信,這種連續(xù)性的回溯只有在下述前提中才是可能的,即從薩維尼時(shí)代到當(dāng)代。這種連續(xù)性是以法律實(shí)證主義為前提的,并因此具有內(nèi)在的矛盾之處。。法學(xué)家們嘗試遵循不同的法學(xué)理論與方法論進(jìn)行探索,正如“利益法學(xué)”與“價(jià)值評(píng)判法學(xué)”之爭,對(duì)于同一事件所適用的價(jià)值標(biāo)準(zhǔn)的不同導(dǎo)致了雖然評(píng)判結(jié)果可能是對(duì)立的,但兩種結(jié)論都是符合法學(xué)方法論內(nèi)涵的“正確結(jié)論”。因此,“人工智能算法的道德問題應(yīng)該基于何種標(biāo)準(zhǔn)進(jìn)行評(píng)判”這一論題,是急需我們進(jìn)行深入研究的。

一、柏拉圖悖論與人工智能道德算法之關(guān)聯(lián)

在對(duì)數(shù)據(jù)倫理的研究過程中,法學(xué)方法論中廣泛存在的“柏拉圖悖論” (Platos Paradox)也是一個(gè)始終不能夠被忽視的存在,類似于元倫理和規(guī)范倫理中經(jīng)常使用的思想實(shí)驗(yàn)——電車難題,法哲學(xué)中的柏拉圖悖論(Platos Paradox)具有如下內(nèi)涵:“朋友借我一支槍,約定今晚歸還,但今晚他明顯瘋癲,揚(yáng)言說要槍殺他的妻子,在這種情況下我應(yīng)當(dāng)歸還槍支,但我又不應(yīng)當(dāng)歸還槍支?!边@一悖論的核心在于,如果按照合同法的理論來對(duì)此事件進(jìn)行分析,那么歸還槍支這一行為在法律上具有相當(dāng)?shù)暮侠硇?,這種基于合同的行為本身就是符合法律規(guī)范的行為。因?yàn)槿绻麖摹皟r(jià)值評(píng)判法學(xué)”的內(nèi)涵出發(fā),顯然,法律只是確定了一般框架,法官所進(jìn)行價(jià)值評(píng)判的對(duì)象不可能僅由法律或者僅憑借從法律規(guī)定中認(rèn)識(shí)到的立法者的價(jià)值判斷與行徑得到判決,如果想要得到符合實(shí)際情況的判決,法官就一定不得不對(duì)個(gè)案中的框架進(jìn)行修補(bǔ)以加入額外的價(jià)值判斷按照帕羅夫斯基的觀點(diǎn),人們可以說這是一種“形式的價(jià)值評(píng)判法學(xué)”,這種法學(xué)對(duì)于無疑馬上會(huì)困擾自身的若干問題并未有任何說明,這些問題諸如法律是否以特定的“客觀的”法律價(jià)值為基礎(chǔ)、憲法是否包含一種價(jià)值秩序、價(jià)值(或者說是“有價(jià)值的事物”)該如何認(rèn)識(shí)等等。。然而,一個(gè)不能夠被忽視的矛盾就在于,如果法官要以合同法的具體內(nèi)涵對(duì)此事件進(jìn)行評(píng)判而得出具體判決,那么他就不應(yīng)該引入合同法以外的內(nèi)容來支撐他的價(jià)值判斷;而如果法官想要綜合考慮各種情況來對(duì)“是否應(yīng)當(dāng)歸還槍支”這一具體行為進(jìn)行符合常理認(rèn)知的評(píng)判,那么他就不應(yīng)該僅從合同法的內(nèi)涵入手來進(jìn)行評(píng)判。這兩個(gè)看似矛盾的裁判過程究其原因是在于法學(xué)方法論自身的局限性,換言之,對(duì)于不同的方法論內(nèi)涵而言,并沒有一個(gè)完美的理論基礎(chǔ)來覆蓋所有類型下的事件,法學(xué)方法論所做的工作并非要找出普適性的理論依據(jù)。

我們已經(jīng)看到,在對(duì)特定事件進(jìn)行倫理判定時(shí),如果沒有可供參照的“一般性社會(huì)經(jīng)驗(yàn)法則”,則參與評(píng)判的主體必須在許多事實(shí)之間(其判定權(quán)重很有可能是相互并列的)進(jìn)行所謂的“事實(shí)權(quán)衡”,即必須引入規(guī)則視角來對(duì)這些事實(shí)意義進(jìn)行評(píng)價(jià)。若只將這一部分事件的現(xiàn)實(shí)屬性歸屬于法律的構(gòu)成要件之中,就必須先將這些判斷依據(jù)進(jìn)行統(tǒng)一標(biāo)準(zhǔn)的轉(zhuǎn)化,這即是所謂的“價(jià)值判斷”這類需要價(jià)值判斷的標(biāo)準(zhǔn)存在于各類成文法之中,例如:“善良風(fēng)俗”(《德國民法典》S-138/S-826、《不正當(dāng)競爭防止法》S-1)、“誠信原則”(《德國民法典》S-157/S-242)、交易上“必要的謹(jǐn)慎”(《德國民法典》S-276-1-2)以及無需事先通知即可即時(shí)終止持續(xù)性債關(guān)系之前提的“重大事由”。。

對(duì)于柏拉圖悖論而言,其爭議焦點(diǎn)并不是應(yīng)該適用哪一種法則來解釋具體事例,而是這些能夠解釋具體事例的法則之間存在著不可調(diào)和的矛盾。如果將衡量決策后果的“適當(dāng)性”問題看作是價(jià)值判斷在邏輯學(xué)上或語義學(xué)上的體現(xiàn),那么則必須將“價(jià)值”與“評(píng)價(jià)”理解為確立內(nèi)在立場的一種行動(dòng)。不僅要判斷被評(píng)價(jià)的對(duì)象值不值得贊同,也需要判斷一個(gè)對(duì)象相較于另一個(gè)對(duì)象是應(yīng)當(dāng)優(yōu)先考慮或者是應(yīng)當(dāng)靠后考慮。正如某行為如果是有利于“善“善”即是所有或者任意人都會(huì)認(rèn)為值得追求的東西,例如和平、健康、獨(dú)立自主、免于被強(qiáng)迫或者脫離貧困等?!钡奈覀兙蛻?yīng)予以贊同、某行為有悖于“善”的我們就不應(yīng)予以贊同一樣,這種表現(xiàn)在價(jià)值判斷中的反映既可以是倫理性的,也可以是法律性的。

因此,我們可以說,如果價(jià)值判斷是某種立場的表達(dá),那么這種立場首先是判斷者的立場,但這并不意味著價(jià)值判斷只是判斷者內(nèi)心執(zhí)行的評(píng)價(jià)行為的表達(dá)溯伊勒:《法律適用》,P111/P162,溯伊勒認(rèn)為判斷行為中的評(píng)價(jià)行為本身是一種情感行為,以人的欲求為基礎(chǔ),但絕非認(rèn)知行為。在他看來,價(jià)值判斷是判斷者就其“本身的心理事實(shí)”所為的陳述。。因此,我們可以得出這樣一個(gè)結(jié)論:形成這種兩難境地的最主要原因就在于我認(rèn)為我的朋友明顯瘋癲,并且他揚(yáng)言要用槍殺死他的妻子。我們先不去討論這一情形是否一定是一個(gè)即將要發(fā)生且一定會(huì)發(fā)生的客觀事實(shí),單就歸還槍支而言,法律層面的價(jià)值判斷是顯而易見的,即基于約定(合同)的條件,我履行歸還的義務(wù)是能夠被一般人所認(rèn)同的、符合普遍價(jià)值判斷的。而如果我不歸還槍支,則我就明顯具有侵占的故意——這也是違背一般人價(jià)值判斷的做法。這便是在法秩序、憲法以及被接受的法律原則中存在的有約束力的價(jià)值評(píng)判標(biāo)準(zhǔn),即便法律人在“適用”他們之前需要做進(jìn)一步的“修繕”。

那么,我們是否就應(yīng)該不去考慮朋友妻子即將面臨的生命危險(xiǎn),而依然要運(yùn)用單一的價(jià)值評(píng)判來對(duì)事件進(jìn)行處理呢?答案亦是否定的。萊棱在他的《類型與發(fā)現(xiàn)》中提到,這種思想過程不是單向進(jìn)行的,而是相向而行的,即一方面是從普遍的法律思想趨近,應(yīng)根據(jù)他來作出判斷的案件,另一方面則是從這些案件,經(jīng)由典型的被廣泛認(rèn)可案例和更為特定的法律思想再回到普遍的原則。雖然沒有一個(gè)案件會(huì)在所有方面與另一個(gè)案件完全相同,但還是有許多事例在某些特征上而且在一定程度上是相通的。因此,我們可以說,如果法官堅(jiān)持要以合同法的規(guī)定要求我及時(shí)歸還槍支,那么他就將自身陷入違背價(jià)值判斷的漩渦之中,那他又如何能夠聲稱自己是基于“價(jià)值判斷”而作出裁決的呢?

面對(duì)諸如此類的道德判斷情景,就是讓機(jī)器人首先能夠意識(shí)到這是一個(gè)道德判斷情境,接著按照建立好的策略進(jìn)行決策美國計(jì)算機(jī)科學(xué)家Mattias Scheutz舉例說:“理解道德判斷情景,可解決道德沖突的恰當(dāng)?shù)赖峦评砟芰?,以及判斷適合的行動(dòng)路線等。要賦予機(jī)器人道德能力,就是讓機(jī)器人在一個(gè)道德判斷情境中,模仿人類的決策過程,而首先機(jī)器人要能意識(shí)到一個(gè)道德判斷情境,接著依循所布建的推理策略──包括道德原則、基準(zhǔn)與價(jià)值等。。這呼應(yīng)了美國達(dá)特茅斯學(xué)院(Dartmouth College)教授James H.Moor提出的第三種道德主體(ethical agent)──明確(explicit)的道德主體。參見中國機(jī)器人網(wǎng)轉(zhuǎn)載《電子工程專輯》的編輯專訪,“賦予機(jī)器人以道德算法” https://www.robot-china.com/news/201407/24/12485.html,2014年7月24日。[1為強(qiáng)化人工智能研究,國內(nèi)學(xué)者將人工智能倫理研究概括為四個(gè)方面,即人工智能道德哲學(xué)、人工智能道德算法、人工智能設(shè)計(jì)倫理和人工智能社會(huì)倫理。當(dāng)我們回到數(shù)據(jù)倫理的軌道上來便能夠很明顯地發(fā)現(xiàn),雖然哲學(xué)家很少對(duì)于“什么是對(duì)的”這一行為達(dá)成共識(shí),但是,對(duì)于機(jī)器而言,算法之所以能被稱為算法,其最重要的特征之一就是規(guī)則必須是明確的,答案必須是可判定的。因此,所謂的“功利算法”便應(yīng)運(yùn)而生,其主要內(nèi)核是加入一個(gè)“權(quán)衡”( Trade-off judgement)邏輯門,即對(duì)于決策所導(dǎo)致的利益后果進(jìn)行衡量,以功利主義的衡量標(biāo)準(zhǔn)來對(duì)無法確定的決策進(jìn)行統(tǒng)一化選擇。對(duì)于“功利算法”的決策依據(jù)雖然并不要必須具備像物理或者數(shù)學(xué)證據(jù)那樣嚴(yán)密的邏輯性,但并不代表可以任意而為之,正如人腦對(duì)于語言的處理完全是基于語義理解而不是基于外在的語法和符號(hào)一樣,機(jī)器算法在進(jìn)行利益權(quán)衡的時(shí)候,也需要一整套符合大多數(shù)人類價(jià)值觀的邏輯內(nèi)核。因此,當(dāng)人工智能能像人類一樣理性地做出道德決策的同時(shí),人類的倫理分歧與世界觀的差異、道德標(biāo)準(zhǔn)的爭議也會(huì)同時(shí)折射在人工智能體上。

二、人工智能道德算法的問題反思

面對(duì)柏拉圖悖論的案例,就利益衡量而言,首先,我們需要考慮基本法中所包含的“價(jià)值秩序”,也就是說個(gè)案中所涉及的一種法益“法益”即“法律所保護(hù)的利益”。相對(duì)于其他法益是否具有明顯的價(jià)值優(yōu)先性,毫無疑問,人們可以聲稱與其他法益相比,尤其是與物質(zhì)利益相比,人的生命與人性的尊嚴(yán)處于更高的位階。然而,在大多數(shù)的案件當(dāng)中,要么是位階相同的權(quán)利存在沖突、要么是被牽扯的法益之間判若云泥,完全無法做抽象的比較,如個(gè)人自由權(quán)與共同體法益間的沖突,一方面我們需要考慮被影響的法益所受到的影響程度,另一方面我們需要考慮如果一種法益即將做出讓步,那么它將要受到多大的影響。最后,還要適用比例原則,采取最能愛護(hù)他人權(quán)利的手段之原則或者盡可能對(duì)即將要進(jìn)行限制的法益進(jìn)行輕微限制的原則。由此,如果我們?yōu)榱吮Wo(hù)某種更為緊迫且優(yōu)先的法律價(jià)值而必須侵害另一種法益之時(shí),必須以“不能夠超過此事件所必須的限度”,或者說至少這一侵害的行為及其程度是公認(rèn)合理的。

這一內(nèi)涵表現(xiàn)為:如果想要保護(hù)人的生命安全不受侵害,則必須要對(duì)其他處于“次位階”( Second order)的因素作出限制,這一限制則必須侵害一些權(quán)益(法益,legal interest)。然而,對(duì)于除了生命安全而言,其他法益之間是否存在必然屬于較小法益的情形呢?在利益衡量這一背景下的舉動(dòng)是不是當(dāng)然合理的?如果對(duì)于某一法益必須要做出讓步,那么相較于算法所要維護(hù)的法益,被侵害的法益會(huì)對(duì)當(dāng)事人(或其他主體)產(chǎn)生多少影響?又或者說對(duì)于這一讓渡權(quán)利的舉動(dòng),作為一種侵害法益的行為,這種行為會(huì)持續(xù)多久我們一般認(rèn)為,在柏拉圖悖論的例證故事背景下,如果僅僅是等到我的朋友恢復(fù)理智后將槍支歸還于他,那么他的法益被侵害的時(shí)間是短暫的,并且并不需要利用司法手段對(duì)我進(jìn)行懲戒。?事實(shí)上,我們能夠清晰地得出結(jié)論,即如果暫時(shí)性地進(jìn)行權(quán)利的侵害,但事后權(quán)利能夠進(jìn)行回溯或重新賦權(quán),則并不會(huì)產(chǎn)生過多的不利影響,相反,如果權(quán)利并不能被回溯或重新賦予,則有很大概率會(huì)對(duì)相對(duì)人的法益產(chǎn)生較大或者說是毀滅性的影響。作為賦予人工智能倫理價(jià)值評(píng)判邏輯的程序編寫者而言,困難的并非通過前置利益分析來對(duì)可能存在的困境進(jìn)行防控,而是當(dāng)兩個(gè)相同規(guī)模的法益沖突之時(shí),如何再通過利益分析來規(guī)范和解決沖突,以及最終落實(shí)到算法層面,創(chuàng)建一種自動(dòng)化的利益衡量邏輯。

“個(gè)案中的利益衡量”是法續(xù)造法律續(xù)造首先是一種司法過程,發(fā)生于案件審理之中。根據(jù)拉倫茨的觀點(diǎn),法律續(xù)造有兩種:一種是法律內(nèi)的法的續(xù)造,另一種是超越法律的法的續(xù)造。一般說來,如果法律將社會(huì)生活中的某一領(lǐng)域納入法律規(guī)整的法內(nèi)空間,總會(huì)提供一定的規(guī)范與之對(duì)應(yīng)。但事實(shí)上,法內(nèi)空間確實(shí)存在兩種無規(guī)范與之對(duì)應(yīng)的特殊情形,第一種是根據(jù)某一法律總體的規(guī)整計(jì)劃和目的,一定的社會(huì)生活內(nèi)容應(yīng)當(dāng)被納入其中卻沒有納入,從而形成法律的漏洞,法官為填補(bǔ)這種漏洞而為的法律續(xù)造就是法律內(nèi)的法的續(xù)造;第二種是從某一法律總體的規(guī)整計(jì)劃和目的來看,某種類型的社會(huì)生活并未被納入該法律,但從國家法秩序的整體意義來看卻應(yīng)當(dāng)受法律的規(guī)整,在此種情形下,法官鑒于社會(huì)生活的強(qiáng)烈需要,或者在一些新興的法律原則的沖擊下,有可能在司法過程中構(gòu)造出一些新的規(guī)則來裁決案件,這些新的規(guī)則有時(shí)甚至與既有法律的某些要求相悖,這就是超越法律的法的續(xù)造。的一種方法,因?yàn)樗?wù)于解決那些制定法未明確決定其解決規(guī)則的利益沖突,對(duì)范圍重疊的規(guī)范進(jìn)行適用空間上的劃分,并創(chuàng)造一種盡可能開放的具體化評(píng)判標(biāo)準(zhǔn)。綜合各種內(nèi)涵,在人工智能倫理中加入利益衡量的個(gè)案裁判更加符合海因里?!ず嗫藸枌?duì)于正義的認(rèn)知他認(rèn)為,正義理念的特征在于它是“具有規(guī)范性準(zhǔn)則內(nèi)涵的開放原則”。[2。在人類享受人工智能所帶來的便利之時(shí),也要面對(duì)人工智能所引發(fā)的風(fēng)險(xiǎn)。當(dāng)人類完全將決策交給人工智能時(shí)需要秉承兩個(gè)基本的倫理原則:其一,凡是涉及對(duì)人的問題,要秉承人類為主,機(jī)器為輔的原則。其二,凡是涉及否定的判斷,要以人為主,機(jī)器為輔。否則這種對(duì)于基本道德倫理的責(zé)任就會(huì)陷入人類無法掌控的情形。即便現(xiàn)有法律法規(guī)、政策和社會(huì)倫理能夠約束算法造成的不良后果,但科技發(fā)展的速度遠(yuǎn)快于政策和法規(guī)制定的速度,這便引起人類對(duì)智能主體機(jī)器的道德主體地位的思考,社會(huì)安全和公平正義的思考以及新倫理問題的思考。比如當(dāng)無人駕駛汽車遇到無法避免交通事故的情形下,是應(yīng)該優(yōu)先保護(hù)乘車人員還是路上的行人,抑或是選擇侵害多個(gè)個(gè)體的利益還是只侵害單個(gè)個(gè)體的利益?對(duì)于“電車難題”中的無奈,依然廣泛存在于人工智能倫理的研究當(dāng)中。

對(duì)于算法來講,因?yàn)槠浒祟惖闹饔^認(rèn)知,因此造成算法困境的一個(gè)很重要的原因來自人類思維的局限性。不同背景的人工智能算法專家不可避免地對(duì)算法偏好有不同的理解。算法開發(fā)人員在認(rèn)知上的偏差以及不同背景不可避免地影響算法設(shè)定,從而深刻影響著人工智能的價(jià)值判斷并隨著數(shù)據(jù)的積累和算法的迭代而被強(qiáng)化和放大[3。人工智能的學(xué)習(xí)能力賦予了算法一定程度的自主性,雖然有可能在程序框架中對(duì)于基本法中所包含的“價(jià)值秩序”進(jìn)行了較為完善的定義,但隨著機(jī)器學(xué)習(xí)的深入,代碼的復(fù)雜性會(huì)進(jìn)一步增加,并會(huì)陷入“技術(shù)黑箱(Technical black box)”的困境中,海量化的數(shù)據(jù)和數(shù)兆億的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的結(jié)果是否會(huì)悄然產(chǎn)生有悖法律法規(guī)、社會(huì)道德倫理的算法邏輯,以及如何區(qū)分潛在的算法邏輯問題,機(jī)器執(zhí)行任務(wù)的后果更加難以預(yù)測。

正如人腦對(duì)于語言的處理完全是基于語義理解而不是基于外在的語法和符號(hào)一樣,機(jī)器算法在進(jìn)行決策時(shí),需要一整套符合大多數(shù)人類價(jià)值觀的邏輯內(nèi)核。以人工智能翻譯為例,人和飯之間的關(guān)系只能是人吃飯,而不能是飯吃人,這個(gè)關(guān)系就是語義,一個(gè)語義可能通過多種方式來表達(dá),如:飯我不吃了;我不吃飯了等,只要明白了這一語義,怎么表達(dá)都不會(huì)引起誤會(huì)。但在人工智能翻譯過程中卻大相徑庭,其中一個(gè)案例是,“The box was in the pen”(箱子在圍欄里),box 是盒子,pen 有兩個(gè)意思:一個(gè)是鋼筆,一個(gè)是圍欄。翻譯這句話對(duì)人來說非常容易,對(duì)算法卻較難。由此可見,人類的翻譯是基于語義理解的翻譯,而對(duì)于算法而言,語義理解存在大量的不確定性和變化性(很多時(shí)候不同地區(qū)、不同宗教信仰、不同生活習(xí)慣的群體存在完全截然不同的語意理解體系)。所以,在面對(duì)不同價(jià)值傾向的群體中,算法的語意理解行為(甚至是價(jià)值判斷)就會(huì)出現(xiàn)錯(cuò)誤的映射。我們只能要求算法通過易于理解的權(quán)衡和現(xiàn)有資源進(jìn)行正當(dāng)化的解釋,同時(shí)利用以深度學(xué)習(xí)為核心框架進(jìn)行算法完善,但這樣的做法很容易使得算法基于虛假的相關(guān)性做出有瑕疵的道德判斷,從而做出錯(cuò)誤的決策。

三、人工智能道德算法的出路

對(duì)于人工智能倫理的研究而言,其意義不僅是尋找出一種完全解決“利益衡量”的完美算法,更重要的是在對(duì)不同的現(xiàn)實(shí)情況進(jìn)行甄別與探究的過程中對(duì)每一個(gè)不同的具體案例尋求盡可能符合社會(huì)“普世價(jià)值”的解決方案。其中存在兩種頗具代表性的技術(shù)路徑,即“權(quán)衡邏輯前置(Pre screening)”和“人機(jī)共同決策(Collaboration)”,分別代表了一種將“價(jià)值衡量”嵌入機(jī)器人算法體系中的方法和另一種要求人作為最終價(jià)值判斷主宰的方法。

“權(quán)衡邏輯前置”這一路徑的一個(gè)代表性例子是以個(gè)性化算法所導(dǎo)致的“信息繭房”效應(yīng),造成人們對(duì)世界的感知出現(xiàn)偏差,導(dǎo)致社會(huì)在公共問題上無法形成共識(shí)的嚴(yán)重后果4。對(duì)于“權(quán)衡邏輯前置”這一路徑而言,雖然在算法完整性以及自動(dòng)化決策上占有優(yōu)勢,但卻明顯地減弱了人對(duì)于算法輸出結(jié)果的控制力,當(dāng)我們將價(jià)值衡量內(nèi)置于算法邏輯鏈條中的同時(shí),即相當(dāng)于承認(rèn)了一個(gè)顯而易見卻又存在致命缺陷的命題——一個(gè)一生都受到良好教育的孩子在成長的任何階段都不會(huì)出現(xiàn)道德上的問題正如人類的教育也存在后天的不確定性一樣,現(xiàn)如今普遍存在的具有機(jī)器學(xué)習(xí)能力的智能程序雖然能夠基于人類所提供的“素材”進(jìn)行學(xué)習(xí),但并不代表學(xué)習(xí)后的結(jié)果完全能夠預(yù)測并可控。。對(duì)于復(fù)雜的實(shí)際環(huán)境而言,特別是當(dāng)實(shí)際權(quán)重相當(dāng)?shù)膬蓚€(gè)價(jià)值判斷要求出現(xiàn)的時(shí)候,雖然在人工智能倫理的視角下并沒有很大區(qū)別(主要是程序代碼方面),但這并不意味著優(yōu)秀的算法不會(huì)產(chǎn)生誤判,如果兩個(gè)法益權(quán)重在數(shù)據(jù)賦值上沒有差別卻在現(xiàn)實(shí)的人的道德上具有較大差距,那么,如果堅(jiān)持算法運(yùn)算的結(jié)論則必然會(huì)反噬現(xiàn)實(shí)中的道德體系。

對(duì)于“權(quán)衡邏輯前置”較大局限性的思考使得人們提出了對(duì)問題場景進(jìn)行進(jìn)一步優(yōu)化的“人機(jī)共同決策”處理方式,其目的是提高兩難倫理難題發(fā)生的門檻。我們知道,在現(xiàn)實(shí)生活場景中人們?cè)O(shè)計(jì)了高速鐵路和高速公路等封閉或半封閉的運(yùn)行場景,駕駛員只需要按照既定路線、結(jié)合統(tǒng)一調(diào)度駕駛列車和汽車,就可以大大提高火車和汽車的運(yùn)行安全性。當(dāng)前面所提及的倫理難題的最終決定權(quán)回歸到實(shí)實(shí)在在的人類之后,就會(huì)在人的即時(shí)性道德判斷下減少絕大部分的誤判,與此同時(shí),對(duì)于決策所帶來的責(zé)任后果也有了明確的承擔(dān)主體。表面看來“人機(jī)共同決策”的處理方式好像是減輕了算法工程師的工作量和程序的復(fù)雜程度,但事實(shí)上如何進(jìn)行數(shù)據(jù)的“預(yù)處理”以及將哪些選項(xiàng)提交到使用者面前,是更加考驗(yàn)程序嚴(yán)謹(jǐn)性的,人工智能其本質(zhì)上是設(shè)計(jì)者意志的體現(xiàn),在技術(shù)的加持下,人性被放大的情況作用比現(xiàn)實(shí)中來得更加強(qiáng)烈?!叭藱C(jī)共同決策”的處理方式并不是讓人完全脫離道德困境,反而是將技術(shù)產(chǎn)品中的最終裁判權(quán)還給人類,最終為人類社會(huì)的發(fā)展服務(wù)。

結(jié)語

人工智能在我們的工作和生活中扮演著越來越重要的角色,當(dāng)我們從倫理本身來論證人工智能的同時(shí),也陷入更多的哲學(xué)難題當(dāng)中,這些哲學(xué)問題已經(jīng)在人類社會(huì)爭論了上千年,不會(huì)因?yàn)閰⑴c對(duì)象和視角的改變就消失。一切的算法都是基于工程實(shí)踐,其基礎(chǔ)依然是依托于人類社會(huì)的運(yùn)行規(guī)則、邏輯規(guī)律以及道德標(biāo)準(zhǔn),是將以人類大腦為載體的“生物算法”轉(zhuǎn)碼為以計(jì)算機(jī)系統(tǒng)為載體的“電子算法”。

從柏拉圖悖論的角度,在使用“一般經(jīng)驗(yàn)法則”對(duì)社會(huì)事件進(jìn)行判定的過程中,個(gè)體必須從規(guī)則的視角來進(jìn)行意義評(píng)價(jià)。結(jié)合人與機(jī)器各自的優(yōu)勢特點(diǎn),讓人工智能背景下的倫理算法最大限度地減少全局社會(huì)代價(jià),在面臨稀缺資源和高權(quán)重法益之時(shí),具有著重要且積極的意義。

參考文獻(xiàn):

[1]JY.賦予機(jī)器人以道德算法[EB/OL].中國機(jī)器人網(wǎng),(2014-07-24)[2023-05-15]. https://www.robot-china.com/news/201407/24/12485.html.

[2]〔德〕海因里?!ず嗫藸?法哲學(xué)導(dǎo)論[M].北京:商務(wù)印書館,1977:391.

[3]李曉華.數(shù)字時(shí)代的算法困境與治理路徑[J].人民論壇,2022(Z1):64-67.

[4]張衛(wèi).算法中的道德物化及問題反思[J].大連理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2020(1):117-121.

[責(zé)任編輯、校對(duì):楊栓保]

猜你喜歡
人工智能
我校新增“人工智能”本科專業(yè)
用“小AI”解決人工智能的“大”煩惱
當(dāng)人工智能遇見再制造
2019:人工智能
AI人工智能解疑答問
人工智能與就業(yè)
基于人工智能的電力系統(tǒng)自動(dòng)化控制
人工智能,來了
數(shù)讀人工智能
人工智能來了