国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

論人工智能發(fā)展中的倫理調(diào)適

2020-12-28 01:58嚴(yán)衛(wèi)錢振江應(yīng)文豪肖樂周立凡
課程教育研究 2020年45期
關(guān)鍵詞:倫理人工智能

嚴(yán)衛(wèi) 錢振江 應(yīng)文豪 肖樂 周立凡

【摘要】本文深入探討了智能汽車和人工智能機(jī)器必須能夠做出倫理決策的原因和面臨的困難。分析了人工智能機(jī)器的部署所帶來的大部分挑戰(zhàn)可以通過人類的法律和技術(shù)監(jiān)管來解決。最后指出,將當(dāng)前的人工智能倫理道德問題建立在諸如電車難題等極端不正常的情境上是一個(gè)嚴(yán)重的錯(cuò)誤。

【關(guān)鍵詞】人工智能 ?倫理 ?智能汽車

【基金項(xiàng)目】“2019年江蘇省計(jì)算機(jī)學(xué)會(huì)‘計(jì)算機(jī)倫理與職業(yè)修養(yǎng)專項(xiàng)課題”(JSCS2019ZX012)的研究成果;“江蘇省高?!嗨{(lán)工程優(yōu)秀青年骨干教師培養(yǎng)對象項(xiàng)目”(2017)的研究成果;“江蘇省高?!嗨{(lán)工程中青年學(xué)術(shù)帶頭人培養(yǎng)對象項(xiàng)目”(2019)的研究成果;“江蘇省‘333高層次人才培養(yǎng)工程培養(yǎng)對象項(xiàng)目”(2018)的研究成果;“江蘇省教育科學(xué)‘十三五規(guī)劃課題”(No.B-b/2016/01/34)的研究成果;“高等學(xué)校計(jì)算機(jī)教育研究會(huì)2018年度教育研究項(xiàng)目”(2018)的研究成果;“常熟理工學(xué)院2018年度高等教育研究項(xiàng)目(GJ1808)”的研究成果。

【中圖分類號】G64 【文獻(xiàn)標(biāo)識(shí)碼】A 【文章編號】2095-3089(2020)45-0035-02

1.批判性概述

1.1智能汽車需要倫理規(guī)范的理由

智能汽車通俗講可被視為學(xué)習(xí)型機(jī)器。而他們的程序主要用來收集信息,處理信息,得出結(jié)論,并相應(yīng)地改變他們的行為方式,而不需要人類的干預(yù)或指導(dǎo)。因此,這樣的一輛車可能會(huì)啟動(dòng)一個(gè)指令比如不超過速度限制,并得出安全行駛的結(jié)論。鑒于這些智能汽車可能會(huì)造成事故,因此智能汽車需要能夠區(qū)分“錯(cuò)誤”和“正確”的倫理決策。這些智能機(jī)器更需要在造成無法避免的傷害時(shí),例如需在兩種傷害之間做出選擇的情況下,這一點(diǎn)已經(jīng)引起了人們的廣泛關(guān)注。這些討論通常從電車難題的適應(yīng)性開始,即汽車無法及時(shí)剎車,被迫在繼續(xù)行駛和撞到行人之間做出選擇,或者轉(zhuǎn)向到對面車道上迎面駛來的車輛[1]。簡而言之,智能汽車和其他人工智能機(jī)器在做決策時(shí)需要倫理指導(dǎo)。

1.2讓智能汽車做出倫理決策的兩種方式

人工智能和神經(jīng)科學(xué)倫理學(xué)專家溫德爾·瓦拉赫提出了兩種方法,即自上而下進(jìn)路和自下而上進(jìn)路[2]。在自上而下進(jìn)路中讓智能汽車和其他智能機(jī)器能夠自行做出倫理選擇。其倫理規(guī)則被編入程序,在程序員的指示下,智能汽車在特定條件下以最合乎倫理的方式安全行駛。在此,沒有必要重提各種倫理學(xué)派之間的爭論。鑒于這些不同之處,我們只需指出,很難給一臺(tái)能夠自行做出倫理決定的機(jī)器編寫程序,無論是使用這些倫理哲學(xué)中的一種,還是這些倫理哲學(xué)的一種組合。研究發(fā)現(xiàn)指出,人類能夠處理細(xì)微差別和模糊的決策,但在實(shí)際操作中,計(jì)算機(jī)程序員發(fā)現(xiàn)這樣的決策特別費(fèi)力。簡而言之,自上而下進(jìn)路是有局限性的。

第二種是自下而上進(jìn)路,希望機(jī)器在沒有被教導(dǎo)任何正式的規(guī)則或配備任何特定的倫理哲學(xué)情況下,通過觀察人類來做出倫理決策的行為。也有人提出,智能汽車可以通過某種聚合系統(tǒng),作為一種群體思維或利用群體智慧,從數(shù)百萬人類司機(jī)的倫理決策中學(xué)習(xí)。然而,人們應(yīng)該注意到,這很可能導(dǎo)致智能汽車獲得一些不道德的偏好。例如,學(xué)習(xí)了許多人的做法,智能汽車很可能會(huì)隨意加速、突然變道等。人們還必須注意到,當(dāng)面對電車難題所帶來的選擇時(shí),大多數(shù)受訪者希望智能汽車在不牽涉其中的情況下做出實(shí)用的決定,即對他們自己來說,他們想要的車會(huì)優(yōu)先考慮自己的幸福,而犧牲別人的幸福。

簡而言之,自上而下和自下而上的方法都面臨非常嚴(yán)重的困難。這些困難不僅僅是技術(shù)上的,更是涉及人類所使用的倫理哲學(xué)的內(nèi)部聯(lián)結(jié)等。

1.3智能機(jī)器的自主性探討

有關(guān)智能機(jī)器的自主性有些人認(rèn)為,所有發(fā)生的事情都是由充分的先決條件造成的,這種因果決定論使得倫理責(zé)任的分配變得不可能。然而,這并不意味著同樣的情況也適用于機(jī)器。有些工具沒有自主性但可以通過外部的力量完全解釋它們的行為。例如,GPS系統(tǒng)當(dāng)被問及從起點(diǎn)到終點(diǎn)最好的方法,比較幾個(gè)選項(xiàng),并推薦一個(gè),但它的建議是基于一個(gè)人為的程序算法,計(jì)算最短的路線或花最少的時(shí)間。

深度學(xué)習(xí)是一種相對較新的人工智能形式,它基于神經(jīng)網(wǎng)絡(luò)來實(shí)現(xiàn)由大數(shù)據(jù)、超級計(jì)算和先進(jìn)算法的轉(zhuǎn)變,通過深度學(xué)習(xí),系統(tǒng)能夠自己找出問題所在。然而,深度學(xué)習(xí)看上去很智能,但實(shí)際上并非如此。因?yàn)樯疃葘W(xué)習(xí)依賴于大數(shù)據(jù)并且缺乏對新環(huán)境的自適應(yīng)反應(yīng)能力[3]。

2.人工智能倫理調(diào)適的關(guān)鍵點(diǎn)

2.1法律實(shí)施和個(gè)人選擇

如果智能汽車和其他這類機(jī)器沒有能力自己做出倫理決策,它們怎么能遵循人類的倫理偏好呢?在回答這個(gè)問題時(shí),必須首先考慮倫理和社會(huì)價(jià)值觀在人類世界中的兩種截然不同的實(shí)現(xiàn)方式,然后再考慮如何將這些價(jià)值觀引入智能機(jī)器領(lǐng)域。

倫理和社會(huì)價(jià)值在社會(huì)中實(shí)現(xiàn)的主要方式是通過法律實(shí)施和個(gè)人選擇。許多倫理和社會(huì)價(jià)值體現(xiàn)在法律中,即它們是國家制定并強(qiáng)制執(zhí)行的。例如,為了提高安全性,汽車必須在停車標(biāo)志處停車。通過學(xué)習(xí)交通安全法等來促進(jìn)對這些價(jià)值觀的遵守而違反這些價(jià)值觀的人則會(huì)受到處罰。但是,諸如是否購買環(huán)保汽油或最便宜的汽車、是否購買污染更少的汽車、是否為搭便車的人提供服務(wù)、是否允許朋友使用自己的汽車等問題的最終決定權(quán)還是留給了每個(gè)人[4]。區(qū)分法律實(shí)施和個(gè)人選擇是至關(guān)重要的,因?yàn)橥ㄟ^立法機(jī)構(gòu)頒布的法律是由國家強(qiáng)制執(zhí)行的,原則上不受個(gè)人考慮和選擇的限制。智能汽車必須遵守法律,就像所有其他汽車一樣,如果他們認(rèn)為超速、污染等行為是合乎倫理的,他們就沒有必要深思熟慮。誠然,這些法律可以根據(jù)這些汽車的特點(diǎn)進(jìn)行調(diào)整。盡管如此,智能汽車仍需要遵守法律,就像所有其他汽車一樣,否則將被禁止上路。甚至它們的所有者、程序員和制造商將對造成的任何損害承擔(dān)責(zé)任。

法律沒有規(guī)定的倫理決定通常由個(gè)人或智能汽車自行做出。我們已經(jīng)看到,試圖為這些智能汽車寫入程序,使它們能夠自己做出這些決定,是一項(xiàng)非常艱巨的任務(wù)。我們能做些什么呢?讓個(gè)人指導(dǎo)他們的汽車遵循他們的價(jià)值偏好。在一定程度上,這可以通過設(shè)置選項(xiàng)來實(shí)現(xiàn)。例如,根據(jù)特斯拉官方的介紹,司機(jī)的手放在方向盤時(shí)才會(huì)改變車道,而且每一次改變都會(huì)被震動(dòng)或鈴聲提醒。當(dāng)然,司機(jī)也可以選擇取消通知提醒。

接下來,我們建議,對智能機(jī)器加強(qiáng)倫理引導(dǎo)應(yīng)該采用一種新的人工智能程序,它將“解讀”主人的倫理偏好,然后指示這些智能機(jī)器注意這些偏好。我們稱之為倫理機(jī)器人。倫理機(jī)器人是一個(gè)人工智能程序,對個(gè)人倫理偏好可以通過分析成千上萬的商品信息來解讀其特定行為的真正含義。從本質(zhì)上講,倫理機(jī)器人在倫理選擇方面所做的工作,與許多人工智能程序在發(fā)現(xiàn)消費(fèi)者偏好并相應(yīng)地針對其投放廣告時(shí)所做的工作類似。

2.2離群值謬誤

電車難題在智能汽車上的應(yīng)用受到了驚人的關(guān)注。就像其他的心理實(shí)驗(yàn)一樣,它們可以作為激發(fā)對話的引子。然而,作為智能機(jī)器及其人類伙伴進(jìn)行決策的模型,這樣的故事往往適得其反。因?yàn)殡娷囯y題是精心設(shè)計(jì)的。他們通常只留給參與者兩個(gè)選擇,而這些選項(xiàng)和其他條件都不能修改。例如,在鐵軌主干道上有20人被捆綁無法脫身,這時(shí)一輛火車疾馳而過,一場特大事故即將發(fā)生,幸運(yùn)的是工作人員發(fā)現(xiàn)旁邊有一個(gè)杠桿,只要啟動(dòng)按鈕就能讓火車改到另外一側(cè)鐵軌主干道上。但另外一條鐵軌主干道上恰巧也有1個(gè)人被捆綁。在這種極端情況下,工作人員可以啟動(dòng)按鈕讓火車改道行駛嗎?事實(shí)上,人們對不同人的生命價(jià)值觀是不同的。

芭芭拉弗里德指出,“電車難題促使一些哲學(xué)家更多地關(guān)注‘邊緣的一組古怪案例,而不是現(xiàn)實(shí)生活中的大多數(shù)案例,這些案例實(shí)際上存在對他人造成意外傷害的風(fēng)險(xiǎn)。”[5]

法律學(xué)界有句重要的格言:“艱難的案件會(huì)導(dǎo)致糟糕的法律”,因?yàn)橛蓸O端的情況而引起的案件,往往會(huì)導(dǎo)致針對例外情況的法律或裁決,更會(huì)導(dǎo)致糟糕的規(guī)則[6]。人工智能倫理案件亦如此。我們注意到,這對于機(jī)器學(xué)習(xí)程序來說是一個(gè)廣泛的問題。第一,在樣本概率分布?xì)w納時(shí),有一些離群事件是很難預(yù)測的。第二,人類也面臨同樣的問題,而且往往做出不可預(yù)測的反應(yīng),有時(shí)更會(huì)導(dǎo)致所謂的“人為錯(cuò)誤”。這對于機(jī)器學(xué)習(xí)來說仍然是一個(gè)具有挑戰(zhàn)性的研究課題。在大多數(shù)情況下,智能機(jī)器可以通過法律手段保持一致。而在其他情況下,他們可以遵守用戶的倫理偏好。但總會(huì)有一些無法預(yù)見的事件。在這些情況下,最好的選擇是分析哪一方將受到傷害,并做出合理決策。如果這些情況重復(fù)出現(xiàn),人類將需要更新法律指導(dǎo)或倫理機(jī)器人的指導(dǎo)規(guī)則。

3.結(jié)語

應(yīng)該承認(rèn),在機(jī)器中植入倫理或者教授機(jī)器倫理,充其量是一項(xiàng)非常費(fèi)力的工作。我們指出,智能機(jī)器在做出的許多倫理決策時(shí),不需要也不應(yīng)該由它們自行做出,因?yàn)榇蠖鄶?shù)的決策可以通過相關(guān)立法機(jī)關(guān)和法律為機(jī)器做出規(guī)范的指令。剩下的許多倫理決策都可以由倫理機(jī)器人做出,它們會(huì)根據(jù)車主的倫理偏好調(diào)整汽車的“行為”。誠然,無論合法的還是合乎道德倫理的智能機(jī)器都無法掩蓋極端的異常情況。

參考文獻(xiàn):

[1]儲(chǔ)陳城.自動(dòng)汽車程序設(shè)計(jì)中解決“電車難題”的刑法正當(dāng)性[J].環(huán)球法律評論,2018(03):82-99.

[2]溫德爾·瓦拉赫,科林·艾倫. 道德機(jī)器:如何讓機(jī)器人明辨是非[M].北京:北京大學(xué)出版社,2017:68-69.

[3]何靜.人類學(xué)習(xí)與深度學(xué)習(xí):當(dāng)人腦遇上人工智能[J].西南民族大學(xué)學(xué)報(bào)(人文社科版),2017(12):84-88.

[4]Etzioni A ,Etzioni O. Incorporating Ethics into Artificial Intelligence[J].The Journal of Ethics, 2017.

[5]Fried,Barbara H. What does matter? The case for killing the trolley problem(or letting it die)[J].The Philosophi?鄄cal Quarterly,2012(62).

[6]Lucas Jr.,George R. Engineering,ethics and industry:the moral challenges of lethal autonomy In Killing by remote control:the ethics of an unmanned military[M].New York:Oxford University Press,2013.

作者簡介:

嚴(yán)衛(wèi)(1980-),男,江蘇常熟人,常熟理工學(xué)院助理研究員、實(shí)驗(yàn)師,碩士,主要研究方向?yàn)槿斯ぶ悄軅惱怼⒏叩冉逃芾怼?/p>

錢振江(1982-),男,江蘇常熟人,常熟理工學(xué)院計(jì)算機(jī)科學(xué)與工程學(xué)院副院長,副教授,博士,主要研究方向?yàn)橛?jì)算機(jī)工程教育。

應(yīng)文豪(1979-),男,江蘇常熟人,常熟理工學(xué)院副教授,博士,主要研究方向?yàn)閿?shù)據(jù)挖掘技術(shù)。

肖樂(1981-),女,江蘇蘇州人,常熟理工學(xué)院副教授,碩士,主要研究方向?yàn)槿斯ぶ悄堋?/p>

周立凡(1984-),男,江蘇常熟人,常熟理工學(xué)院講師,博士,主要研究方向?yàn)樯疃葘W(xué)習(xí)。

猜你喜歡
倫理人工智能
《心之死》的趣味與倫理焦慮
我校新增“人工智能”本科專業(yè)
護(hù)生眼中的倫理修養(yǎng)
人工智能與就業(yè)
醫(yī)改莫忘構(gòu)建倫理新機(jī)制
論《覺醒》中的倫理關(guān)系
從變譯理論看翻譯倫理
婚姻家庭法的倫理性及其立法延展
林芝县| 阿城市| 合川市| 万载县| 盐池县| 鲁甸县| 资源县| 喀喇沁旗| 遵义县| 汕尾市| 都兰县| 呼伦贝尔市| 克拉玛依市| 阿城市| 辉县市| 洪湖市| 林周县| 三原县| 鄂托克前旗| 安丘市| 抚州市| 安溪县| 内丘县| 马公市| 巴楚县| 老河口市| 襄汾县| 塔城市| 沐川县| 高邮市| 蕉岭县| 沿河| 诸暨市| 奇台县| 汪清县| 韶山市| 岗巴县| 鄂托克前旗| 乐安县| 宜兴市| 磴口县|