洪夢丹
論人類與人工智能體的道德矛盾
洪夢丹
人工智能體道德已成為智能體發(fā)展過程中必須面對的問題,面對人工智能尤其是機(jī)器人在人類生產(chǎn)生活中的廣泛應(yīng)用,智能體的道德張力也逐步加重。在對人工智能體道德的研究進(jìn)路上,很多偉大的哲學(xué)家和機(jī)械設(shè)計師的聯(lián)合對于智能體道德的設(shè)計起到了至關(guān)重要的作用,并進(jìn)一步促使人機(jī)之間的合作。 最終,隨著科學(xué)技術(shù)與社會的進(jìn)步,人類倫理體系也會隨著人工智能體道德體系的完善而進(jìn)一步完備德機(jī)器。
人工智能 道德機(jī)器 機(jī)器人 道德 倫理
人類構(gòu)建環(huán)境是越來越多的人工智能體能夠自動進(jìn)行活動。到目前為止,由自動化系統(tǒng)軟件控制,存在于兩個方面:“倫理缺陷”。首先,決策能力系統(tǒng)不包含任何道德理性特征;第二,系統(tǒng)的感官能力和無明顯的倫理特征。例如,汽車上的酒精測試裝置,可能會使你無法從機(jī)器中獲得,但它無法告訴你,在行進(jìn)過程中因交通事故而死亡的汽車,也無法意識到,在人類道德意義上,拒絕發(fā)射機(jī)器。社會的許多領(lǐng)域都被強(qiáng)調(diào)為人工智能的道德需求。例如,為了引起公眾的注意,在模擬戰(zhàn)場上介紹了在家庭或醫(yī)療服務(wù)機(jī)器人中部署的軍用機(jī)器人的說明。然而,基于機(jī)器人的計算機(jī)自動化系統(tǒng)來做決定,不管利弊如何在影響著我們。這就是為什么我們要要建立一個具有道德決策能力的機(jī)器。
人工智能的存在和創(chuàng)造在我們的生活中是必要的,因為在這個領(lǐng)域上來說我們不是技術(shù)上的主宰者,就像我們常說的某個人可能不會選擇去開發(fā)原子彈,人類也是不會停止對自動化機(jī)器人的探索。然而,這兩個方面完全不同。自從RosalindPicard指出“機(jī)器的自由度越高,對道德標(biāo)準(zhǔn)的需求就越大”,人工智能的發(fā)展就變得尤為必要。特別是隨著科技的進(jìn)步,系統(tǒng)的綜合和復(fù)雜性的加強(qiáng),將進(jìn)一步增加代理設(shè)計的難度,即如何定位道德目標(biāo)的主體。計算機(jī)病毒已經(jīng)對軟件代理人造成危害。例如,我們常用的信用卡的支付功能是一個非常典型的一個自動化的過程,但是由于缺乏一個道德決策的能力,從而對很多人的生活產(chǎn)生了很大的影響。在信息技術(shù)發(fā)達(dá)的今天信息技術(shù)給我們提供了很多便利,例如機(jī)器人可以照顧家里的老人小孩兒以及為餐廳服務(wù),甚至具有射擊功能的軍用機(jī)器人還可以為軍隊所用,但是他們并沒有道德的維度,所以很有可能會對人類造成傷害和損失。
我們將復(fù)雜的人工智能描述為一個二維的軌跡:人工智能的發(fā)展與現(xiàn)實中的自動化和道德敏感性有關(guān)。具有嚴(yán)格限制的自動化和倫理敏感的系統(tǒng)僅僅是“操作道德”,這意味著它們的道德表現(xiàn)完全掌握在設(shè)計師和用戶的手中。隨著技術(shù)發(fā)展的不斷更新,機(jī)器變得越來越復(fù)雜,在這一點上,人工智能的發(fā)展方向是“功能道德”,它具有應(yīng)對和評估道德挑戰(zhàn)的能力。功能道德的創(chuàng)造者也將會面臨許多的挑戰(zhàn)和限制,從評估和應(yīng)對道德挑戰(zhàn)的能力。功能道德的創(chuàng)造者也面臨許多限制,這從根本上是由于當(dāng)前技術(shù)的發(fā)展。然而,我們也應(yīng)該認(rèn)識到,至少在理論上,人工智能,身體最終可能是有權(quán)利和義務(wù)的,可以與真正意義上的人類道德主體相比。在機(jī)器人的設(shè)計和創(chuàng)新發(fā)展中很多應(yīng)用是投機(jī)的,因此我們常常會強(qiáng)調(diào)我們的不同組織之間的一個相互合作和協(xié)調(diào),為的就是促進(jìn)友好人工智能的發(fā)展。在不到一百年的時間里,機(jī)器人的發(fā)展速度超過了人們的想象。
自“公子小白”在北京宣布上線啟動后,首批在京東預(yù)售的1000臺在三天多的時間中被廣大網(wǎng)友瘋搶,整個月的銷售也再2000多臺,此次開創(chuàng)了機(jī)器人這個行業(yè)的單品的預(yù)售的最好紀(jì)錄。除此之外,“公子小白”還被年輕消費群體評價為“個性、時尚、有感覺”而且消費得起的時尚潮品,早在2015年就獲得千萬級Pre-A融資估值1.3億,2個月翻3倍,一再刷新人工智能的融資速度,“公子小白”獨辟蹊徑主打年輕市場的精準(zhǔn)定位被驗證告首戰(zhàn)捷。這無一不表明市場對公子小白所代表的情感機(jī)器人的極大認(rèn)可,同時也吸引了更多投資機(jī)構(gòu)的目光,逐步將公子小白推向風(fēng)口浪尖之上。“公子小白”揮手互聯(lián)網(wǎng)+的圈地運動把握AI+的腦力競爭時至今日,互聯(lián)網(wǎng)+的圈地競爭,正迅速演變?yōu)槟X力競爭,從“互聯(lián)網(wǎng)+”向“AI+”快速迭代進(jìn)化。并且,“AI+”將成為一種大趨勢,在社交、工作、教育等多方面得到應(yīng)用、發(fā)展,如“AI+金融、安防”,“AI+無人駕駛、教育”,“AI+體育、醫(yī)療”等,整個社會掀起人工智能應(yīng)用浪潮,重構(gòu)商業(yè)模式和競爭法則。
從“人工智能”發(fā)展到“AI+”,公子小白正式上線,人工智能將不再只是電影中的場景,而是作為最前沿和基礎(chǔ)性的技術(shù),正在推動多個領(lǐng)域的發(fā)展和變革,成為第四次工業(yè)革命的技術(shù)基石,人工智能有望為中國在新一輪技術(shù)創(chuàng)新大潮中后來居上,很有可能成為中國彎道超車良機(jī)。公子小白聰明激萌年輕市場獨辟蹊徑Gowild智能科技公司開發(fā)的情感機(jī)器人“公子小白”聰明激萌、嬌小的設(shè)計,備受年輕人喜愛。它的開發(fā),以“回歸人性、回歸情感、重塑聯(lián)接”為信念,擁有強(qiáng)大的知識圖譜及數(shù)據(jù)分析能力。它既是用戶的呆萌小管家,也是用戶的生活小助手,與用戶相處越久,越懂用戶。
也有人會說,在社交網(wǎng)絡(luò)越來越發(fā)達(dá)的現(xiàn)在,人卻會越來越覺得孤獨,那么當(dāng)我們所研究的軟件和我們的硬件上都越來越強(qiáng)大越來越智能化的時候,一些人類特有的感性需求被放大。創(chuàng)造消費級、更智能、懂情感、會社交的機(jī)器人補(bǔ)充市場缺口,滿足人類需求,勢在必行。
我們知道,不是每個人都有其他精神狀態(tài)所需要的情感和道德能力,然而,我們應(yīng)該把認(rèn)知缺陷融入我們的道德世界,成為人類道德關(guān)懷的對象。例如我們并沒有把有認(rèn)知障礙的人和沒有正常的精神意識的人排除在我們的道德關(guān)懷中,我給了他們應(yīng)有的道德保護(hù)。所以,相對于道德行為情感能力雖然是必要的,但是就機(jī)器人來說卻不是必要的。其實在我們不應(yīng)該糾結(jié)于它是不是有同樣的認(rèn)知和情感的“聰明人”,我們只能根據(jù)互動作為一種“表現(xiàn)”,就像前面所說的人類給予的道德關(guān)懷一樣。因此,根據(jù)著名的生物倫理學(xué)家彼得·辛格道德照顧動物,這是“我們依賴現(xiàn)象的基礎(chǔ),一個動物的行為看起來像一個人就夠了,“我們能想到的,在機(jī)器人倫理,如果道德取決于“現(xiàn)象”,為了使機(jī)器人成為我們的道德關(guān)注的對象和要求的,精神狀態(tài)的這種做法是不合理的。另一方面,由于機(jī)器人變得越來越先進(jìn),我們更可能是不同的不同的機(jī)器人道德范疇,我們對待動物的方式:我們對待一些動物的方式是不同的,它不是基于精神狀態(tài)但表示基于動物和人類互動。例如,我們把小狗當(dāng)做寵物來對待,因為小狗會讓我們覺得自己像個玩伴。這種認(rèn)知缺陷的道德推理和道德取向是基于人類經(jīng)驗的實踐。
如果我們認(rèn)為機(jī)器人是一種電視,床,茶幾,房子,沙發(fā)等等就是人類所擁有的財產(chǎn)或者說是對我們?nèi)祟愑袃r值的某種東西。那么,根絕它們的價值我們就應(yīng)該善待它們而且這應(yīng)該是一種義務(wù)。我們對機(jī)器人的道德與倫理方面的尊重也可以說就是依賴于機(jī)器人對人類的價值而不是基于機(jī)器人的道德行為。人們對機(jī)器人有一些間接的道德義務(wù)作為財產(chǎn)(例如道德方面的尊重和保護(hù))。從歷史的角度看,這種我們對財產(chǎn)所有權(quán)的信任其實已經(jīng)是一種道德習(xí)慣和道德傳統(tǒng)了。那么在未來的生活中,我們的機(jī)器人作為一個財務(wù)將會受到最基本的道德關(guān)懷和尊重也是合情合理的。因為機(jī)器人對我們來說就是有意義和價值的了,基于這個層面機(jī)器人會得到很多間接的道德關(guān)懷。人們更傾向于把機(jī)器人當(dāng)作價值對象,而不是充當(dāng)?shù)赖麓砣说臋C(jī)器人。所以不論是在目前的實踐應(yīng)用中還是在未來飛速發(fā)展的人工智能時代,只要機(jī)器人于我們來說具有一定的價值和意義我們就必須給予一定的道德上的關(guān)懷。
從情感的角度看,如果我們讓機(jī)器人遵循道德,沒有恐懼、同情、愛和關(guān)心這些情感因素,那么我們就能決定機(jī)器人不僅不道德,這樣對整個社會來說也是相當(dāng)危險的。這種所謂的價值認(rèn)知的缺失就不是真正的道德行為??紤]到這些沒有情感的機(jī)器人的完全獨立和自主,這將是人類社會的一大危機(jī)??茖W(xué)技術(shù)是一把雙刃劍,可以造福人類,毀滅人類。所以要記住首席設(shè)計師的一句話:科學(xué)和技術(shù)是第一種破壞性的力量。當(dāng)你揮舞寶劍時,你必須小心,不要傷害自己。實現(xiàn)社會公平正義,確??茖W(xué)技術(shù)發(fā)展和利用的合法性。
[1][美]劉易斯.芒福德經(jīng)典著作系列,機(jī)器的神話[M].宋俊嶺,等,譯.北京:中國建筑工業(yè)出版社,2009.
[2][美]劉易斯.芒福德經(jīng)典著作系列,技術(shù)與文明[M].宋俊嶺,等,譯,北京:中國建筑工業(yè)出版社,2009.
[3]楊叔子,鄭曉軍.人工智能與診斷專家系統(tǒng)[M].陜西:西安交通大學(xué)出版社,1990.
[4]蔡白興,徐光佑.人工智能理論及應(yīng)用[M].北京:清華大學(xué)出版社,1992.
[5]王東浩.道德機(jī)器人:人類責(zé)任存在與缺失之間的矛盾[J].理論月刊,2013(11).
[6]王東浩.應(yīng)用倫理學(xué)研究的新視野:機(jī)器人倫理[J].石家莊職業(yè)技術(shù)學(xué)院學(xué)報,2013(05).
[7]王東浩.基于技術(shù)和倫理角度的機(jī)器人的發(fā)展趨勢[J].衡水學(xué)院學(xué)報,2013(05).
[8]任曉明,王東浩.機(jī)器人的當(dāng)代發(fā)展及其倫理問題初探[J].自然辯證法研究,2013(06).
[9]王東浩.機(jī)器人倫理問題探賾[J].未來與發(fā)展,2013(05).
華中師范大學(xué))
洪夢丹(1991-),女,漢族,湖北人,碩士,華中師范大學(xué),研究方向:倫理學(xué)。