吳愷
〔摘要〕 隨著當(dāng)代技術(shù)領(lǐng)域的革新和進(jìn)步,人工智能技術(shù)的相關(guān)倫理問(wèn)題日益凸顯。目前,人工智能技術(shù)發(fā)展中的倫理問(wèn)題存在人工智能的“權(quán)利”、人工智能事故的責(zé)任認(rèn)定、人工智能的道德地位等方面的問(wèn)題。為此,應(yīng)加強(qiáng)人工智能技術(shù)的國(guó)際交流與合作,在人工智能技術(shù)中融入更多哲學(xué)和倫理學(xué)的思考,以生態(tài)價(jià)值觀推動(dòng)人工智能技術(shù)的發(fā)展,增強(qiáng)科學(xué)家的道德責(zé)任感,積極構(gòu)建有關(guān)人工智能技術(shù)的法律規(guī)范。
〔關(guān)鍵詞〕 人工智能技術(shù);倫理道德;生態(tài)價(jià)值觀;法律法規(guī)
〔中圖分類(lèi)號(hào)〕TP18 ? 〔文獻(xiàn)標(biāo)識(shí)碼〕A 〔文章編號(hào)〕1009-1203(2019)03-0065-04
作為計(jì)算機(jī)科學(xué)分支的人工智能,是研發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法及其應(yīng)用的一門(mén)新興技術(shù)科學(xué)。人工智能通過(guò)解析人類(lèi)智能的本質(zhì),力圖研制出一種能以與人類(lèi)智能相似的方式作出反應(yīng)的智能機(jī)器,該領(lǐng)域的研發(fā)包括機(jī)器人、語(yǔ)言模擬、圖像識(shí)別、自然語(yǔ)言處理和專家系統(tǒng)等 〔1 〕。隨著現(xiàn)代科學(xué)技術(shù)的蓬勃發(fā)展,人工智能已經(jīng)逐漸滲透到了人類(lèi)工作和生活的方方面面,與人工智能相關(guān)的倫理問(wèn)題也日益凸顯。人工智能技術(shù)發(fā)展中倫理問(wèn)題的發(fā)現(xiàn)和解決,勢(shì)必促進(jìn)人工智能技術(shù)的健康發(fā)展,使其更好地為經(jīng)濟(jì)社會(huì)發(fā)展和人民美好生活服務(wù)。
一、人工智能技術(shù)的發(fā)展歷程
人工智能技術(shù)是一門(mén)綜合性很強(qiáng)的學(xué)科,再加上心理學(xué)、生理學(xué)、數(shù)學(xué)、哲學(xué)等對(duì)其的貢獻(xiàn),各種關(guān)于人工智能的新思想、新理論、新技術(shù)層出不窮 〔2 〕。人工智能技術(shù)經(jīng)過(guò)幾十年的發(fā)展,對(duì)人類(lèi)社會(huì)的影響與日俱增,其應(yīng)用領(lǐng)域也越來(lái)越廣泛,如今,人工智能技術(shù)已經(jīng)用于軍事、安保、圖像識(shí)別、無(wú)人駕駛、股票分析、太空船航行、生物控制等眾多領(lǐng)域。
早在古希臘時(shí)期,亞里士多德就開(kāi)始了對(duì)人類(lèi)思維規(guī)律的研究。近代,英國(guó)科學(xué)家喬治·布爾創(chuàng)立了邏輯代數(shù),英國(guó)數(shù)學(xué)家巴貝奇致力于差分機(jī)和分析機(jī)的研究,英國(guó)數(shù)學(xué)家圖靈提出了理想計(jì)算機(jī)模型,并創(chuàng)立了自動(dòng)機(jī)理論,這些早期的研究為現(xiàn)代人工智能的出現(xiàn)奠定了理論基礎(chǔ)。在1963年后,人工智能技術(shù)的發(fā)展進(jìn)入了新的階段,人類(lèi)在自然語(yǔ)言通訊方面取得突破性進(jìn)展,人工智能的目標(biāo)主要在于如何讓計(jì)算機(jī)理解自然語(yǔ)言、準(zhǔn)確回答問(wèn)題、自動(dòng)分析圖像或圖形等。20世紀(jì)70年代出現(xiàn)了專家系統(tǒng),可以模擬人類(lèi)專家的知識(shí)和經(jīng)驗(yàn)來(lái)解決特定問(wèn)題,這促進(jìn)了人工智能從理論研究走向?qū)嶋H應(yīng)用的突破。20世紀(jì)80年代,專家系統(tǒng)在醫(yī)療、化學(xué)、地質(zhì)等領(lǐng)域取得了一系列成功,使人工智能在應(yīng)用方面達(dá)到了一個(gè)高峰。20世紀(jì)90年代之后,由于互聯(lián)網(wǎng)技術(shù)的發(fā)展,讓人工智能技術(shù)進(jìn)一步走向?qū)嵱没?997年5月,IBM公司研制的“深藍(lán)”成為戰(zhàn)勝國(guó)際象棋世界冠軍卡斯帕羅夫的第一個(gè)計(jì)算機(jī)系統(tǒng)。2016年3月,阿爾法圍棋與圍棋世界冠軍、職業(yè)九段棋手李世石進(jìn)行圍棋人機(jī)大戰(zhàn),以4比1的總比分獲勝。這標(biāo)志著人工智能系統(tǒng)在某些領(lǐng)域可以達(dá)到人類(lèi)的最高水平。2017年10月,在沙特阿拉伯利雅得舉行的“未來(lái)投資倡議”大會(huì)上,機(jī)器人“索菲亞”被授予沙特公民身份,成為全球首個(gè)獲得公民身份的機(jī)器人。2018年11月22日,在“偉大的變革——慶祝改革開(kāi)放40周年大型展覽”上,第三代國(guó)產(chǎn)骨科手術(shù)機(jī)器人“天璣”進(jìn)行了模擬手術(shù)的展示。這眾多成就的取得,對(duì)人工智能的研究起到了巨大推動(dòng)作用,也促使世界各國(guó)大力關(guān)注人工智能技術(shù)的倫理問(wèn)題。
二、當(dāng)代人工智能技術(shù)發(fā)展中遇到的倫理問(wèn)題
隨著社會(huì)的不斷發(fā)展,各行各業(yè)的分工越來(lái)越精細(xì),尤其是在現(xiàn)代生產(chǎn)中,各種職業(yè)病層出不窮,于是人們強(qiáng)烈希望用某種機(jī)器去代替自己工作,因此人們研制出了人工智能機(jī)器人,用來(lái)代替人類(lèi)去完成那些單調(diào)、枯燥或危險(xiǎn)的工作。雖然用人工智能代替人類(lèi)去完成部分工作解決了某些人類(lèi)不易完成的問(wèn)題,并在很大程度上提高了工作效率,但人工智能的問(wèn)世,必然會(huì)使一部分人失去原來(lái)的工作,出現(xiàn)“人工智能上崗,人將下崗”的情況,從而有意無(wú)意地剝奪了人們勞動(dòng)和就業(yè)的權(quán)利,出現(xiàn)人類(lèi)與人工智能在就業(yè)上的沖突。此外,隨著生命技術(shù)、信息技術(shù)、納米技術(shù)等新領(lǐng)域的發(fā)展,人類(lèi)與人工智能之間的結(jié)合越來(lái)越緊密,將來(lái)我們有可能生活在一個(gè)充滿各種“混合人”的世界里,比如會(huì)出現(xiàn)“人與動(dòng)物的結(jié)合體”“人與機(jī)器的結(jié)合體”等 〔3 〕??梢?jiàn),對(duì)人工智能倫理問(wèn)題的思考終將成為人類(lèi)不可回避的問(wèn)題。具體來(lái)說(shuō),人工智能發(fā)展可能導(dǎo)致的倫理問(wèn)題包括如下方面:
第一,人工智能的“權(quán)利”問(wèn)題。在人工智能技術(shù)快速發(fā)展的背景下,各種“智能生命”陸續(xù)問(wèn)世,使得人類(lèi)的人權(quán)受到了前所未有的挑戰(zhàn)。隨著人工智能應(yīng)用領(lǐng)域的廣泛,以往只是從事簡(jiǎn)單體力勞動(dòng)的智能機(jī)器人具有了不同程度的感知能力及“人性”,機(jī)器人代替人類(lèi)工作已不再是神話。這一方面給人類(lèi)生活帶來(lái)了便利和福音,但另一方面也使得越來(lái)越尖銳的人權(quán)倫理問(wèn)題擺在了人類(lèi)面前,如人工智能是否會(huì)危害人類(lèi)的生命和健康、侵犯人類(lèi)的尊嚴(yán)和隱私、破壞人類(lèi)的自由等?,F(xiàn)在人工智能的表情和行為是通過(guò)內(nèi)部軟件來(lái)控制的,通過(guò)相關(guān)程序的設(shè)定,可以使人工智能具有人的某些特性。從某些方面的能力來(lái)看,如記憶、運(yùn)算等,由電腦武裝起來(lái)的人工智能已遠(yuǎn)遠(yuǎn)超過(guò)了人類(lèi)。隨著人類(lèi)與人工智能的交集越來(lái)越大,我們是否應(yīng)該給人工智能以等同于人類(lèi)的“權(quán)利”?有反對(duì)者認(rèn)為:我們不需要太強(qiáng)大的人工智能機(jī)器人,也不能給它任何“權(quán)利”;讓人工智能擁有“人權(quán)”,就違背了“人工智能機(jī)器人三大法則”,就是放棄人類(lèi)對(duì)人工智能的管控,這將間接危害到人類(lèi)。而贊成者認(rèn)為:如果人工智能機(jī)器人有“道德良知”,能與人類(lèi)互動(dòng),他們就應(yīng)該享有一定程度的權(quán)利。
第二,人工智能事故的責(zé)任認(rèn)定問(wèn)題。當(dāng)今,人工智能技術(shù)發(fā)生了翻天覆地的變化,且正以驚人的速度向服務(wù)業(yè)、娛樂(lè)業(yè)、軍事、農(nóng)業(yè)、教育等領(lǐng)域擴(kuò)展。人工智能產(chǎn)品在給人類(lèi)帶來(lái)幫助的同時(shí)也讓人非常糾結(jié),因?yàn)槟承┤斯ぶ悄苡袑W(xué)習(xí)的功能,能“自學(xué)成才”。也就是說(shuō),一段時(shí)間之后,它會(huì)像人一樣,根據(jù)自己的所“見(jiàn)”所“想”自作主張。與此同時(shí),用于規(guī)范人工智能相關(guān)行為的規(guī)則遠(yuǎn)遠(yuǎn)沒(méi)有跟上,這使得人工智能技術(shù)的責(zé)任倫理問(wèn)題越來(lái)越明顯,其爭(zhēng)論的焦點(diǎn)在于由誰(shuí)來(lái)負(fù)責(zé)人工智能技術(shù)所引發(fā)事故的責(zé)任。于是,對(duì)人工智能可能帶來(lái)的各種后果,人們產(chǎn)生了極大的恐慌和擔(dān)憂。例如,隨著人工智能替代了更多人力勞動(dòng)后,誰(shuí)來(lái)負(fù)責(zé)不斷加劇的失業(yè)率;醫(yī)療行業(yè)用于診斷的專家系統(tǒng)如果出現(xiàn)失誤,所導(dǎo)致的醫(yī)療事故由誰(shuí)來(lái)負(fù)責(zé);股市預(yù)測(cè)系統(tǒng)給股民帶來(lái)的損失由誰(shuí)來(lái)賠償,等等 〔4 〕。再比如,如果出現(xiàn)機(jī)器傷害人類(lèi)的事故,是機(jī)器的責(zé)任還是其設(shè)計(jì)者和使用者的責(zé)任?因此,不管是人工智能技術(shù)相關(guān)領(lǐng)域的政策制定者、科研人員,還是人工智能技術(shù)的使用者,都應(yīng)擔(dān)負(fù)起相應(yīng)的倫理責(zé)任。現(xiàn)代技術(shù)的突飛猛進(jìn),要求我們更深入地關(guān)心人類(lèi)的前途和命運(yùn),不能隨意將技術(shù)的進(jìn)步作為人類(lèi)和自然界相互較量的“賭注”。
第三,人工智能的道德地位問(wèn)題。一種事物如果擁有道德地位,人類(lèi)就應(yīng)對(duì)其承擔(dān)相應(yīng)的倫理義務(wù)。如果我們否定智能機(jī)器人的道德地位和社會(huì)身份,我們就可以用任何自己喜歡的方式來(lái)對(duì)待它,而沒(méi)有仁慈或殘酷的區(qū)別。但事實(shí)上,不顧及人工智能的道德地位而為所欲為,就會(huì)與我們的傳統(tǒng)倫理相違背。當(dāng)前機(jī)器人的“人格化”是一個(gè)大的發(fā)展趨勢(shì),家用服務(wù)型機(jī)器人除了能替人們完成一些枯燥的工作外,還能進(jìn)行復(fù)雜的有交互性質(zhì)的行為,如收獲果實(shí)、輔助醫(yī)療等,甚至還可以在一定程度上滿足人類(lèi)的情感需要。在“人形交互式機(jī)器人”這個(gè)新興領(lǐng)域,還逐漸實(shí)現(xiàn)了情感交流、言語(yǔ)感知、知識(shí)學(xué)習(xí)等新功能。如果人們對(duì)具備“情感”的人工智能機(jī)器人任意指使、傳喚、謾罵、毆打,就明顯違背了人類(lèi)公認(rèn)的道德標(biāo)準(zhǔn)。
三、當(dāng)代人工智能技術(shù)倫理問(wèn)題之成因
人類(lèi)研發(fā)人工智能的初衷是讓人工智更好地服務(wù)人類(lèi)社會(huì),為人類(lèi)生活帶來(lái)便利,但當(dāng)人類(lèi)越來(lái)越依賴人工智能的時(shí)候,我們必須正視人工智能可能帶來(lái)的威脅。其中人工智能技術(shù)帶來(lái)的倫理問(wèn)題不僅真實(shí)存在,而且也必將會(huì)愈發(fā)突出。通過(guò)對(duì)人工智能所引發(fā)的倫理問(wèn)題的分析,我們可以從以下幾個(gè)方面來(lái)探討人工智能倫理問(wèn)題的成因:
第一,技術(shù)上的局限性。目前,人工智能技術(shù)已經(jīng)應(yīng)用于各行各業(yè),大到軍事武器、航空航天,小到家用電器、兒童玩具等。人工智能技術(shù)的發(fā)展給人類(lèi)帶來(lái)了巨大的便利,其未來(lái)前景可觀且潛力無(wú)限。但當(dāng)前人工智能在技術(shù)上存在的不足導(dǎo)致了很多倫理上的問(wèn)題,這些倫理問(wèn)題成為了人工智能技術(shù)發(fā)展道路上的“攔路虎”。例如,目前的戰(zhàn)爭(zhēng)機(jī)器人還無(wú)法準(zhǔn)確區(qū)分平民和戰(zhàn)斗人員,也無(wú)法分辨出哪些人是傷兵,或者哪些建筑是符合戰(zhàn)爭(zhēng)法中規(guī)定的可打擊目標(biāo),他們只是按照人類(lèi)既定程序去執(zhí)行命令,沒(méi)有人類(lèi)判斷力和識(shí)別力的戰(zhàn)爭(zhēng)機(jī)器人無(wú)法判斷“命令”的對(duì)錯(cuò),也無(wú)法停止執(zhí)行錯(cuò)誤的“命令”。如果使用者濫用各種“命令”,其后果將不堪設(shè)想。因此人工智能技術(shù)自身的局限性帶來(lái)了倫理問(wèn)題。
第二,倫理規(guī)制的缺乏。當(dāng)今,與人工智能相關(guān)的現(xiàn)有倫理規(guī)制已遠(yuǎn)遠(yuǎn)落后于人工智能技術(shù)發(fā)展速度,而人們對(duì)人工智能技術(shù)倫理規(guī)制的重視不足,導(dǎo)致新的人工智能倫理規(guī)制制定進(jìn)展緩慢,人工智能技術(shù)相關(guān)倫理規(guī)制的缺失造成大量倫理問(wèn)題的產(chǎn)生。例如,當(dāng)我們的某些情緒找不到人發(fā)泄時(shí),就可以向“智能聊天機(jī)器人”宣泄;但如果長(zhǎng)時(shí)間與“智能聊天機(jī)器人”進(jìn)行溝通,將不可避免地會(huì)對(duì)“智能聊天機(jī)器人”產(chǎn)生情感上的依賴,這容易引發(fā)心理疾病或其他不良后果。但是,今天還沒(méi)有任何規(guī)范人與“智能聊天機(jī)器人”交往的倫理道德規(guī)范,這一問(wèn)題已引起了越來(lái)越多學(xué)者的關(guān)注。
第三,政策法規(guī)的滯后與不完善。隨著人們對(duì)人工智能研究的深入,關(guān)于人工智能技術(shù)的倫理道德原則也逐漸引起人們的關(guān)注。關(guān)于人工智能的規(guī)范,在人工智能發(fā)展的早期,美國(guó)科幻作家阿西莫夫就曾給出了著名的“機(jī)器人學(xué)三定律”:一是機(jī)器人不得傷害人類(lèi),也不得見(jiàn)人受到傷害而袖手旁觀;二是機(jī)器人必須服從人的命令;三是機(jī)器人必須保護(hù)自己,但不得違反第一、第二條定律 〔5 〕。2005年,歐洲人工智能領(lǐng)域的頂尖專家共同成立了“機(jī)器人倫理學(xué)研究室”,主要致力于為人工智能技術(shù)的研發(fā)制定合理的倫理原則。2007年,韓國(guó)政府出臺(tái)了“機(jī)器人憲章”,旨在對(duì)機(jī)器人的設(shè)計(jì)、生產(chǎn)和應(yīng)用給予指導(dǎo)。同年,日本千葉大學(xué)也制定了關(guān)于智能機(jī)器人研究的規(guī)定——“千葉大學(xué)機(jī)器人憲章”,強(qiáng)調(diào)人工智能研發(fā)的初衷是保護(hù)人類(lèi)、服務(wù)人類(lèi),為人類(lèi)創(chuàng)造和平的發(fā)展環(huán)境。2017年9月,聯(lián)合國(guó)“犯罪和司法研究所”決定在海牙成立第一個(gè)聯(lián)合國(guó)人工智能和機(jī)器人中心,以規(guī)范人工智能技術(shù)的發(fā)展。當(dāng)然,這些規(guī)范雖然很明確,但無(wú)法適應(yīng)復(fù)雜的人工智能活動(dòng)。人工智能技術(shù)作為一種新興技術(shù),其發(fā)展時(shí)間還不長(zhǎng),與其相關(guān)的人權(quán)、環(huán)境、責(zé)任等倫理問(wèn)題基本都超出了現(xiàn)有法律的范圍。這些倫理問(wèn)題的出現(xiàn),目前只能借助科學(xué)家的道德素養(yǎng)和社會(huì)輿論的監(jiān)督來(lái)規(guī)范和約束,很難利用法律途徑對(duì)其有效解決。因此,關(guān)于人工智能技術(shù)領(lǐng)域的相關(guān)法律法規(guī)還需要不斷進(jìn)行補(bǔ)充和完善。
四、人工智能技術(shù)倫理問(wèn)題的解決對(duì)策
通過(guò)對(duì)人工智能技術(shù)倫理問(wèn)題成因的分析,我們可以從技術(shù)、道德法律、人類(lèi)自身等層面采取相應(yīng)的應(yīng)對(duì)策略,來(lái)解決這些倫理問(wèn)題,使人工智能技術(shù)更好地造福于人類(lèi)。具體來(lái)講,應(yīng)做到以下幾點(diǎn):
第一,加強(qiáng)人工智能技術(shù)的國(guó)際交流與合作?,F(xiàn)在人工智能逐漸得到了世界各個(gè)國(guó)家的重視,與空間技術(shù)、能源技術(shù)并稱為世界三大尖端技術(shù)。人工智能技術(shù)屬于一個(gè)正在發(fā)展并有極大提升空間的新技術(shù),它還存在很多技術(shù)方面的不足。通過(guò)國(guó)際間的合作與交流,人工智能技術(shù)提升的空間會(huì)更大,其解決問(wèn)題的能力也會(huì)更強(qiáng)大。如果各國(guó)能加強(qiáng)人工智能技術(shù)的交流與合作,人工智能技術(shù)的發(fā)展必將迎來(lái)新的突破。對(duì)人工智能技術(shù)領(lǐng)域的管理,也要加強(qiáng)國(guó)際間的合作,要堅(jiān)決反對(duì)違反國(guó)際條例的人工智能科研計(jì)劃,并按照相關(guān)法律法規(guī)和國(guó)際慣例對(duì)人工智能技術(shù)進(jìn)行嚴(yán)格管理 〔6 〕。
第二,在人工智能技術(shù)中融入更多哲學(xué)和倫理學(xué)的思考。盡管目前關(guān)于人工智能技術(shù)的哲學(xué)思考比較豐富,但幾乎都只是建立在純學(xué)術(shù)領(lǐng)域,且更多是對(duì)人工智能的現(xiàn)象進(jìn)行思辨,這對(duì)解決人工智能技術(shù)的倫理問(wèn)題沒(méi)有太多實(shí)質(zhì)性幫助。因?yàn)槿斯ぶ悄艿难邪l(fā)和實(shí)施人員優(yōu)先考慮的是科技的合理性、高效性和經(jīng)濟(jì)性,很少注重構(gòu)建相應(yīng)的倫理體系,這往往導(dǎo)致技術(shù)預(yù)測(cè)不到位,對(duì)人工智能發(fā)展的很多后果都預(yù)測(cè)不到。相比于社會(huì)大眾來(lái)說(shuō),人工智能研發(fā)和實(shí)施人員對(duì)人工智能技術(shù)可能存在的危害會(huì)更清楚。如果他們?cè)谘邪l(fā)人工智能技術(shù)時(shí),能像哲學(xué)家那樣對(duì)人的情感、人的認(rèn)知、社會(huì)倫理等方面有更周全的考慮,就能避免很多倫理困境。只有加強(qiáng)人工智能技術(shù)領(lǐng)域研發(fā)、實(shí)施人員與哲學(xué)家之間的交流與合作,將更多哲學(xué)思考融入人工智能技術(shù),才能使人工智能技術(shù)更人性化、生態(tài)化、和諧化,并有助于各種人工智能技術(shù)倫理問(wèn)題之解決。
第三,以生態(tài)價(jià)值觀推動(dòng)人工智能技術(shù)的發(fā)展。對(duì)生態(tài)價(jià)值觀的踐行,有助于人們正確認(rèn)識(shí)技術(shù)實(shí)踐的雙重效應(yīng),矯正技術(shù)理性的片面發(fā)展,化解技術(shù)發(fā)展的消極后果,推動(dòng)技術(shù)實(shí)踐的綠色和生態(tài)化轉(zhuǎn)向。如何使人工智能技術(shù)更好地發(fā)展?人工智能技術(shù)將走向何方?對(duì)于任何一項(xiàng)人工智能技術(shù),必須考慮它是否破壞環(huán)境,是否對(duì)人類(lèi)的身心健康有害,是否會(huì)帶來(lái)新的倫理道德問(wèn)題或引起國(guó)際間的沖突。對(duì)生態(tài)價(jià)值觀的踐行,將對(duì)包括人工智能技術(shù)在內(nèi)的高新技術(shù)提出更高的要求,這對(duì)人工智能技術(shù)的發(fā)展既是一種挑戰(zhàn)也是一種機(jī)遇。對(duì)人工智能技術(shù)來(lái)說(shuō),確保其與生態(tài)價(jià)值觀相符合,不違背生態(tài)文明建設(shè)的目標(biāo),將是未來(lái)發(fā)展的一種方向。
第四,增強(qiáng)科學(xué)家的道德責(zé)任感。愛(ài)因斯坦曾指出,怎樣使用科學(xué)技術(shù),究竟是給人類(lèi)帶來(lái)幸福還是帶來(lái)災(zāi)難,全取決于人自己,而不取決于工具本身 〔7 〕。人工智能技術(shù)產(chǎn)生的一些倫理問(wèn)題往往是由于科學(xué)家缺乏道德義務(wù)和道德責(zé)任。有些科學(xué)家將自己封閉于單純開(kāi)發(fā)技術(shù)的狹隘空間,對(duì)社會(huì)道德責(zé)任處于無(wú)意識(shí)的狀態(tài),這導(dǎo)致他們很容易被某些別有用心的政治家利用,使他們自己及他們擅長(zhǎng)的技術(shù)成為這些政治家的工具。因此,提高科學(xué)家的道德責(zé)任感十分必要。一方面,科學(xué)家應(yīng)以辯證的態(tài)度開(kāi)展自己的工作,能夠清晰認(rèn)識(shí)到人工智能技術(shù)既能造福人類(lèi),也能毀滅人類(lèi)。另一方面,科學(xué)家應(yīng)該有長(zhǎng)遠(yuǎn)的眼光,不要為短暫的私利而開(kāi)發(fā)出不符合人類(lèi)道德的產(chǎn)品,而應(yīng)該以仁愛(ài)、和諧、生態(tài)、可持續(xù)等積極理念去開(kāi)發(fā)造福于人類(lèi)的技術(shù)。當(dāng)人工智能科學(xué)家的道德素養(yǎng)達(dá)到足夠高的境界時(shí),他們會(huì)自動(dòng)擺正人工智能技術(shù)發(fā)展的方向盤(pán),將人工智能帶向更美好的明天。
第五,積極構(gòu)建有關(guān)人工智能技術(shù)的法律規(guī)范。俗話說(shuō),“沒(méi)有規(guī)矩,不成方圓”,目前針對(duì)人工智能技術(shù)的相關(guān)立法,如數(shù)字安全法、個(gè)人信息保護(hù)法等,我國(guó)已經(jīng)有了初步的規(guī)劃,但規(guī)范人工智能技術(shù)發(fā)展的正式立法還未出臺(tái)。只有正式立法才能構(gòu)建人工智能技術(shù)發(fā)展的剛性原則,并將其落實(shí)到人工智能技術(shù)新產(chǎn)品生產(chǎn)的各個(gè)環(huán)節(jié)中。鑒于人工智能技術(shù)的發(fā)展給人類(lèi)帶來(lái)的諸多隱患,我國(guó)應(yīng)積極關(guān)注國(guó)外已經(jīng)出現(xiàn)、國(guó)內(nèi)尚未出現(xiàn)的人工智能技術(shù)倫理問(wèn)題,并盡早出臺(tái)有關(guān)人工智能技術(shù)的法律法規(guī)。此外,人工智能技術(shù)倫理問(wèn)題也應(yīng)得到國(guó)際社會(huì)的高度重視,并早日制定一部通用性國(guó)際法律,以引導(dǎo)人工智能技術(shù)的發(fā)展。在此基礎(chǔ)上,以這部通用法律為指導(dǎo),各個(gè)國(guó)家可以制定與本國(guó)國(guó)情相符的人工智能技術(shù)相關(guān)法律法規(guī),并對(duì)其嚴(yán)格執(zhí)行,這將使人工智能技術(shù)的發(fā)展之路充滿光明。
總之,人工智能技術(shù)的發(fā)展是當(dāng)今社會(huì)發(fā)展的必然趨勢(shì)。正如習(xí)近平總書(shū)記在十九屆第九次中央政治局集體學(xué)習(xí)時(shí)所指出的:“人工智能是引領(lǐng)這一輪科技革命和產(chǎn)業(yè)變革的戰(zhàn)略性技術(shù),具有溢出帶動(dòng)性很強(qiáng)的‘頭雁效應(yīng)。” 〔8 〕雖然當(dāng)代人工智能的發(fā)展引發(fā)了不少倫理問(wèn)題,但只要我們堅(jiān)持以人為本,把握好其發(fā)展尺度,確定好其發(fā)展原則,就必將使人工智能真正服務(wù)于人類(lèi)的幸福安康。
〔參 考 文 獻(xiàn)〕
〔1〕陳立鵬.人工智能引發(fā)的科學(xué)技術(shù)倫理問(wèn)題〔J〕.文學(xué)教育,2012(08):130.
〔2〕譚 印.人工智能在計(jì)算機(jī)網(wǎng)絡(luò)技術(shù)中的應(yīng)用〔J〕.通訊世界,2017(06):53-54.
〔3〕張顯峰,程宇婕.情感機(jī)器人:技術(shù)與倫理的雙重困境〔N〕.科技日?qǐng)?bào),2009-04-21(05).
〔4〕陳 靜.科技與倫理走向融合——論人工智能技術(shù)的人文化〔J〕.學(xué)術(shù)界,2017(09):102-111.
〔5〕易重華,魯再書(shū).對(duì)機(jī)器人恐慌的哲學(xué)根源和消解〔J〕.勞動(dòng)保障世界,2016(17):67-68.
〔6〕張桂娟,刁生富.三元結(jié)構(gòu)社會(huì)的新問(wèn)題:人與半機(jī)器人和機(jī)器人的相處之道〔J〕.未來(lái)與發(fā)展,2017(11):53-58.
〔7〕趙 博.網(wǎng)絡(luò)技術(shù)倫理的理性思考〔J〕.黑龍江史志,2010(06):57-58.
〔8〕習(xí)近平:推動(dòng)我國(guó)新一代人工智能健康發(fā)展〔J〕.中國(guó)信息安全,2018(12):28-29.
責(zé)任編輯 徐 芳