◎?qū)O保學(xué)
目前,人工智能技術(shù)已經(jīng)在各行各業(yè)和人們的日常生活中被廣泛應(yīng)用。在語音技術(shù)、圖像技術(shù)、視頻技術(shù)、人機(jī)交互、知識(shí)圖譜和增強(qiáng)現(xiàn)實(shí)等領(lǐng)域,人工智能的應(yīng)用使得效率大大提升。人們在智能手機(jī)或電腦上獲取的新聞、廣告、音樂和視頻等,很多都是智能搜索算法根據(jù)用戶的瀏覽習(xí)慣進(jìn)行的個(gè)性化推薦;招聘網(wǎng)站能夠根據(jù)客戶的需求自動(dòng)匹配適合某個(gè)崗位的求職者;很多體育新聞和財(cái)經(jīng)報(bào)道其實(shí)是由人工智能系統(tǒng)寫出;……對(duì)于人工智能對(duì)人們生活的重塑,社會(huì)輿論和學(xué)術(shù)界都給予了很多關(guān)注,但主要是集中在產(chǎn)業(yè)發(fā)展和就業(yè)影響方面,缺少從哲學(xué)尤其是倫理學(xué)視角來思考人工智能技術(shù)風(fēng)險(xiǎn)及其治理的研究。
索菲亞,世界上首個(gè)被授予公民資格的機(jī)器人。
我們正加速進(jìn)入人工智能時(shí)代。計(jì)算機(jī)技術(shù)和互聯(lián)網(wǎng)技術(shù)曾先后主導(dǎo)了兩次信息技術(shù)革命。當(dāng)前,我們正身處以人工智能技術(shù)為核心的第三次信息技術(shù)浪潮之中。它的突破性變革表現(xiàn)在:一方面,從技術(shù) (軟件和硬件)的演進(jìn)和發(fā)展的角度看,不僅計(jì)算機(jī)的運(yùn)算能力較幾十年前取得了飛速提升,而且以深度學(xué)習(xí)為代表的人工智能算法使人工智能的自主學(xué)習(xí)能力大大增強(qiáng)。學(xué)習(xí)算法具備了更強(qiáng)的自主能力,能夠自行學(xué)習(xí)和編程,處理越來越復(fù)雜的任務(wù);另一方面,從外部影響因素來看,大數(shù)據(jù)時(shí)代的到來使機(jī)器學(xué)習(xí)的復(fù)雜算法得以流暢運(yùn)行和應(yīng)用。同時(shí),商業(yè)創(chuàng)新和投資應(yīng)用的推波助瀾使各項(xiàng)技術(shù)得以快速迭代,像機(jī)器翻譯、語音識(shí)別、醫(yī)療診斷、無人機(jī)和自動(dòng)駕駛等技術(shù)越來越多地嵌入到人們的日常生活中。
不過,人工智能技術(shù)給人類帶來便利的同時(shí),也給人們帶來很多擔(dān)憂。人工智能在越來越多的領(lǐng)域開始超越人類智能,人們對(duì)于它的未來發(fā)展感到憂慮和恐懼。很多人擔(dān)心人工智將來會(huì)搶走自己的工作,最終引發(fā)全球性的失業(yè)潮,給社會(huì)帶來不安和動(dòng)蕩。假如人類的工作真的都被智能機(jī)器所接管,那么人類的價(jià)值將會(huì)如何?人類將何去何從?不過,在技術(shù)專家看來,情況并沒有如此糟糕。按照他們的預(yù)測,在人工智能領(lǐng)域潛藏巨大的市場,絕大多數(shù)工作確實(shí)會(huì)消失,但同時(shí)也會(huì)創(chuàng)造出更多的新型工作。事實(shí)上,上述擔(dān)憂并不會(huì)妨礙產(chǎn)業(yè)界追求更高商業(yè)利潤的腳步;同樣,人類對(duì)未知領(lǐng)域的好奇心也會(huì)驅(qū)使著科學(xué)家們不斷地探究人工智能的極限和邊界,上述擔(dān)憂也不會(huì)阻止科學(xué)界追尋終極算法的可能。
人工智能對(duì)人類生活的影響與日俱增,并且覆蓋領(lǐng)域正加速擴(kuò)展并不斷深化。長遠(yuǎn)來看,人工智能的廣泛應(yīng)用將帶來巨大的社會(huì)效益。隨著智能設(shè)備被越來越多地應(yīng)用于社會(huì),人類也將從機(jī)械的重復(fù)性勞動(dòng)中解放出來,完成那些復(fù)雜、精密或危險(xiǎn)的任務(wù),成為人類的得力助手。不過,隨著人工智能技術(shù)的不斷迭代和大規(guī)模應(yīng)用,人類與人工智能在交互過程中的沖突也將會(huì)日益增多,越來越多的倫理挑戰(zhàn)將逐漸凸顯出來。
從根本上說,人工智能的倫理問題主要由算法的自主學(xué)習(xí)能力所衍生出來。下文將從數(shù)據(jù)隱私、安全威脅、算法歧視和人工主體權(quán)利四個(gè)方面簡述人工智能所帶來的倫理挑戰(zhàn)。
第一,隱私泄露。在某種程度上,新一輪人工智能浪潮的到來是由數(shù)據(jù)驅(qū)動(dòng)的,數(shù)據(jù)是未來社會(huì)發(fā)展的 “新石油”。但是,在對(duì)數(shù)據(jù)資源進(jìn)行價(jià)值開發(fā)過程中,隱私問題可能成為最突出的倫理挑戰(zhàn)。在信息時(shí)代,各種網(wǎng)站和APP都可以作為平臺(tái)收集數(shù)據(jù),利用腳本跟蹤并記錄用戶的一舉一動(dòng)。數(shù)據(jù)挖掘技術(shù)能夠在各種看似不相關(guān)的數(shù)據(jù)中找到有價(jià)值的信息。人們的各種身份信息、網(wǎng)絡(luò)行為和生活軌跡都有可能被用來進(jìn)行商業(yè)價(jià)值開發(fā)。人們在網(wǎng)絡(luò)空間免費(fèi)獲取各種便利的同時(shí),是以讓渡自己的一些個(gè)人數(shù)據(jù)信息為代價(jià)的。為迎合用戶需求,智能設(shè)備會(huì)提供所謂的 “個(gè)性化定制”服務(wù),根據(jù)使用者的習(xí)慣和偏好分析和確定出使用者的行為特征,自動(dòng)調(diào)整算法參數(shù),從而能夠進(jìn)行選擇推薦和事務(wù)管理。但是,這些信息在被數(shù)據(jù)平臺(tái)收集并存儲(chǔ)到云端后,一旦出現(xiàn)防護(hù)漏洞就有可能造成大面積的隱私泄露。云計(jì)算和數(shù)據(jù)共享技術(shù)的廣泛應(yīng)用更是加劇了這種隱私泄露的風(fēng)險(xiǎn)。信息技術(shù)的創(chuàng)新使社會(huì)變得更加開放和透明,但同時(shí)也使個(gè)人隱私漸漸成為一種稀缺資源。
第二,安全風(fēng)險(xiǎn)。從近期看,人工智能所帶來的倫理上的安全風(fēng)險(xiǎn)主要表現(xiàn)為三個(gè)方面:一是技術(shù)濫用。人工智能的自我學(xué)習(xí)能力對(duì)于數(shù)據(jù)的需求是無限的,為了不斷提高性能表現(xiàn),算法對(duì)于數(shù)據(jù)的挖掘?qū)⒆兊迷絹碓骄?xì)和深入,這可能會(huì)侵入到受保護(hù)的信息。而且,黑客會(huì)利用人工智能技術(shù)非法竊取云端或平臺(tái)的數(shù)據(jù);二是技術(shù)缺陷。不成熟的技術(shù)更可能導(dǎo)致智能系統(tǒng)的異常運(yùn)行,加之算法決策的 “黑箱”特征導(dǎo)致的不透明性和解釋性困難,使得算法決策的歸責(zé)變得困難,這同樣埋下了安全隱患;三是管理缺失。如果智能系統(tǒng)的安全防護(hù)措施不到位,很可能被非法侵入和操控,從而威脅公共安全。從長遠(yuǎn)來看,隨著人工智能的發(fā)展和演化,人工智能有可能發(fā)展出自我意識(shí)和自由意志,那么人工智能威脅到人類生存不是沒有可能。在學(xué)術(shù)界,像庫茲韋爾和霍金都曾表達(dá)過這種擔(dān)憂;在產(chǎn)業(yè)界,像蓋茨和馬斯克等人也都認(rèn)為,不加約束地發(fā)展人工智能技術(shù)會(huì)存在極大的安全隱患。
第三,算法歧視。表面看來,算法作為一種數(shù)學(xué)結(jié)構(gòu),具有客觀的和確定性的特征。因此,算法決策應(yīng)該不大可能會(huì)受到人們的情感和價(jià)值觀的影響。但是,實(shí)際情況卻恰恰相反。人工智能系統(tǒng)基于算法模型和數(shù)據(jù)學(xué)習(xí)人類的行為數(shù)據(jù),進(jìn)而做出分析和預(yù)測。不過,訓(xùn)練數(shù)據(jù)可能并不真實(shí)地反映客觀的實(shí)際情況,它們有可能受到一些對(duì)抗樣本的干擾或污染,使其做出一些錯(cuò)誤決策。而且,在這些數(shù)據(jù)中也可能潛藏著不易被人們察覺地價(jià)值偏好或風(fēng)俗習(xí)慣。在特定群體中存在的種族歧視或性別歧視,最終都有可能被反映到數(shù)據(jù)中,從而被機(jī)器學(xué)習(xí)所繼承。這種歧視往往很難通過技術(shù)手段消除,從源頭上甄別哪些數(shù)據(jù)帶有歧視性是極其困難的。為了解決某個(gè)問題或任務(wù),不同的算法工程師會(huì)設(shè)計(jì)出不同的算法,它們在細(xì)節(jié)上滲透著設(shè)計(jì)者的主觀特質(zhì)。如果在算法設(shè)計(jì)中暗藏某種歧視,那么它可能要比潛藏于數(shù)據(jù)中的歧視更不利于社會(huì)公正。
第四,人工主體權(quán)利。人工智能在代替人類進(jìn)行決策或行動(dòng)時(shí),需要遵循人類社會(huì)的規(guī)則,符合法律和倫理的要求。否則,它的應(yīng)用和推廣有可能會(huì)面臨社會(huì)的民意挑戰(zhàn)和輿論壓力。在未來社會(huì),我們將如何看待人工智能主體或機(jī)器人呢?是將它們視為人類的伙伴,還是視其為低人一等的機(jī)器?與被人類馴化的寵物和家畜相比,它們的地位會(huì)有所不同嗎?它們是否會(huì)獲得法律上和道德上的主體地位呢?這些問題看似遙遠(yuǎn),但在我們身邊的確已經(jīng)發(fā)生。2017年10月25日,機(jī)器人Sophia(索菲亞)在沙特獲得國籍,成為世界上第一個(gè)獲得公民身份的機(jī)器人,由此引發(fā)熱議。將來,越來越多的安保機(jī)器人、護(hù)理機(jī)器人和家用型機(jī)器人將會(huì)出現(xiàn)在人們的日常生活中,它們在與人交互的過程中難免會(huì)碰到各種法律、倫理問題。人工智能主體的違法和不道德行為究竟該如何處理?假如人工智能沒有財(cái)產(chǎn)權(quán),那么它們是否有資格或有能力像人類一樣承擔(dān)責(zé)任呢?如果人工智能獲得主體地位,它的責(zé)任和義務(wù)與人類是一樣的嗎?如果人工智能的決策算法由人類設(shè)定,或者人們對(duì)智能機(jī)器的決策形成強(qiáng)烈依賴,那么作為人工智能的使用者或擁有者是否應(yīng)當(dāng)承擔(dān)某種監(jiān)護(hù)責(zé)任呢?上述問題都是政府相關(guān)部門、公眾、學(xué)術(shù)界和產(chǎn)業(yè)界應(yīng)該深入思考和討論的。
實(shí)際上,如果人工智能不能贏得公眾的信任、消除人們對(duì)其潛在風(fēng)險(xiǎn)的擔(dān)憂和恐懼,其應(yīng)用和推廣勢必會(huì)遭遇阻力。因此,有關(guān)人工智能的倫理風(fēng)險(xiǎn)的研究應(yīng)盡快提上議事日程,立法和行政機(jī)構(gòu)要盡快制定相關(guān)的法律法規(guī)和政策,以此指導(dǎo)和規(guī)制人工智能技術(shù)良好發(fā)展,產(chǎn)業(yè)界要設(shè)計(jì)出符合政策和法律的人工智能產(chǎn)品,防止其被誤用和濫用。
在未來社會(huì),人類與智能機(jī)器共存將是一種新常態(tài)。那么,如何盡量地減少人工智能在設(shè)計(jì)、研發(fā)、生產(chǎn)和使用環(huán)節(jié)的倫理風(fēng)險(xiǎn)呢?事實(shí)上,實(shí)現(xiàn)倫理治理主要依靠良好的制度設(shè)計(jì)和政策引導(dǎo),而非單純地依靠道德倡議就能夠湊效??傮w而言,我們需要從立法、監(jiān)管、產(chǎn)業(yè)、技術(shù)和國際合作做出努力,采取必要的應(yīng)對(duì)措施,減少或避免倫理沖突發(fā)生的可能性。
第一,要建立和完善智能社會(huì)的政策和法律體系,加強(qiáng)人工智能開發(fā)和應(yīng)用的頂層設(shè)計(jì)。應(yīng)對(duì)倫理風(fēng)險(xiǎn)之所以要結(jié)合立法工作,是因?yàn)閭惱碇卫砗头芍卫硗窍嗷リP(guān)聯(lián)的。康德曾指出,“法律是道德標(biāo)準(zhǔn)的底線”。法律作為最低要求的道德,能夠?yàn)楹虾鮽惱淼娜斯ぶ悄艿牧夹虬l(fā)展提供方向上的引導(dǎo)。政策、法律和法規(guī)應(yīng)當(dāng)促進(jìn)人工智能產(chǎn)業(yè)的發(fā)展,不妨礙人工智能產(chǎn)品的安全性的提升。在一些特殊領(lǐng)域,法律法規(guī)要明確人工智能主體的權(quán)利和義務(wù),避免威脅到人類權(quán)利。
第二,要盡快制定人工智能產(chǎn)業(yè)的安全標(biāo)準(zhǔn),推行安全認(rèn)證制度。人工智能產(chǎn)品要符合社會(huì)需求,贏得公眾的信任,但這要建立在它們具有非常高的可靠性和安全性的基礎(chǔ)上。要盡最大可能避免安全事故的發(fā)生,不斷提高人工智能產(chǎn)品的安全系數(shù),只有經(jīng)過嚴(yán)格測試達(dá)標(biāo)的產(chǎn)品才能投放市場。與此同時(shí),要對(duì)人工智能的技術(shù)開發(fā)人員進(jìn)行倫理培訓(xùn)。這是從價(jià)值嵌入的角度考慮問題。要加強(qiáng)相關(guān)從業(yè)人員的道德教育,使人工智能在研發(fā)和設(shè)計(jì)階段就接受倫理準(zhǔn)則的約束,使得制造商不因商業(yè)利益的驅(qū)動(dòng)而做鋌而走險(xiǎn)之事。
第三,要建立和健全人工智能的監(jiān)管體系。這種監(jiān)管體系需要從兩個(gè)方面展開:一方面,政府相關(guān)的職能部門要制定針對(duì)不同行業(yè)的監(jiān)管體系和標(biāo)準(zhǔn),對(duì)人工智能產(chǎn)品從設(shè)計(jì)、研發(fā)、數(shù)據(jù)采集、市場推廣和應(yīng)用等環(huán)節(jié)進(jìn)行全方位監(jiān)管。要定期審查社會(huì)上應(yīng)用的人工智能系統(tǒng)是否符合道德標(biāo)準(zhǔn)。人工智能應(yīng)用軟件要進(jìn)行特定的技術(shù)檢測,對(duì)于違規(guī)軟件實(shí)行整改或下架處理,使其退出市場。這種以懲戒為主的外部約束有利于人工智能產(chǎn)業(yè)和市場主體加強(qiáng)自律。另一方面,著眼于人工智能的運(yùn)行和應(yīng)用層面,要研發(fā)類似電子警察的人工智能系統(tǒng),即用人工智能監(jiān)管人工智能,防止人工智能技術(shù)被非法利用或偏離正常運(yùn)行。
第四,要強(qiáng)化代碼規(guī)制和算法設(shè)計(jì)的管控,研發(fā)和應(yīng)用受控型人工智能。在一些人工智能的應(yīng)用領(lǐng)域,算法決策往往涉及道德責(zé)任的歸屬和認(rèn)定,而算法決策過程的不透明性可能意味著責(zé)任追溯的困難。因此,只有那些具備更高可追溯性的人工智能系統(tǒng)才是有發(fā)展前景的,只有那些符合社會(huì)的道德標(biāo)準(zhǔn)和更具人性化的智能設(shè)計(jì)才具有廣泛的市場可接受度。就目前來講,人工智能的第一屬性是技術(shù)或工具,而非社會(huì)主體。人工智能的算法設(shè)計(jì)務(wù)必要合乎倫理規(guī)范和法律要求,不能侵害人類權(quán)利。
第五,要加強(qiáng)國際合作,共同推動(dòng)人工智能的全球治理。隨著科學(xué)技術(shù)在全球范圍的廣泛應(yīng)用,人工智能研究的科學(xué)共同體、跨過公司和國際行會(huì)組織等往往是超越國界的,其影響是廣泛和深刻的。雖然各國之間有競爭和差異,但是所面對(duì)的問題相似性和共性居多。人工智能的治理已經(jīng)很難僅僅局限于本國本地取得良好的治理效果。人工智能風(fēng)險(xiǎn)治理的框架要在一些基本問題上達(dá)成國際共識(shí),才能更好地服務(wù)于全人類的福祉。