国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

構(gòu)建穩(wěn)健敏捷的人工智能倫理與治理框架

2020-07-12 08:41段偉文
科普研究 2020年3期
關(guān)鍵詞:倫理框架人工智能

段偉文

(中國(guó)社會(huì)科學(xué)院科學(xué)技術(shù)和社會(huì)研究中心、中國(guó)社科院大學(xué),北京 100732)

自2016年人工智能圍棋“阿爾法狗”(AlphaGo)擊敗李世石以來(lái),新一輪人工智能熱潮以前所未有的態(tài)勢(shì)席卷世界。在各國(guó)和地區(qū)紛紛提出人工智能發(fā)展規(guī)劃和戰(zhàn)略的同時(shí),人工智能的倫理風(fēng)險(xiǎn)與治理也成為全球共同關(guān)注的焦點(diǎn)。在全球范圍內(nèi),人們對(duì)人工智能前景的認(rèn)知明顯地呈現(xiàn)出兩極化:一方面,對(duì)其可能極大促進(jìn)經(jīng)濟(jì)社會(huì)發(fā)展的預(yù)期興奮不已;另一方面,對(duì)其可能帶來(lái)的破壞民生等危害與風(fēng)險(xiǎn)愈益擔(dān)憂。盡管各國(guó)和地區(qū)、相關(guān)國(guó)際組織、行業(yè)機(jī)構(gòu)等紛紛提出了各種人工智能的倫理與治理方面的原則、規(guī)范、宣言、公約、共識(shí)等,而且大多都強(qiáng)調(diào)負(fù)責(zé)任、可信賴、尊重隱私、公平公正、安全可控等基本理念,但鑒于不同區(qū)域社會(huì)環(huán)境和文化背景的不同,各個(gè)國(guó)家和地區(qū)對(duì)具體的倫理權(quán)利、責(zé)任和是非的認(rèn)知存在微妙的差異,很難構(gòu)建單一的全球性人工智能倫理與治理框架。因此,構(gòu)建人工智能倫理與治理框架的基本思路在于立足本土實(shí)際情況,同時(shí)加強(qiáng)不同地區(qū)的框架之間的互操作性和協(xié)同性,進(jìn)而搭建起全球人工智能倫理與治理框架的生態(tài)體系。包括中國(guó)在內(nèi)的亞洲地區(qū),盡管人工智能創(chuàng)新與應(yīng)用發(fā)展十分迅猛,但由于受到儒家文化等東方群體導(dǎo)向的文化的影響,公眾在認(rèn)識(shí)和法律層面對(duì)于隱私、數(shù)據(jù)權(quán)利、歧視等相關(guān)價(jià)值訴求與權(quán)利界定不甚明確,倫理與治理框架也尚未系統(tǒng)構(gòu)建,由此所形成的張力使人工智能發(fā)展中的價(jià)值沖突與倫理抉擇變得更為突出。

對(duì)此,《麻省理工技術(shù)評(píng)論洞察》最近發(fā)布的一份題為“亞洲人工智能議程:人工智能倫理”的報(bào)告指出,在亞洲,隨著人工智能大規(guī)模的工業(yè)化和商業(yè)化,人工智能幾乎無(wú)處不在,正在成為經(jīng)濟(jì)增長(zhǎng)的主要?jiǎng)恿Γ嚓P(guān)研究機(jī)構(gòu)和企業(yè)在對(duì)前景充滿樂(lè)觀的同時(shí),也希望政府能推動(dòng)健全的倫理規(guī)范和治理體系的建設(shè),使人們從人工智能中獲得更多的好處[1]。但我們應(yīng)該看到,這種樂(lè)觀和實(shí)用的立場(chǎng)對(duì)人工智能倫理與治理帶來(lái)了一系列不容小覷的挑戰(zhàn),應(yīng)對(duì)其予以適當(dāng)?shù)膬r(jià)值校準(zhǔn)。

1 樂(lè)觀實(shí)用立場(chǎng)亟待價(jià)值倫理校準(zhǔn)

近30年來(lái),在追趕信息通信技術(shù)和網(wǎng)絡(luò)數(shù)字技術(shù)的過(guò)程中,中國(guó)成為全球科技進(jìn)步最快的區(qū)域。如今,在邁向全球人工智能發(fā)展的快車道上,人們無(wú)疑比1/4個(gè)世紀(jì)之前跟隨美國(guó)和歐洲擁抱互聯(lián)網(wǎng)時(shí)更為主動(dòng)與自信。面對(duì)這一波的人工智能熱潮,曾以新興科技帶動(dòng)社會(huì)發(fā)展的經(jīng)驗(yàn),再加上經(jīng)世致用和民生優(yōu)先的文化傳統(tǒng),使政府和企業(yè)對(duì)人工智能的基本立場(chǎng)更為樂(lè)觀,也更具實(shí)用主義色彩,在整個(gè)社會(huì)也自然地形成了相對(duì)有利于人工智能探索的制度文化環(huán)境。在此環(huán)境下,中國(guó)在總體上對(duì)于人工智能為經(jīng)濟(jì)、社會(huì)、企業(yè)和個(gè)人福祉帶來(lái)的積極影響更加樂(lè)觀,這使得雖然相關(guān)的研究者、行業(yè)組織、標(biāo)桿企業(yè)特別是業(yè)界領(lǐng)袖已指出人工智能應(yīng)用可能帶來(lái)潛在的倫理風(fēng)險(xiǎn),但在人工智能發(fā)展戰(zhàn)略中,倫理考量的優(yōu)先級(jí)相對(duì)于歐洲等其他地區(qū)較低。由此,一旦出現(xiàn)由人工智能的濫用和惡意,很可能導(dǎo)致偏見(jiàn)、排斥和社會(huì)不公等問(wèn)題。

必須指出的是,人工智能的倫理風(fēng)險(xiǎn)并非虛構(gòu)。在各種人工智能應(yīng)用場(chǎng)景中,數(shù)據(jù)分析、內(nèi)容推薦、人臉識(shí)別等應(yīng)用直接涉及和影響到人的身份和行為,相關(guān)技術(shù)的濫用對(duì)人造成的危害和負(fù)面影響將遠(yuǎn)遠(yuǎn)大于傳統(tǒng)的網(wǎng)絡(luò)與數(shù)字技術(shù)。如果不加反省地固守樂(lè)觀主義和實(shí)用主義的立場(chǎng),人工智能對(duì)社會(huì)和個(gè)人造成的潛在威脅往往容易被忽略或無(wú)視,由此所引發(fā)的倫理風(fēng)險(xiǎn),既得不到事先防范也難以事后糾正,非但難免釀成嚴(yán)重后果,還會(huì)破壞整個(gè)社會(huì)對(duì)人工智能的信任,打擊普通公眾對(duì)發(fā)展新興科技的信心,最終必然給創(chuàng)新生態(tài)系統(tǒng)中的機(jī)構(gòu)和企業(yè)帶來(lái)巨大的風(fēng)險(xiǎn)和損失。因此,在這種樂(lè)觀主義立場(chǎng)和實(shí)用主義態(tài)度背后,實(shí)際上潛藏著相關(guān)利益群體的雙重焦慮:一方面,人工智能用戶在享受各種創(chuàng)新便利的同時(shí),難免因?yàn)閾?dān)心個(gè)人數(shù)據(jù)濫用、算法決策的不透明而心存疑慮;另一方面,人工智能開(kāi)發(fā)者也會(huì)擔(dān)心倫理缺位會(huì)使其為由此帶來(lái)的風(fēng)險(xiǎn)付出高昂代價(jià)。為了從根本上消除這種雙重焦慮,應(yīng)該通過(guò)技術(shù)倫理評(píng)估、“技術(shù)-倫理”矯正和信任機(jī)制的構(gòu)建等方面入手,對(duì)樂(lè)觀主義立場(chǎng)和實(shí)用主義的態(tài)度展開(kāi)必要的價(jià)值倫理校準(zhǔn)。

首先,要通過(guò)技術(shù)倫理評(píng)估克服樂(lè)觀實(shí)用立場(chǎng)對(duì)人工智能倫理問(wèn)題的實(shí)質(zhì)性忽視。針對(duì)人工智能的倫理風(fēng)險(xiǎn),有人提出應(yīng)該強(qiáng)調(diào)倫理優(yōu)先,但不一定要將創(chuàng)新與倫理對(duì)立起來(lái)。實(shí)際上,各種場(chǎng)景中的價(jià)值倫理問(wèn)題是否應(yīng)該得到優(yōu)先考慮,取決于相關(guān)群體對(duì)具體的技術(shù)應(yīng)用的負(fù)面影響及其嚴(yán)重程度的厘清和認(rèn)知,而這又必須借助各種形式的技術(shù)倫理評(píng)估。具體而言,促進(jìn)開(kāi)發(fā)者和使用者切實(shí)認(rèn)知人工智能倫理風(fēng)險(xiǎn)的關(guān)鍵在于:一方面,技術(shù)監(jiān)管者應(yīng)該要求企業(yè)對(duì)技術(shù)應(yīng)用在相關(guān)群體中造成的負(fù)面影響展開(kāi)預(yù)見(jiàn)性的倫理評(píng)估,進(jìn)而對(duì)其加以矯正;另一方面,應(yīng)該通過(guò)建設(shè)性與參與性的倫理評(píng)估,使可能因技術(shù)應(yīng)用而受到嚴(yán)重負(fù)面影響的相關(guān)群體參與到相關(guān)的倫理評(píng)估、爭(zhēng)論與矯正等環(huán)節(jié)之中。

其次,運(yùn)用“技術(shù)-倫理”矯正,以包容審慎的監(jiān)管實(shí)現(xiàn)倫理與創(chuàng)新的協(xié)同。毋庸置疑,在中國(guó)的人工智能研究與創(chuàng)新生態(tài)系統(tǒng)內(nèi)外,正在就人工智能倫理問(wèn)題進(jìn)行各種形式的探討與辯論,目前政府、業(yè)界、媒體及公眾已經(jīng)達(dá)成的基本共識(shí)是政府應(yīng)該主導(dǎo)對(duì)人工智能的監(jiān)管。但在業(yè)界和相關(guān)部門(mén)的認(rèn)知中,多少有些吃不準(zhǔn)的是,他們希望相關(guān)政策、框架和監(jiān)管應(yīng)審慎行事,不應(yīng)扼殺創(chuàng)新。對(duì)此,不應(yīng)錯(cuò)誤地將倫理上的相對(duì)寬松視為創(chuàng)新的“倫理優(yōu)勢(shì)”,而應(yīng)該認(rèn)識(shí)到,對(duì)于那些具有高度價(jià)值敏感性的人工智能應(yīng)用,應(yīng)該努力尋求一種將倫理價(jià)值融合到技術(shù)之中的復(fù)合創(chuàng)新,從而使創(chuàng)新與倫理相輔相成、協(xié)同并進(jìn)。具體而言,就是通過(guò)有針對(duì)性的“技術(shù)-倫理”矯正,落實(shí)對(duì)人工智能的倫理治理。在此過(guò)程中無(wú)疑需要通過(guò)科技倫理專家與科技專家的對(duì)話,以實(shí)現(xiàn)價(jià)值訴求與技術(shù)需求之間的“轉(zhuǎn)譯”。由此,在討論推薦算法可能導(dǎo)致的“過(guò)濾氣泡”時(shí),不應(yīng)停留在對(duì)具有“多樣性”的推薦算法之類的倡導(dǎo),而應(yīng)該通過(guò)批評(píng)者與設(shè)計(jì)者的對(duì)話,共同探討如何進(jìn)行反向的“技術(shù)-倫理”矯正。這種使技術(shù)合乎倫理的矯正又稱為道德敏感設(shè)計(jì)——將倫理道德內(nèi)置于技術(shù)設(shè)計(jì),在信息技術(shù)等新興技術(shù)中已有長(zhǎng)期的運(yùn)用實(shí)踐。早在21世紀(jì)初,現(xiàn)任哈佛大學(xué)教授的拉坦婭·斯威尼(Latanya Sweeney)就曾在她當(dāng)時(shí)任職的卡內(nèi)基梅隆大學(xué)創(chuàng)建了數(shù)據(jù)隱私實(shí)驗(yàn)室,開(kāi)展隱私設(shè)計(jì)方面的研究,如通過(guò)軟件幫助人們堵住網(wǎng)上的隱私漏洞、通過(guò)隨機(jī)換臉應(yīng)對(duì)人臉識(shí)別技術(shù)的濫用可能導(dǎo)致的隱私泄露和侵權(quán)[2]。相關(guān)實(shí)踐探索表明,人工智能的倫理和治理可以貫穿于人工智能創(chuàng)新應(yīng)用的全過(guò)程,為了實(shí)現(xiàn)倫理與創(chuàng)新的協(xié)同,要將其背后的價(jià)值觀轉(zhuǎn)換為技術(shù)層面的目標(biāo)與需求。

最后,以信任機(jī)制的構(gòu)建作為人工智能倫理與治理的突破口。我們看到,盡管政府和企業(yè)正在更加積極地為人工智能行業(yè)的倫理發(fā)展制定目標(biāo)和指導(dǎo)方針,但客觀地講,由于人工智能處于開(kāi)放性的高速發(fā)展之中,目前只能通過(guò)個(gè)案處理和經(jīng)驗(yàn)積累,對(duì)人工智能濫用和惡意使用的不良后果進(jìn)行倫理和法律上的規(guī)制。因此,一種相對(duì)可行的倫理與治理策略是,轉(zhuǎn)而訴諸消費(fèi)者、人工智能用戶和人工智能開(kāi)發(fā)商之間的信任,在人工智能研究與創(chuàng)新生態(tài)系統(tǒng)內(nèi)外構(gòu)建起可持續(xù)的多方信任機(jī)制,使整個(gè)行業(yè)得到全社會(huì)的接受,進(jìn)而為其在多方共治下的健康發(fā)展奠定基礎(chǔ)。毋庸置疑,可持續(xù)的多方信任機(jī)制的構(gòu)建不可能建立在簡(jiǎn)單的信任與承諾之上,而要求人工智能開(kāi)發(fā)者承擔(dān)起應(yīng)有的機(jī)構(gòu)與企業(yè)責(zé)任,開(kāi)展負(fù)責(zé)任的研究與創(chuàng)新,使整個(gè)行業(yè)和產(chǎn)業(yè)以一種負(fù)責(zé)任和透明的方式發(fā)展。以當(dāng)前的人工智能涉及大量數(shù)據(jù)驅(qū)動(dòng)的智能應(yīng)用為例,其中所涉及的與人相關(guān)的數(shù)據(jù)反映了人格特征、行為方式和具體行為,企業(yè)必須就如何恰當(dāng)?shù)厥占?、使用和共享?shù)據(jù)與客戶及利益攸關(guān)者展開(kāi)溝通,只有這樣才可能避免用戶的疑慮和不信任,使創(chuàng)新與應(yīng)用高效有序地展開(kāi)。

2 構(gòu)建穩(wěn)健可行的人工智能倫理與治理框架

近20年來(lái),發(fā)展迅猛且具有高度不確定性的新興科技不斷涌現(xiàn),由此產(chǎn)生了人工智能、物聯(lián)網(wǎng)、基因編輯等可能對(duì)經(jīng)濟(jì)社會(huì)與人類未來(lái)造成根本性、深遠(yuǎn)性、普遍性影響的顛覆性技術(shù),如何針對(duì)人工智能等技術(shù)構(gòu)建穩(wěn)健可行的倫理與治理框架無(wú)疑是各個(gè)國(guó)家與地區(qū)所必須面臨的最大挑戰(zhàn)。雖然對(duì)此并沒(méi)有最佳答案和統(tǒng)一標(biāo)準(zhǔn),但還是有一些基本理念有助于進(jìn)一步的實(shí)踐探索。

一是要對(duì)人工智能可能造成的社會(huì)影響進(jìn)行更加深入系統(tǒng)的研究,在此基礎(chǔ)上構(gòu)建起考慮到最壞情形的社會(huì)風(fēng)險(xiǎn)防范機(jī)制。從人工智能對(duì)未來(lái)社會(huì)的發(fā)展角度來(lái)看,最為重要的問(wèn)題是人工智能對(duì)就業(yè)的影響。盡管一般認(rèn)為,人工智能驅(qū)動(dòng)的技術(shù)性失業(yè)的困擾將被創(chuàng)新所帶來(lái)的新機(jī)遇和人類創(chuàng)造與適應(yīng)新的工作的潛力所抵消,但應(yīng)該看到,由于我國(guó)勞動(dòng)密集型工業(yè)和服務(wù)業(yè)的“可自動(dòng)化”的比例較發(fā)達(dá)國(guó)家更高,人工智能及其所帶來(lái)的新一輪的自動(dòng)化浪潮在短時(shí)間內(nèi)對(duì)于中國(guó)的具體影響可能是巨大的,特別是那些受到人工智能威脅的低技能職業(yè)階層再培訓(xùn)和再提升技能的能力更弱。因此,在對(duì)未來(lái)普遍持有樂(lè)觀態(tài)度的同時(shí),政府對(duì)所主導(dǎo)的人工智能倫理與治理框架必須看到最壞的情形,充分考慮到可能被智能機(jī)器替換的勞動(dòng)力的出路,以此避免人工智能的顛覆性發(fā)展帶來(lái)新的社會(huì)不平等。

二是要從文化出發(fā)構(gòu)建一種兼具區(qū)域性與全球性的人工智能倫理與治理體系框架。正如前文所言,由于在表達(dá)倫理的“正確”方式上存在著巨大的文化差異,加上科技創(chuàng)新與應(yīng)用文化本身具有開(kāi)放性,人工智能倫理與治理并沒(méi)有“全球性”。毫無(wú)疑問(wèn),人們對(duì)人工智能的不同態(tài)度確定了不同區(qū)域與社會(huì)發(fā)展人工智能的不同方法和旨趣。以前衛(wèi)的性愛(ài)機(jī)器人為例,具有神道教傳統(tǒng)與豐富人偶文化的日本可能更容易接受其研發(fā)與應(yīng)用。在未來(lái)的無(wú)人汽車等智能無(wú)人系統(tǒng)中,個(gè)人主義與集體主義等不同社會(huì)主流價(jià)值導(dǎo)向也會(huì)在一定程度上影響機(jī)器的價(jià)值取向和倫理抉擇。因此,文化和價(jià)值觀上的可接受性是構(gòu)建人工智能時(shí)代的人機(jī)信任與人機(jī)和諧的關(guān)鍵所在。但與此同時(shí),必須指出的是,人工智能的發(fā)展必然會(huì)加速推進(jìn)更深層次的全球化,區(qū)域性的人工智能倫理與治理不僅要具有局域的適切性,還應(yīng)該建立起通達(dá)全球治理的機(jī)制。

在中國(guó)的《新一代人工智能發(fā)展規(guī)劃》[3]中,不僅設(shè)想通過(guò)人工智能提高社會(huì)管理能力,還承諾對(duì)隱私與知識(shí)產(chǎn)權(quán)、信息安全、問(wèn)責(zé)、設(shè)計(jì)倫理等展開(kāi)研究,并積極參與全球治理。在此過(guò)程中,如何講清區(qū)域性倫理與治理框架的核心價(jià)值取向和倫理訴求是關(guān)鍵,不論在什么文化和社會(huì)主流價(jià)值觀下,都必須對(duì)人工智能時(shí)代的隱私、尊嚴(yán)、個(gè)人權(quán)利等基本的倫理和法律概念做出明晰與合理的詮釋,都要對(duì)數(shù)據(jù)的采集與使用、智能系統(tǒng)對(duì)人的行為的影響與干預(yù)的限度做出合乎倫理與法律的準(zhǔn)確陳述。而對(duì)這些問(wèn)題的深究最終所涉及的與其說(shuō)是價(jià)值和倫理問(wèn)題,毋寧說(shuō)關(guān)乎更大社會(huì)歷史背景與文化語(yǔ)境下的社會(huì)政治抉擇,這就使得區(qū)域性的人工智能的倫理與治理框架之間的對(duì)話成為其整合為全球性治理架構(gòu)的難點(diǎn)和關(guān)鍵所在。

三是要在構(gòu)建人機(jī)和諧的未來(lái)的同時(shí)確保人類和平這一文明底線。在我們?cè)噲D通過(guò)人工智能發(fā)展構(gòu)建人機(jī)和諧未來(lái)之時(shí),應(yīng)該認(rèn)識(shí)到人與機(jī)器的關(guān)系實(shí)質(zhì)是人與人以機(jī)器為中介的關(guān)系,對(duì)人工智能等技術(shù)的倫理規(guī)制和治理的關(guān)鍵是避免其對(duì)人作惡。因此,人工智能的倫理與治理要對(duì)人工智能的惡意使用和軍事運(yùn)用等負(fù)面用途加以必要的法律管制、倫理規(guī)制全球治理。隨著深度造假等技術(shù)的發(fā)展,人工智能的惡意使用會(huì)越來(lái)越大,如果不加以及時(shí)的法律管制和倫理規(guī)制,必將極大地破壞整個(gè)社會(huì)對(duì)人工智能等顛覆性技術(shù)的信任,影響其有益的創(chuàng)新與應(yīng)用。同時(shí),應(yīng)該看到,人類科技文明發(fā)展的悖謬之處恰恰在于包括計(jì)算機(jī)、互聯(lián)網(wǎng)和人工智能在內(nèi)的很多顛覆性的技術(shù)與軍事對(duì)抗和國(guó)家競(jìng)爭(zhēng)密切相關(guān)。我們必須承認(rèn),在這一波人工智能熱潮背后,或明或暗地存在著人工智能軍備競(jìng)賽的陰影,無(wú)人機(jī)及大規(guī)模智能自動(dòng)武器系統(tǒng)等人工智能的軍事應(yīng)用,將對(duì)人類文明的未來(lái)構(gòu)成前所未有的威脅,必須得到有效的控制和全球性的治理。

3 結(jié)語(yǔ):走向穩(wěn)健敏捷的人工智能倫理與治理

2019年6月17日,國(guó)家新一代人工智能治理專業(yè)委員會(huì)發(fā)布了《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,提出了“和諧友好、公正公平、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開(kāi)放協(xié)作和敏捷治理”八項(xiàng)原則[4]。其中的敏捷治理強(qiáng)調(diào),應(yīng)在人工智能的發(fā)展中及時(shí)發(fā)現(xiàn)和解決可能引發(fā)的風(fēng)險(xiǎn)、推動(dòng)治理原則貫穿人工智能產(chǎn)品和服務(wù)的全生命周期、確保人工智能始終朝著有利于人類的方向發(fā)展。而實(shí)現(xiàn)這一原則的關(guān)鍵在于切實(shí)將人工智能發(fā)展中的所有相關(guān)利益群體的認(rèn)知納入人工智能倫理與治理的各個(gè)環(huán)節(jié),訴諸面向人工智能研究創(chuàng)新實(shí)踐的具體的價(jià)值校準(zhǔn)和穩(wěn)健的框架設(shè)計(jì),以此形成多相關(guān)方的對(duì)話與共識(shí)機(jī)制,落實(shí)多方參與,實(shí)行多元共治,實(shí)現(xiàn)從微觀到宏觀的反饋、修正與迭代,最終推動(dòng)人工智能的未來(lái)沿著合乎人性的方向和諧發(fā)展。

猜你喜歡
倫理框架人工智能
《心之死》的趣味與倫理焦慮
有機(jī)框架材料的后合成交換
靈長(zhǎng)類生物醫(yī)學(xué)前沿探索中的倫理思考
框架
護(hù)生眼中的倫理修養(yǎng)
2019:人工智能
人工智能與就業(yè)
倫理批評(píng)與文學(xué)倫理學(xué)
數(shù)讀人工智能
下一幕,人工智能!
神木县| 泰和县| 自治县| 惠来县| 泌阳县| 乌恰县| 奉新县| 合阳县| 包头市| 孟津县| 福贡县| 黄大仙区| 黎川县| 荆门市| 大埔区| 边坝县| 兴文县| 襄樊市| 鹤岗市| 兰溪市| 巴林右旗| 兴海县| 德阳市| 卢湾区| 凤山市| 商河县| 芷江| 绿春县| 长宁区| 通海县| 北票市| 华坪县| 涿鹿县| 光泽县| 金川县| 南皮县| 繁峙县| 鹤岗市| 新竹市| 元江| 西林县|