国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能引發(fā)的治理挑戰(zhàn)及其應(yīng)對

2020-03-02 07:17:27江,孫坤,李
嶺南學(xué)刊 2020年6期
關(guān)鍵詞:倫理人工智能算法

詹 江,孫 坤,李 凡

(1.廣東財經(jīng)大學(xué) 金融學(xué)院,廣東 廣州 510320; 2.廣東財經(jīng)大學(xué) 華商學(xué)院,廣東 廣州 511300; 3.深圳大學(xué) 中國特區(qū)經(jīng)濟(jì)研究中心,廣東 深圳 518060)

一、引言

在當(dāng)前技術(shù)革新日益加快的時代背景下,AI人工智能、大數(shù)據(jù)、云計算等新興大數(shù)據(jù)技術(shù)的迅猛發(fā)展,成為了新一輪人工智能科技產(chǎn)業(yè)革命和產(chǎn)業(yè)結(jié)構(gòu)性變革的重要技術(shù)驅(qū)動力量,人工智能已經(jīng)滲入社會經(jīng)濟(jì)生活的各個方面,并且為未來經(jīng)濟(jì)增長提供持續(xù)發(fā)展的動力。

目前各級地方政府都加大對人工智能創(chuàng)新應(yīng)用的重視,并結(jié)合自身優(yōu)勢和要素稟賦著力進(jìn)行戰(zhàn)略部署,分別有19個省份和16個市公布了人工智能產(chǎn)業(yè)發(fā)展規(guī)劃,其中以北上廣深為代表的一線城市具備良好的先發(fā)優(yōu)勢,尤其是深圳和上海已經(jīng)成為首批人工智能產(chǎn)業(yè)的先導(dǎo)地區(qū)。

根據(jù)埃森哲對全球經(jīng)濟(jì)的預(yù)測研究,到2035年,人工智能產(chǎn)業(yè)的發(fā)展將有效提振全球經(jīng)濟(jì)下滑趨勢,有效應(yīng)用人工智能的發(fā)展,中國經(jīng)濟(jì)增長率有望上升至7.9%,增長額高達(dá)7.1萬億美元。此外根據(jù)麥肯錫的預(yù)測,人工智能產(chǎn)業(yè)將每年為中國經(jīng)濟(jì)增長貢獻(xiàn)0.8至1.4個百分點(diǎn)。尤其此次疫情加速了人工智能技術(shù)為代表的數(shù)字經(jīng)濟(jì)的發(fā)展。人工智能產(chǎn)業(yè)的發(fā)展將迎來重要機(jī)遇期。

西方發(fā)達(dá)國家普遍已將人工智能的研發(fā)提高到未來戰(zhàn)略的高度,對于人工智能技術(shù)應(yīng)用于人類經(jīng)濟(jì)社會作出了大量前瞻性研究。但人類利用AI技術(shù)的同時,也會帶來一系列風(fēng)險,其中有對人類道德認(rèn)知、常識性倫理判斷等的挑戰(zhàn),例如自動駕駛系統(tǒng)的安全性、達(dá)芬奇手術(shù)機(jī)器人事故、偽造視頻deepfake技術(shù)的濫用等。人工智能作為一種廣泛影響人類經(jīng)濟(jì)生活的重要科學(xué)技術(shù),應(yīng)該采取何種政策加以規(guī)范和引導(dǎo)日益成為重要問題。隨著新一代人工智能算法和產(chǎn)品的快速開發(fā)和部署,人工智能在日常生活中扮演著越來越重要的角色,并對現(xiàn)代人類社會生活產(chǎn)生重大影響,加上其本身還在不斷的動態(tài)發(fā)展之中,具有很大的不確定性,因此人工智能治理便顯得日益重要。

二、 人工智能引發(fā)的挑戰(zhàn)——風(fēng)險與治理困境

人工智能技術(shù)的迅猛發(fā)展,使得目前針對人工智能的治理模式匹配不上新內(nèi)容、新業(yè)態(tài)的不斷發(fā)展,治理失效引發(fā)的一系列挑戰(zhàn)沒有有效解決,如用戶隱私的泄露、算法的偏見與歧視,技術(shù)偽造等各類風(fēng)險事件頻繁發(fā)生,同時技術(shù)擴(kuò)散難控制、責(zé)任主體不明、應(yīng)用邊界模糊等治理困境值得關(guān)注與加強(qiáng)研究。[1]

(一)人工智能技術(shù)引發(fā)的風(fēng)險

1.數(shù)據(jù)隱私

大數(shù)據(jù)是推動人工智能的產(chǎn)生和持續(xù)發(fā)展的必要技術(shù)前提。人工智能算法在開發(fā)過程中,需要大量數(shù)據(jù)作為深度學(xué)習(xí)的數(shù)據(jù)測試。目前,人工智能企業(yè)的數(shù)據(jù)采集主要包括現(xiàn)場無差別采集、直接在線采集、網(wǎng)上公開數(shù)據(jù)源和商務(wù)采購等方式。在現(xiàn)場無差別采集時,由于無法提前預(yù)知采集的用戶,難以獲得用戶的充分授權(quán)同意。而在直接在線采集時,由于人工智能系統(tǒng)通常由訓(xùn)練好的模型部署而成,對用戶數(shù)據(jù)需要進(jìn)行分析,因此很難保障用戶的修改、撤回等權(quán)益。在網(wǎng)上公開數(shù)據(jù)源和商務(wù)采購時,由于目前數(shù)據(jù)共享、交易和流通的市場化機(jī)制不健全,存在一部分企業(yè)通過灰色渠道獲得用戶數(shù)據(jù)的現(xiàn)象,特別是在微軟、IBM,F(xiàn)acebook和谷歌等公司與各大高校的研究合作中,大量用戶僅授權(quán)用于學(xué)術(shù)研究的個人照片被作為算法數(shù)據(jù)來源并用于商業(yè)領(lǐng)域,而這些數(shù)據(jù)缺乏用戶知情同意,因此引發(fā)了國外社會對隱私安全的廣泛擔(dān)憂。

2.算法歧視

算法歧視這一概念目前并未有明確的學(xué)術(shù)定義,一般認(rèn)為指的是應(yīng)用程序背后的人工智能算法有意或無意侵犯他人的權(quán)利或造成廣泛歧視的社會影響。在商業(yè)領(lǐng)域主要體現(xiàn)為通過算法進(jìn)行用戶畫像,并預(yù)測消費(fèi)者的偏好模式進(jìn)行差別定價,從而實現(xiàn)其商業(yè)利潤。諸如阿里巴巴、騰訊、亞馬遜等互聯(lián)網(wǎng)的大平臺企業(yè)也面臨類似的潛在風(fēng)險。這些互聯(lián)網(wǎng)技術(shù)企業(yè)在其使用人工智能技術(shù)過程中通過不斷獲取用戶隱私數(shù)據(jù),并利用大數(shù)據(jù)、云計算、深度學(xué)習(xí)算法等技術(shù)進(jìn)行數(shù)據(jù)分析,使之發(fā)展成為自身重要的數(shù)據(jù)資源和市場競爭優(yōu)勢[2],由于并未有嚴(yán)格的數(shù)據(jù)保護(hù)措施,其中包含了潛在的數(shù)據(jù)濫用風(fēng)險,如亞馬遜利用大數(shù)據(jù)技術(shù)的“殺熟”行為,本質(zhì)上是一種價格歧視行為,構(gòu)成了對消費(fèi)者知情權(quán)的侵犯,甚至在某些場景下構(gòu)成消費(fèi)欺詐。一些掌握大量數(shù)據(jù)信息的企業(yè)利用數(shù)據(jù)分析用戶信息,同樣的服務(wù)和產(chǎn)品,對消費(fèi)者進(jìn)行差異定價,對老用戶設(shè)置的價格高,搭售不必要的服務(wù)。此外,算法模型在實際運(yùn)行過程中存在偏見和歧視的現(xiàn)象也多有發(fā)生,造成了較大的社會負(fù)面影響。如google圖片的算法標(biāo)注曾出現(xiàn)大量誤判,造成對有色人種的種族歧視。微軟人工智能語音聊天系統(tǒng)Tay也因包含大量種族主義歧視言論而上線僅一天就被迫下架。在某些特定情境下,算法歧視的危害在于它不僅會侵害公民的權(quán)利、自由,甚至?xí)绊懮踩?。面對來自社會各界的?qiáng)烈批評與信任危機(jī),越來越多的國際機(jī)構(gòu)、政府、企業(yè)、社會組織等加入到治理的參與者行列,以共同解決算法帶來的技術(shù)歧視等不良后果。[3]

3.技術(shù)偽造

深度偽造(Deepfakes)技術(shù)是近兩年發(fā)展的一種基于深度學(xué)習(xí)的人物圖像合成技術(shù)。隨著更先進(jìn)的算法技術(shù)的不斷發(fā)展應(yīng)用,視頻、音頻數(shù)據(jù)的內(nèi)容偽造門檻逐漸降低,其甚至達(dá)到了偽造內(nèi)容難以鑒別的程度。例如換臉(faceswap)技術(shù),模擬真人聲音、創(chuàng)造出非真實影像資料等等。這些具備極高欺騙性的深度偽造的技術(shù)應(yīng)用也引發(fā)了諸多爭議。

上述人工智能技術(shù)發(fā)展所帶來的風(fēng)險的根源在于“算法黑箱效應(yīng)”。而這些會對用戶產(chǎn)生重要影響的信息對于算法或代碼開發(fā)背后的生產(chǎn)商往往容易獲取。掌握信息數(shù)據(jù)的主體,在法律缺失、監(jiān)管不力情形下,具有過度追求商業(yè)利益的傾向。這正是具有人工智能技術(shù)背景的企業(yè)憑借算法侵蝕用戶利益的重要原因。

(二)人工智能技術(shù)發(fā)展困境的根源

人工智能技術(shù)的變革對人類社會秩序的挑戰(zhàn)具有顛覆性,并且其深遠(yuǎn)影響還將持續(xù)下去,人工智能既有提高人類社會生產(chǎn)力發(fā)展的重大優(yōu)勢,同時也給人類社會帶來前所未有的挑戰(zhàn)。而人工智能技術(shù)發(fā)展困境的根源,是由于人工智能技術(shù)本身的固有性質(zhì)所決定的。

1.技術(shù)擴(kuò)散造成傳播廣泛不易控制

由于技術(shù)應(yīng)用具有全球流動性,技術(shù)引致的風(fēng)險也隨之具有全球擴(kuò)散效應(yīng),并對社會治理帶來沖擊挑戰(zhàn)。目前與人工智能技術(shù)發(fā)展相關(guān)的法律仍然是一個技術(shù)盲區(qū)。由于人工智能技術(shù)更新發(fā)展的局限和不可預(yù)知性,監(jiān)管部門很難在事前明確提出合適的技術(shù)監(jiān)管和治理規(guī)則,事后的監(jiān)管基本上也很難完全追隨人工智能上一代技術(shù)更新的發(fā)展步伐,基本上很難得到有效實施。同時,人工智能的系統(tǒng)設(shè)計者在根本上賦予了人工智能的系統(tǒng)使用者自主進(jìn)行深度學(xué)習(xí)的能力之后,人工智能自身的技術(shù)自主性和社會主體性使得目前對于人類和社會的技術(shù)監(jiān)管和治理體系存在天然的缺陷,人類社會無法準(zhǔn)確預(yù)測人工智能系統(tǒng)在人類社會現(xiàn)實和生活中的具體行動和軌跡,無法明確人工智能監(jiān)管的對象和人工智能監(jiān)管的范圍。另外,人工智能監(jiān)管技術(shù)涉及的業(yè)務(wù)范圍廣泛,應(yīng)用的方式和形態(tài)也演進(jìn)迅速,當(dāng)人工智能越來越深入地嵌入到了人類的工作和日常生活中時,分布式、低成本、低門檻的新技術(shù)和人工智能的研發(fā)模式將導(dǎo)致人工智能監(jiān)管方式和對象的高度粒子化,監(jiān)管將在社會逐漸失去其效力。因此,目前的人工智能監(jiān)管技術(shù)方法難以在下一代人工智能的技術(shù)發(fā)展中起到可以預(yù)期的作用和效果。

2.風(fēng)險責(zé)任主體眾多界定困難

從人工智能法律和道德層面考慮,當(dāng)人工智能的載體如機(jī)器人是不是能夠成為人格意義上的道德行為載體乃至法律意義上的民事主體地位,目前各界仍有爭議。但有觀點(diǎn)認(rèn)為目前人工智能技術(shù)發(fā)展仍處于弱智能階段,不具備獨(dú)立思考的能力,因此無法對自己的道德和行為恰當(dāng)?shù)爻袚?dān)責(zé)任,對人工智能的法律責(zé)任的規(guī)范應(yīng)主要以開發(fā)廠商和應(yīng)用平臺為主。當(dāng)人工智能系統(tǒng)提供者出現(xiàn)了故障未能及時起到相關(guān)技術(shù)服務(wù)提供者所事先承諾的安全性能保障要求而出現(xiàn)故障導(dǎo)致的問題產(chǎn)生的,由人工智能系統(tǒng)的提供者承擔(dān)責(zé)任。當(dāng)人工智能發(fā)展到強(qiáng)智能階段,主要特征是達(dá)到人工智能的自主決策程度,即根據(jù)大量的自主判斷學(xué)習(xí),人工智能提供者掌握了如何進(jìn)行自主判斷的人工智能標(biāo)準(zhǔn),并根據(jù)人工智能標(biāo)準(zhǔn)的判斷進(jìn)行自主的選擇時,應(yīng)主要考慮人工智能系統(tǒng)自身所產(chǎn)生的法律后果和影響。例如美國麻省理工學(xué)院所研究和開發(fā)的“道德機(jī)器”就是提出了一個基于無人駕駛的商業(yè)倫理風(fēng)險困境:如果人工智能的學(xué)習(xí)通過大量的數(shù)據(jù)在線學(xué)習(xí)和數(shù)據(jù)采樣技術(shù)得到了機(jī)器人學(xué)習(xí)的最佳結(jié)果,這種情況就相當(dāng)于一個機(jī)器人的學(xué)習(xí)得到了一個大多數(shù)的公眾可以投票的結(jié)果,以大多數(shù)公眾的看法和意見可以作為人工智能判斷其好壞的依據(jù)和標(biāo)準(zhǔn),并且以此作為其行動的重要依據(jù)。如何解決責(zé)任的劃分問題因而變得尤其重要。同時風(fēng)險和責(zé)任的明確就會因此變得相當(dāng)復(fù)雜。目前來看,企業(yè)的風(fēng)險責(zé)任承諾和商業(yè)保險責(zé)任承諾是一種對人工智能相關(guān)產(chǎn)品的風(fēng)險責(zé)任明確的方法,但是未來,需要更加合理的風(fēng)險責(zé)任主體承諾體系。因此通過明確各方主體責(zé)任這一路徑將是人工智能的治理重點(diǎn)。

3.人工智能應(yīng)用邊界模糊不可預(yù)知

雖然當(dāng)前世界各國都不同程度地提出了對人工智能發(fā)展的引導(dǎo)規(guī)范,但人工智能治理體系尚未達(dá)成全球共識和一致性框架??焖俚娜斯ぶ悄芗夹g(shù)的一個弊端在于具有不確定的潛在風(fēng)險,難以提前預(yù)估,使得人工智能自身所具有的“不可預(yù)測性和潛在的不可逆性本身就是一種實際的倫理風(fēng)險”。在倫理和人工智能的未來發(fā)展問題上,大多數(shù)從事倫理技術(shù)研究的學(xué)者與人工智能技術(shù)研究專家的觀點(diǎn)和意見都存在較大的分歧,倫理學(xué)研究專家普遍認(rèn)為對于人工智能技術(shù)研究要抱有審慎的原則,而人工智能技術(shù)研究專家則更大程度地看重人工智能技術(shù)所帶來的工作效率的改進(jìn)。目前,對于先進(jìn)的人工智能深度學(xué)習(xí)技術(shù)的研究相對缺乏,深度機(jī)器學(xué)習(xí)的能力和信息聚合識別能力尚普遍缺少適用的技術(shù)上的識別方法,特別是在人工智能深度機(jī)器學(xué)習(xí)的方法逐漸成熟并得到廣泛應(yīng)用時,機(jī)器學(xué)習(xí)的迭代速度識別能力已經(jīng)遠(yuǎn)遠(yuǎn)超過了人工智能預(yù)估的迭代速度。此外,人工智能以先進(jìn)的大數(shù)據(jù)機(jī)器學(xué)習(xí)技術(shù)作為其基礎(chǔ),通過大數(shù)據(jù)和互聯(lián)網(wǎng)的手段進(jìn)行大數(shù)據(jù)挖掘與信息采集,利用所采集獲得的大量非深度結(jié)構(gòu)化、不完全受控的大數(shù)據(jù)信息系統(tǒng)進(jìn)行對神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí),所得到的學(xué)習(xí)結(jié)果往往難以預(yù)測,具有高度黑箱化的數(shù)據(jù)特征。因而在技術(shù)自我迭代中,可能出現(xiàn)非工程設(shè)計人員的開發(fā)意圖,其智能化決策的程度與不可控風(fēng)險成正比[4],不僅多數(shù)人無法理解其結(jié)果,甚至連開放算法的工程師也極有可能無法洞悉演化算法和遷移學(xué)習(xí)的“黑箱”,對算法本身做出清晰的解釋。

三、人工智能治理應(yīng)對的可能路徑

隨著當(dāng)前我國以數(shù)字新基建、數(shù)據(jù)新要素為特征的新一波數(shù)字經(jīng)濟(jì)浪潮全面來臨,推動全球人工智能發(fā)展逐步從“探索期”向“成長期”過渡,在技術(shù)和產(chǎn)業(yè)上均進(jìn)入重要的轉(zhuǎn)型階段,各種相關(guān)風(fēng)險層出不窮。雖然目前世界各國都出臺了治理方案和對策。2016年6月,日本AI學(xué)會的人工智能倫理研究委員會正式發(fā)布了人工智能倫理規(guī)范,要求相關(guān)研究工作人員嚴(yán)格遵守人工智能倫理指標(biāo)和草案;2019年5月OCED成員國共同簽署《政府間人工智能推薦性原則和建議》,提倡負(fù)責(zé)任的技術(shù)發(fā)展態(tài)度;2019年6月我國也正式發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,把共擔(dān)責(zé)任作為一條重要原則。但總體而言目前的治理框架仍相對滯后于人工智能技術(shù)的發(fā)展,在此背景下,深入討論人工智能治理問題已然成為人工智能全面新發(fā)展的重要制約瓶頸和亟需突破的關(guān)鍵挑戰(zhàn)。本文試圖從平臺治理、數(shù)據(jù)治理、算法治理層面提出具體的治理路徑。

(一)平臺治理

所謂平臺是指人工智能技術(shù)的開發(fā)主體、組織或企業(yè)。隨著互聯(lián)網(wǎng)平臺的不斷發(fā)展擴(kuò)大,平臺治理既是人工智能平臺對于自身的一種內(nèi)部管理,也包括外部相關(guān)利益機(jī)構(gòu)為了實現(xiàn)社會公共利益而展開的共同參與。各方主體立足于數(shù)字時代人工智能發(fā)展的基礎(chǔ)上,需要不斷進(jìn)行頂層設(shè)計和深入探索。[5]

雖然政府部門已經(jīng)嘗試引入高技術(shù)手段對網(wǎng)絡(luò)平臺進(jìn)行監(jiān)管,新技術(shù)平臺企業(yè)已經(jīng)開始介入政府規(guī)則制定和政策工具設(shè)計之中,但由于平臺治理存在大量差異化、碎片化的場景生態(tài)模式,在人員、技術(shù)和理念等方面仍舊存在很大滯后性,對平臺治理研究和實踐缺乏足夠的關(guān)注。

今后,需要對平臺治理的以下幾個方面進(jìn)行強(qiáng)化。一是政府部門需要打通“數(shù)據(jù)孤島”,平衡數(shù)據(jù)開放、利用與保護(hù)。二是由于責(zé)任主體較多,有必要建立動態(tài)靈活的風(fēng)險協(xié)同應(yīng)對機(jī)制和利益分享機(jī)制,促使各方主體激勵相容。三是考慮多層次的綜合治理路徑。如從企業(yè)微觀層面的自我約束機(jī)制、中觀行業(yè)層面的自治協(xié)同、宏觀層面的法律規(guī)則和市場機(jī)制的選擇??傊?,強(qiáng)化多層級協(xié)同治理方案是較為有效的平臺治理路徑。

(二)數(shù)據(jù)治理

隨著近年來全社會數(shù)據(jù)的開放共享不斷擴(kuò)大,隱私保護(hù)問題日益突出,對此的監(jiān)管治理也提出了更高的要求。著名的國際安全咨詢機(jī)構(gòu)gartner認(rèn)為數(shù)據(jù)安全治理不僅僅單單是一套用數(shù)據(jù)和工具進(jìn)行組合的數(shù)據(jù)產(chǎn)品和技術(shù)升級的解決方案,而是從數(shù)據(jù)決策層發(fā)展到數(shù)據(jù)技術(shù)支撐層,從數(shù)據(jù)管理制度支撐到數(shù)據(jù)和工具的支撐,自上而下的一條貫穿整個數(shù)據(jù)治理組織和架構(gòu)的完整數(shù)據(jù)治理鏈條。組織內(nèi)的各個治理層級之間都需要對于數(shù)據(jù)安全信息系統(tǒng)治理的基本目標(biāo)和其宗旨取得共識,確保其采取合理和適當(dāng)?shù)陌踩Wo(hù)措施,以最有效的手段和方式有效保護(hù)數(shù)據(jù)安全信息系統(tǒng)資源。

我們認(rèn)為,數(shù)據(jù)治理包含數(shù)據(jù)技術(shù)治理和數(shù)據(jù)安全治理兩個方面。數(shù)據(jù)技術(shù)治理從數(shù)據(jù)處理技術(shù)本身而言,治理范圍著重在企業(yè)內(nèi)部,圍繞數(shù)據(jù)來源、處理、應(yīng)用等方面。而安全層面的數(shù)據(jù)治理的挑戰(zhàn)相對更大,需要綜合多種法律、技術(shù)途徑而實現(xiàn)。從現(xiàn)有情況來看,一些國際組織和機(jī)構(gòu)已公布了關(guān)于數(shù)據(jù)安全的政策標(biāo)準(zhǔn)。[6]例如,早在2018年歐盟的《統(tǒng)一數(shù)據(jù)保護(hù)條例》就已正式生效,規(guī)定算法歧視的規(guī)制應(yīng)確立數(shù)據(jù)無害化原則,確立了完善個人信息保護(hù)法律體系,以制定個人信息保護(hù)為源頭,民法、刑法、行政法等多部門法綜合治理手段。2019年5月,《歐盟非個人數(shù)據(jù)自由流動條例》正式生效,《條例》明確了歐盟成員國政府在非個人數(shù)據(jù)流動監(jiān)管領(lǐng)域須遵循的基本原則,即“自由流動、規(guī)則透明,公共安全保留”。同樣美國第一部為保護(hù)個人隱私權(quán)而專門立法的《隱私權(quán)法》、規(guī)范個人信息采集與處理的《個人數(shù)據(jù)通知和保護(hù)法案》《消費(fèi)者隱私權(quán)法案》等,初步形成了以隱私權(quán)為治理對象、通過各地立法為主要手段,以行業(yè)自律為重要輔助相結(jié)合的方式。[7]就我國而言,2020年7月3日,全國人大正式公開《數(shù)據(jù)安全法(草案)》并征求意見,反映出我國對數(shù)據(jù)安全的重視已上升到法律層面。各地方政府緊隨其后,如深圳市也公布了“深圳特區(qū)數(shù)據(jù)條例”,反映出各地方政府在數(shù)據(jù)安全治理方面的迅速跟進(jìn)。但總體而言目前我國數(shù)據(jù)安全法律體系尚處于加快建設(shè)和完善的情況下,同時人工智能數(shù)據(jù)安全標(biāo)準(zhǔn)更偏落地應(yīng)用,技術(shù)層面先行先試的策略使得監(jiān)管往往不能面面俱到。這些實際情形也對我國政府人工智能數(shù)據(jù)安全監(jiān)管和企業(yè)數(shù)據(jù)安全治理提出了更高的挑戰(zhàn)。

(三)算法治理

對于算法治理,首要原則是公開透明,即保障用戶的知情權(quán),同時應(yīng)該以易于公眾理解的形式公開,對于獲得公共公眾信任具有非常大的意義。在具體策略上可以采取技術(shù)創(chuàng)新、風(fēng)險量化、算法審查等多種策略。

一是算法帶來的問題可以通過算法技術(shù)的改進(jìn)和創(chuàng)新予以克服。以優(yōu)良算法代替不良算法的途徑破解算法本身帶來的問題。如臉書發(fā)布的FairnessFlow工具會對涉及性別種族等某種不公平算法做出警告。對于利用人工智能技術(shù)生成的偽造信息同樣可以利用區(qū)塊鏈的技術(shù)加以識別破解。我們應(yīng)該認(rèn)識到一些問題存在的本身往往是技術(shù)創(chuàng)新的重要推力,通過技術(shù)對抗,技術(shù)創(chuàng)新的方式,逐步優(yōu)勝劣汰,從而消解一部分因技術(shù)帶來的難題與挑戰(zhàn)。二是可量化、可解釋和可學(xué)習(xí)的風(fēng)險分析技術(shù)對保障人工智能的安全至關(guān)重要。[8]借鑒風(fēng)險分析模型在金融領(lǐng)域的成功應(yīng)用,如VAR的風(fēng)險測度模型,同樣可以將算法風(fēng)險特征提供的信息以概率分布進(jìn)行表示,然后用風(fēng)險特征的分布估計目標(biāo)實例的標(biāo)簽概率分布,最后實現(xiàn)風(fēng)險指標(biāo)的量化分析。三是加強(qiáng)算法公平、算法透明的審查機(jī)制。在數(shù)據(jù)的應(yīng)用處理過程中,對于算法所涉及的各方主體還應(yīng)設(shè)立合理的問責(zé)制,完善事后救濟(jì)與責(zé)任承擔(dān)制度。[7]

四、優(yōu)化人工智能治理體系的實踐對策

(一)加強(qiáng)人工智能法治生態(tài),構(gòu)建人工智能法治體系

一是努力建設(shè)人工智能法治生態(tài)。人工智能技術(shù)作為近年來的新興技術(shù),隨之引致的風(fēng)險日益增加,對人工智能的治理成為了一個非常突出的問題。應(yīng)盡快將人工智能治理納入法治軌道,探索相關(guān)的法治原則、標(biāo)準(zhǔn)和體系等法治生態(tài)的建設(shè)。運(yùn)用法治思維和風(fēng)險意識,提前應(yīng)對可能風(fēng)險、規(guī)劃治理方案和構(gòu)建治理體系。人工智能發(fā)展發(fā)達(dá)地區(qū)應(yīng)積極總結(jié)成功經(jīng)驗,探索是否具備可復(fù)制、可操作的借鑒模式。

二是建立人工智能法治體系??紤]人工智能技術(shù)發(fā)展對現(xiàn)有治理體系的沖擊,提前研判和應(yīng)對人工智能技術(shù)的發(fā)展對社會經(jīng)濟(jì)、法制倫理的廣泛影響,在避免不可控因素和保障人工智能的良性安全發(fā)展的前提下釋放技術(shù)變革的潛能,努力達(dá)成人工智能治理體系的共識。影響人工智能法治體系的構(gòu)建應(yīng)注重與頂層設(shè)計方案的契合,注重人工智能治理的前沿研究與實踐應(yīng)用的并重,側(cè)重于支持對人工智能產(chǎn)業(yè)規(guī)范的指導(dǎo)。同時由于其跨學(xué)科屬性,在建設(shè)該學(xué)科發(fā)展中,應(yīng)探索適合產(chǎn)業(yè)發(fā)展需求的跨學(xué)科人才的培養(yǎng)模式。最后人工智能法制體系還應(yīng)加強(qiáng)對未來人工智能治理風(fēng)險與挑戰(zhàn)的趨勢研判和應(yīng)對措施。

(二)明確人工智能倫理的基本價值,建構(gòu)人工智能倫理框架

如前所述,平臺治理、算法治理、數(shù)據(jù)治理說到底在于對使用數(shù)據(jù)和技術(shù)背后的人的治理,數(shù)據(jù)作為生產(chǎn)要素的關(guān)鍵資源,也應(yīng)該考慮在使用過程中的信息過濾的功能,通過良好的平臺治理途徑和相應(yīng)的監(jiān)管措施,盡可能地減少人類社會的偏見與歧視導(dǎo)致的算法污染,使其在提升人類生產(chǎn)效率的同時建立起公平、正義與向善的社會倫理規(guī)范,為原本中性的技術(shù)的利用提供健康的生存環(huán)境。因此,要在充分考慮人工智能技術(shù)需求和社會需求,同時以人類福祉為目的的前提下,實現(xiàn)人工智能的創(chuàng)新與發(fā)展。要從影響倫理風(fēng)險治理的根本性、現(xiàn)實性問題入手,推進(jìn)倫理與技術(shù)融合共生機(jī)制的生成。自2015年以來,國內(nèi)外存在兩個影響較為廣泛的人工智能倫理共識:阿西洛馬人工智能原則和IEEE組織倡議的人工智能倫理標(biāo)準(zhǔn)。盡管如此,在技術(shù)爆炸時代,仍有必要建立新型人工智能倫理治理框架。

首先,建立算法從業(yè)人員以及AI行業(yè)的倫理規(guī)范,從源頭遏制與預(yù)防人工智能技術(shù)風(fēng)險,從而規(guī)制算法設(shè)計與技術(shù)發(fā)展應(yīng)用遵循人類的倫理與道德。其次是加強(qiáng)在AI的技術(shù)創(chuàng)新促進(jìn)人類福祉和可持續(xù)性發(fā)展方面凝聚共識。[9]如利用人工智能技術(shù)主體的技術(shù)評估、社會公眾的體驗評估,全面提高人工智能技術(shù)倫理風(fēng)險的科學(xué)性。最后可以考慮在企業(yè)層面籌建人工智能倫理委員會,研究制定倫理標(biāo)準(zhǔn)。規(guī)范的依據(jù)應(yīng)當(dāng)是技術(shù)只能作為實現(xiàn)人類福祉的手段。

(三)推進(jìn)算法向善的技術(shù)進(jìn)步,實現(xiàn)良性向善的算法社會

一是加強(qiáng)對算法技術(shù)的源頭治理??紤]因果推理技術(shù)對于優(yōu)化算法的重要性,[11]有研究者使用因果推理工具開發(fā)了一套嚴(yán)格的模型,結(jié)果表明因果模型能夠有效捕獲社會偏差,該模型使算法能夠考慮到對個體產(chǎn)生的不同社會偏見,并有效地補(bǔ)償這些偏差。二是加強(qiáng)算法科技人員的技術(shù)向善的倫理認(rèn)同。向善性技術(shù)進(jìn)步不僅著眼于技術(shù)創(chuàng)新,更加強(qiáng)調(diào)人工智能的目的不應(yīng)違背人類倫理道德的基本方向,在使用過程中不作惡。向善性的要求包括考察人工智能是否以促進(jìn)人類發(fā)展為目的,如和平利用人工智能及相關(guān)技術(shù)、避免致命性人工智能技術(shù)濫用;同時,也要求考察人工智能是否有濫用導(dǎo)致侵犯個人權(quán)利、損害社會利益的危險,例如是否用于欺詐客戶、造成歧視、侵害弱勢群體利益等。三是借助算法革命改善社會經(jīng)濟(jì)福利。積極利用新技術(shù)促進(jìn)產(chǎn)業(yè)革命,重構(gòu)新業(yè)態(tài)、新模式、新產(chǎn)業(yè)的發(fā)展,積極推動算法技術(shù)來推進(jìn)人類社會福祉的良性實現(xiàn)。

猜你喜歡
倫理人工智能算法
《心之死》的趣味與倫理焦慮
護(hù)生眼中的倫理修養(yǎng)
活力(2019年19期)2020-01-06 07:37:00
基于MapReduce的改進(jìn)Eclat算法
Travellng thg World Full—time for Rree
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
進(jìn)位加法的兩種算法
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
一種改進(jìn)的整周模糊度去相關(guān)算法
全州县| 新乐市| 东至县| 友谊县| 托克逊县| 麟游县| 大庆市| 焦作市| 桃园市| 大化| 开鲁县| 东平县| 达孜县| 志丹县| 江达县| 佛冈县| 景德镇市| 松阳县| 长兴县| 镇沅| 石嘴山市| 运城市| 陵水| 安化县| 凌源市| 娄烦县| 永平县| 九江市| 乌什县| 金山区| 巴塘县| 文化| 永清县| 石狮市| 偃师市| 贺州市| 陇西县| 本溪| 沾益县| 鄂州市| 苍山县|