閆坤如,馬少卿
(華南理工大學(xué) 馬克思主義學(xué)院,廣東 廣州 510640)
人工智能自誕生以來,不斷取得新的技術(shù)突破,弗洛里迪(Luciano Floridi)把“人工智能革命”稱為“第四次革命”[1]。人工智能對人類社會產(chǎn)生了極其重要的影響,從智能導(dǎo)航系統(tǒng)到老年護(hù)理系統(tǒng),從智能生產(chǎn)線到排雷機(jī)器人,人工智能從過去的解放了人類的雙手到現(xiàn)在甚至解放了人腦,人工智能技術(shù)給人類帶來便利的同時,也存在一些風(fēng)險。
人工智能技術(shù)的突飛猛進(jìn),使人們產(chǎn)生了技術(shù)無所不能的幻象,“這個社會在技術(shù)上越來越完善,它甚至能夠提供越來越完美的解決辦法,但是,與此息息相關(guān)的后果和種種危險卻是受害人根本無法直覺到的”[2]。人工智能技術(shù)風(fēng)險主要包括數(shù)據(jù)泄露對個人、企業(yè)和國家?guī)淼木薮箫L(fēng)險;人工智能可能威脅人的主體性地位,使人淪為機(jī)器的奴隸;人工智能生產(chǎn)效率的提高會給社會帶來如失業(yè)等負(fù)面影響。
人工智能技術(shù)的發(fā)展需要大數(shù)據(jù)(big data)來支持,大數(shù)據(jù)指的是所涉及的數(shù)據(jù)規(guī)模巨大甚至無法通過傳統(tǒng)的數(shù)據(jù)分析軟件和程序?qū)?shù)據(jù)進(jìn)行有針對性的分析、攝取和管理的海量數(shù)據(jù),海量數(shù)據(jù)中包括個人數(shù)據(jù)、商業(yè)數(shù)據(jù)、政府?dāng)?shù)據(jù)等多種數(shù)據(jù),這些數(shù)據(jù)的泄露將會給個人、商業(yè)和政府部門帶來巨大的風(fēng)險。
人工智能技術(shù)在大數(shù)據(jù)的支持下快速發(fā)展,由于技術(shù)發(fā)展速度和水平的不一致,對于數(shù)據(jù)管理和使用的各個環(huán)節(jié)都可能存在漏洞。
在數(shù)據(jù)采集環(huán)節(jié),不同的數(shù)據(jù)采集程序?qū)?shù)據(jù)采集的標(biāo)準(zhǔn)和精度各異,會導(dǎo)致不符合標(biāo)準(zhǔn)與精度的數(shù)據(jù)泄露,如采集收入狀況的程序會把負(fù)債數(shù)據(jù)剔除,從而造成負(fù)債數(shù)據(jù)的泄露。目前不少人工智能技術(shù)對使用者的信息存在過度采集的情況。如VR技術(shù)會對使用者的面部物理特征進(jìn)行采集,從而造成使用者隱私泄露。
在數(shù)據(jù)分析環(huán)節(jié),不同的算法對相同的數(shù)據(jù)有著不同分析程序,從而將算法認(rèn)為不重要的數(shù)據(jù)內(nèi)容不予分析甚至剔除,從而造成數(shù)據(jù)泄露。如2017年美國五角大樓架在亞馬遜S3云存儲的數(shù)據(jù)庫,由于人工智能程序的錯配,使得三臺S3型人工智能服務(wù)器的數(shù)據(jù)“可公開下載”,其中包括了約18億條關(guān)于美國主要社交論壇的個人發(fā)言記錄和登錄地址,而一旦這些信息被不法分子濫用,將會給發(fā)言者個人、論壇和社會帶來巨大風(fēng)險。
在數(shù)據(jù)管理環(huán)節(jié),數(shù)據(jù)的使用者對于數(shù)據(jù)的管理不當(dāng)或者惡意泄露會造成數(shù)據(jù)在管理環(huán)節(jié)的泄露。另一方面,人工智能技術(shù)對于數(shù)據(jù)的使用者權(quán)限設(shè)置并不完善,無法區(qū)分?jǐn)?shù)據(jù)的使用性質(zhì),從而會造成數(shù)據(jù)的泄露。
人工智能技術(shù)會在一定程度上挑戰(zhàn)人的主體地位,威脅人的自主地位。人工智能技術(shù)給人類社會帶來巨大變革的同時,也使人類陷入混沌和迷茫,在當(dāng)今社會背景下,人類全方面服從于技術(shù),人的身心自由受到了挑戰(zhàn),人類在一定程度上淪為人工智能的“奴隸”。馬爾庫塞(Herbert Marcuse)指出,“因?yàn)檫@種不自由既不表現(xiàn)為不合理的,又不表現(xiàn)為政治性的,而是表現(xiàn)為對擴(kuò)大舒適生活、提高勞動生產(chǎn)率的技術(shù)裝置的屈從?!盵3]例如動車需要駕駛員每隔30秒踩踏安全踏板一次,否則會強(qiáng)制停車。除此之外,人的主體性地位喪失還表現(xiàn)在由于人工智能能夠高效而廉價地完成人類的許多工作,會使人類對自身的勞動價值和意義產(chǎn)生懷疑,如一個人一個月的工作量人工智能技術(shù)一個小時就能完成,那么人們會對自身工作的意義和價值產(chǎn)生懷疑。隨著人工智能技術(shù)在人類情感領(lǐng)域內(nèi)不斷取得新的突破,智能伴侶、虛擬情侶等產(chǎn)品的產(chǎn)生更對人類情感的獨(dú)特性帶來巨大沖擊,“技術(shù)可以導(dǎo)致人類的勞動價值喪失;個人的孤獨(dú)封閉和人際間的疏遠(yuǎn)冷漠等精神方面。人的思維成為無必要的。技術(shù)就是一個摒棄人類能力的過程”[4]。更有預(yù)言家提出人工智能最終將統(tǒng)治人類,甚至毀滅人類。因此,越先進(jìn)的人工智能技術(shù),越挑戰(zhàn)人類的主體性地位。
人工智能技術(shù)給社會帶來倫理風(fēng)險,對社會的穩(wěn)定和發(fā)展構(gòu)成沖擊,這些問題都引發(fā)學(xué)者思考[5]。美國路易斯維爾大學(xué)網(wǎng)絡(luò)安全實(shí)驗(yàn)室主任亞姆波斯基(Roman Yampolskiy)教授的論文《人工智能與網(wǎng)絡(luò)安全:人工智能失效時間表》對2016年人工智能發(fā)展帶來的問題進(jìn)行梳理[6],包括微軟聊天機(jī)器人Tay散布種族主義、特斯拉半自動駕駛系統(tǒng)發(fā)生車禍,致人死亡。人臉識別存在種族或者人種歧視現(xiàn)象,人工智能可能導(dǎo)致數(shù)據(jù)鴻溝以及社會公正與社會正義等等各種社會風(fēng)險。機(jī)器學(xué)習(xí)的應(yīng)用讓阿爾法狗戰(zhàn)勝世界圍棋冠軍棋手,卻給人類帶來了機(jī)器智能超越人類智能的擔(dān)憂。總體而言,人工智能技術(shù)給社會帶來的風(fēng)險主要分布在政治、經(jīng)濟(jì)、文化、社會等各個領(lǐng)域。在政治領(lǐng)域,人工智能通過高效的技術(shù)優(yōu)勢,可以對選舉進(jìn)行操控和干預(yù);在社會公平領(lǐng)域,擁有人工智能技術(shù)的國家和地區(qū)會對沒有該技術(shù)的國家和地區(qū)帶來數(shù)字鴻溝,拉大貧富差距;在經(jīng)濟(jì)領(lǐng)域,人工智能技術(shù)的使用會造成不正當(dāng)競爭,干擾或者破壞正常的經(jīng)濟(jì)秩序,拉大物質(zhì)財富差距;在文化領(lǐng)域,人工智能疏遠(yuǎn)了人與人之間的距離,使人們沉迷于人工智能技術(shù)成果,造成上癮、迷失自我等問題,如互動性電子游戲;在社會領(lǐng)域,人工智能技術(shù)的運(yùn)用會造成大批勞動者的失業(yè),失業(yè)者過多會給發(fā)放失業(yè)補(bǔ)貼的政府財政和社會穩(wěn)定帶來巨大壓力;在安全領(lǐng)域,人工智能技術(shù)會導(dǎo)致人類傷亡,如軍用無人機(jī)帶來大批平民死亡。除此之外,人工智能技術(shù)在商業(yè)領(lǐng)域、教育領(lǐng)域、醫(yī)療領(lǐng)域和科學(xué)研究領(lǐng)域都會帶來較大風(fēng)險。
設(shè)計人員自身原因?qū)е嘛L(fēng)險。不同的設(shè)計人員有著不同的成長經(jīng)歷和教育背景,從而形成了每個人相對獨(dú)立和穩(wěn)定的價值觀,也形成了根深蒂固的偏見和習(xí)慣看法,不同的設(shè)計人員對于同一件事的觀點(diǎn)和看法可能大不相同,所以對于人工智能技術(shù)的風(fēng)險認(rèn)識會良莠不齊,甚至背道而馳,因此,設(shè)計出來的人工智能也會相應(yīng)缺乏對于風(fēng)險的準(zhǔn)確把控。設(shè)計者的設(shè)計意圖也會導(dǎo)致風(fēng)險。設(shè)計者的設(shè)計意圖與利益驅(qū)使、企業(yè)目標(biāo)等有關(guān),設(shè)計者為了自身利益最大化,企業(yè)為了盈利最大化,人工智能技術(shù)的使用者亦為了自身利益得到保障,忽視其他重要因素帶來的如破壞社會公平、污染環(huán)境等不良后果,而去追求最高的收益。在各方利益的驅(qū)使下,人工智能技術(shù)的設(shè)計者刻意忽視的社會公平、環(huán)境保護(hù)等方面的因素會給不使用人工智能技術(shù)的人帶來巨大風(fēng)險和挑戰(zhàn)。
人工智能的核心運(yùn)行支持是算法,而算法具有不透明性和運(yùn)行的自主性,是造成人工智能具有風(fēng)險的客觀原因。由于算法體現(xiàn)出來的所謂的“客觀性”,因此算法被認(rèn)為具有相當(dāng)?shù)臎Q策權(quán)力,“越來越多的權(quán)力存在于算法之中,它不僅塑造社會與文化,直接影響與控制個人生活,甚至獲得了真理的地位”[7]。算法的不透明性即所謂的“算法黑箱”,也就是算法程序的可解釋性困難,算法的可解釋性即“展示自己或其它主題做出的決定所依賴的原因”[8],由于算法內(nèi)部的運(yùn)行機(jī)制缺乏足夠的可解釋性,所以不難理解為什么會產(chǎn)生各種各樣的“算法歧視”,比如黑人總會優(yōu)先和犯罪分子建立聯(lián)系,而白人則總是最后才和犯罪分子掛鉤,歐米內(nèi)(Omer Tene)和波洛尼斯基(Jules Polonetsky)所說的:“即使使用不敏感的數(shù)據(jù),預(yù)測分析也可能對個人和社會產(chǎn)生令人窒息的影響,從而延續(xù)舊的偏見?!盵8]算法的不透明性則直接挑戰(zhàn)了人類的知情權(quán)和主體地位。荷蘭學(xué)者泰勒(Linnet Taylor)指出,“算法分組的目的大多不是訪問或識別個人,而是識別一個群體的偏好或特征,從而進(jìn)行有效地干預(yù)。在此過程中包括算法設(shè)計者在內(nèi)的每個人都可能不知道個體數(shù)據(jù)是否正在被誤用或?yàn)E用,而現(xiàn)有的數(shù)據(jù)保護(hù)也并沒有涉及到集體隱私保護(hù)問題?!盵10]而另一方面,當(dāng)缺乏可解釋性的算法一旦運(yùn)行起來,那么這種智能程序?qū)@得相當(dāng)程度的自主性,意味著在一定時間和范圍內(nèi)可以根據(jù)既定算法自主決策。如依靠人臉識別系統(tǒng)自主識別犯罪在逃人員,當(dāng)一個和在逃人員長相相似的人出現(xiàn)的時候,算法既不透明,又自主運(yùn)行,很可能將這個人認(rèn)定為逃犯,從而給這個人帶來困擾和麻煩。算法的不透明性和自主性是人工智能技術(shù)存在和發(fā)展難以逾越的技術(shù)阻礙。
“設(shè)計者作為專業(yè)知識的掌握者和技術(shù)的應(yīng)用者,他們處于技術(shù)活動的‘第一線’,是技術(shù)人工物創(chuàng)造的首席執(zhí)行者?!盵11]人工智能技術(shù)設(shè)計的初衷與實(shí)際的運(yùn)用結(jié)果可能大相徑庭,正如同貝爾發(fā)明電話的初衷是解決聽力障礙者的聽力困境而并非是作為通訊設(shè)備一樣,人工智能技術(shù)也面臨這種情況。人工智能技術(shù)的設(shè)計師按照自己的意愿和理念設(shè)計出來的人工智能技術(shù)人工物與技術(shù)人工物的實(shí)際使用情況并不能夠完全符合設(shè)計者預(yù)期,甚至能夠產(chǎn)生完全相反的效果,“科學(xué)家們應(yīng)該認(rèn)識到機(jī)器人或是其他高技術(shù)人造物,能夠?qū)ι鐣陌l(fā)展造成影響,這個影響可能與技術(shù)設(shè)計的初衷相違背”[12]。人工智能技術(shù)的發(fā)展初衷是提高人類的生活水平和生活質(zhì)量,但是現(xiàn)實(shí)情況卻是更多的人成為人工智能技術(shù)的奴隸,無時無刻為技術(shù)所支配,從而客觀上降低了實(shí)際的生活水平和生活質(zhì)量,更有甚者不堪壓力選擇辭職甚至自殺,這些現(xiàn)實(shí)結(jié)果毫無疑問與人工智能技術(shù)的設(shè)計初衷完全背道而馳。人工智能的設(shè)計離不開設(shè)計者的努力,所設(shè)計出來的人工智能凝聚著設(shè)計團(tuán)隊(duì)的心血和智慧,但是并不是所有的設(shè)計者都是“完人”,由于設(shè)計者或者設(shè)計團(tuán)隊(duì)的偏見、錯誤的認(rèn)知、思考的局限性等人為因素的影響以及編制算法存在缺陷等技術(shù)漏洞,所設(shè)計出來的人工智能也會存在一定程度的缺陷。
人工智能技術(shù)之所以存在風(fēng)險,與設(shè)計者的主觀局限性、程序算法的不透明性及自主性、人工智能技術(shù)的目的與結(jié)果不一致性密切相關(guān)。人工智能技術(shù)所面對的諸多風(fēng)險和挑戰(zhàn)以及背后的不同原因,并不意味者我們面對這樣的風(fēng)險和挑戰(zhàn)束手無策,作為人工智能技術(shù)開發(fā)者的人類,完全有能力,有責(zé)任,更有義務(wù)去解決這樣的困難,從而使人工智能更好地服務(wù)于人類,因此,我們需要深入思考人工智能技術(shù)風(fēng)險的規(guī)避措施,思考怎樣可以最大限度的規(guī)避風(fēng)險、降低危害,從而保障人類的主體地位。
人工智能技術(shù)是近幾十年最重要的科技成果之一,各國都重視人工智能的發(fā)展,許多國家已經(jīng)認(rèn)識到了人工智能技術(shù)所帶來的風(fēng)險和挑戰(zhàn),并試圖從包括立法在內(nèi)的多種角度來規(guī)避風(fēng)險,保障人工智能技術(shù)的安全[13],主要從以下三個方面入手:以保障數(shù)據(jù)安全為根本立足點(diǎn);以保障人的主體地位為前提;以維護(hù)社會安全和穩(wěn)定為目標(biāo)。
人工智能發(fā)展為了提高人類的生活水平,不應(yīng)該以放棄隱私為代價。保障數(shù)據(jù)安全是人工智能發(fā)展的根本前提條件。
為了避免數(shù)據(jù)泄露:一是要給予數(shù)據(jù)采集者“知情同意”的權(quán)利,使用戶可以知道自己的個人信息如何處理。二是人工智能設(shè)計者對用戶的數(shù)據(jù)安全負(fù)有責(zé)任。在數(shù)據(jù)獲取和儲存階段準(zhǔn)確區(qū)分?jǐn)?shù)據(jù)類型,包含核心數(shù)據(jù)安全,如個人隱私數(shù)據(jù)、商業(yè)研發(fā)數(shù)據(jù)等通過數(shù)據(jù)加密技術(shù)等措施對核心數(shù)據(jù)進(jìn)行重點(diǎn)保護(hù)。三是在數(shù)據(jù)應(yīng)用層面進(jìn)行安全保護(hù),通過在線網(wǎng)絡(luò)(online social network)保護(hù)數(shù)據(jù),如通過匿名化數(shù)據(jù)發(fā)布、隱私保護(hù)數(shù)據(jù)挖掘(privacy-preserving data mining)發(fā)布方式、差異化隱私(differential privacy)保護(hù)、數(shù)據(jù)訪問限制、數(shù)據(jù)水印技術(shù)、數(shù)據(jù)溯源技術(shù)、數(shù)據(jù)加密和訪問控制等技術(shù)對用戶的信息和數(shù)據(jù)安全進(jìn)行保護(hù),同時對于威脅信息和數(shù)據(jù)安全的技術(shù)漏洞進(jìn)行防范。四是從監(jiān)管方面入手建立健全保護(hù)數(shù)據(jù)安全的法律法規(guī)。有關(guān)政府部門和組織落實(shí)監(jiān)管責(zé)任,加快信息安全的法制建設(shè),對于信息安全可能產(chǎn)生的糾紛做好調(diào)解工作,嚴(yán)格實(shí)施立法保護(hù)和執(zhí)法追責(zé),對于私自竊取機(jī)密信息的個人和企業(yè)依法追究責(zé)任。五是構(gòu)建算法治理的約束機(jī)制,加強(qiáng)算法監(jiān)管,要求對于涉及公眾利益的程序開源算法,保障公眾信息安全。六是確保數(shù)據(jù)登陸與使用安全,在程序設(shè)定上進(jìn)行優(yōu)化,通過指紋區(qū)分不同的操作者。保障使用者的數(shù)據(jù)安全,建立刪除程序,每一個使用者使用完畢后,任何信息都得不到保存,切實(shí)保障隱私安全;對于在私密空間包括家庭當(dāng)中使用的人工智能產(chǎn)品,在程序中可以定期向使用者匯報搜集信息的使用情況和上傳信息的流向,最后設(shè)置遠(yuǎn)程遙控識別系統(tǒng),限制遠(yuǎn)程、陌生的遠(yuǎn)程遙控,等等。通過上述措施保障數(shù)據(jù)安全,確保人工智能技術(shù)的安全運(yùn)行。除此之外,聯(lián)合國教科文組織(The United Nations Education,Scientific and Cultural Organization)與世界科學(xué)知識與技術(shù)倫理委員會(World Commission on the Ethics of Scientific Knowledge and Technology)在2015年的報告中提出保護(hù)數(shù)據(jù)與隱私安全等措施。需要進(jìn)一步完善通過設(shè)計保護(hù)隱私(privacy by design)、默認(rèn)保護(hù)隱私(privacy by default)、知情同意、加密等概念的標(biāo)準(zhǔn)來保護(hù)人工智能時代的信息安全。
人工智能的發(fā)展改變了傳統(tǒng)的人和技術(shù)的關(guān)系,傳統(tǒng)的人與技術(shù)的關(guān)系是人是主體,技術(shù)的發(fā)明與研制都是為了滿足人類的目的,更好地為人類服務(wù),技術(shù)的價值也以對人類的作用為評價標(biāo)準(zhǔn),一切為了人類的福祉。人工智能系統(tǒng)需要和人類的尊嚴(yán)、自由等價值觀相一致,同時人工智能技術(shù)需要服務(wù)于公共利益,超級人工智能系統(tǒng)的研究和運(yùn)用是為了服務(wù)于為全人類所廣泛認(rèn)可和普遍接受的基本的倫理觀念。因此,人工智能技術(shù)應(yīng)該保證人的主體地位,以人為核心來發(fā)展技術(shù),而不是以技術(shù)為核心來限制人。應(yīng)明確人工智能研究的邊界和紅線,不能以傷害人類為目的,人工智能發(fā)展應(yīng)以不損害人類整體利益為邊界,保障人在人工智能技術(shù)使用中的能動性,使人類能夠體驗(yàn)到人工智能給人類帶來的便捷而不是苦惱。保障人的主體性地位,源于人工智能體現(xiàn)人類價值,提升人的價值。2019年4月,歐盟出臺了《可信賴人工智能倫理準(zhǔn)則》,提出在人類基本原則得到保障的基礎(chǔ)上,實(shí)現(xiàn)可信賴的人工智能,其中包括算法可解釋、程序透明等內(nèi)容。歐盟頒布的《可信賴的人工智能設(shè)計》和2017年美國電氣和電子工程師協(xié)會(IEEE)發(fā)布的《合乎倫理的設(shè)計:將人類福祉與人工智能和自主系統(tǒng)優(yōu)先考慮的愿景》報告,都呼吁將人類規(guī)范和道德價值觀嵌入人工智能系統(tǒng)中,保障人的主體性地位,在人工智能技術(shù)背景下,人類的決策地位優(yōu)先。人工智能的發(fā)展應(yīng)以確保人的主體性地位為前提。
美國職業(yè)工程師協(xié)會(NSPE)、美國電氣和電子工程師協(xié)會(IEEE)、美國機(jī)械工程師協(xié)會(ASME)和美國伍斯特理工學(xué)院(WPI)等協(xié)會相繼出臺了人工智能倫理準(zhǔn)則,關(guān)注安全、人類福利等與人類利益密切相關(guān)的內(nèi)容,要求將人類的倫理準(zhǔn)則通過形式化的模式嵌入到人工智能技術(shù)當(dāng)中,成為人工智能技術(shù)發(fā)展的重要遵循原則之一。人工智能的運(yùn)用應(yīng)促進(jìn)社會公平正義的落實(shí)。避免人工智能設(shè)計的不公平、使用的不公平、算法歧視等社會問題,避免人工智能對于人類社會穩(wěn)定的沖擊,要充分認(rèn)識人工智能技術(shù)對社會各個領(lǐng)域所帶來的沖擊,做好應(yīng)對準(zhǔn)備。在經(jīng)濟(jì)領(lǐng)域,規(guī)范人工智能技術(shù)使用的要求,對于使用人工智能破壞正常經(jīng)濟(jì)秩序的行為要加大打擊力度,通過稅收等再分配途徑縮小物質(zhì)財富差距;在文化領(lǐng)域,通過技術(shù)限制減少人們沉迷和上癮的行為,如限定每日登陸總時長;在社會領(lǐng)域,對于人工智能技術(shù)帶來的失業(yè)問題要做好統(tǒng)計工作,及時撥發(fā)失業(yè)補(bǔ)助,組織再就業(yè)技能學(xué)習(xí)班等,使失業(yè)的人口得到基本的生活保障,保持社會總體穩(wěn)定。此外,人工智能給傳統(tǒng)行業(yè)帶來沖擊造成失業(yè)的同時,也會創(chuàng)造出新的工作崗位,要積極引導(dǎo)未就業(yè)人群和失業(yè)人群在新的工作崗位就業(yè);在安全領(lǐng)域,不斷革新技術(shù),明確責(zé)任劃分,減少傷亡情況,對于已經(jīng)發(fā)生的傷亡,及時做好賠付和善后工作。日本人工智能學(xué)會的倫理委員會研究匯總了一份研究人員應(yīng)該遵守的指標(biāo)草案,提出要有益和平和防止惡意使用人工智能技術(shù)等要求。人工智能從設(shè)計之初關(guān)注公平與正義問題,“人工智能設(shè)計應(yīng)該關(guān)注機(jī)會平等,人工智能設(shè)計也要追求結(jié)果的公平和正義”[14]。人工智能的發(fā)展應(yīng)該關(guān)注社會公平,維護(hù)社會穩(wěn)定。
綜上所述,人工智能發(fā)展迅速,是社會發(fā)展的重要推動力量,也會帶來人類安全、隱私、數(shù)據(jù)所有權(quán)等風(fēng)險。因此,在不斷推進(jìn)人工智能技術(shù)進(jìn)步的同時,必須關(guān)注人工智能的倫理風(fēng)險,及時規(guī)治人工智能的倫理風(fēng)險,才能避免人工智能的負(fù)面效應(yīng),規(guī)范與約束人工智能的發(fā)展,應(yīng)該建立人工智能監(jiān)管機(jī)構(gòu),制定人工智能的相關(guān)法律、法規(guī),重構(gòu)人工智能責(zé)任體系以及建立人工智能倫理規(guī)則等才能規(guī)避人工智能風(fēng)險,人工智能發(fā)展需要“道德嵌入”,把人類“善”的道德嵌入到設(shè)計的人工智能算法、程序中,用“科技向善”規(guī)范人工智能發(fā)展,在設(shè)計之初為人工智能注入一顆“良芯”。