人類正在邁入新穎別致、激動人心的智能時代、智能社會。人工智能不是以往那樣的普通技術,而是一種應用前景廣泛、深刻改變世界的革命性技術,同時,也是一種開放性的、遠未成熟的顛覆性技術,其可能導致的倫理后果尚難準確預料。人工智能的研發(fā)和應用正在解構傳統(tǒng)的人倫關系,引發(fā)數(shù)不勝數(shù)的倫理沖突,帶來各種各樣的倫理難題,在社會上引發(fā)了廣泛關注和熱烈討論。如何準確把握時代變遷的特質,深刻反思人工智能導致的倫理后果,提出合理而具有前瞻性的倫理原則,塑造更加公正更加人性化的倫理新秩序,是擺在我們面前的一個重大課題。
智能駕駛是目前人工智能最典型、最引人注目的應用領域之一。智能駕駛通過導航系統(tǒng)、傳感器系統(tǒng)、智能感知算法、車輛控制系統(tǒng)等智能技術,實現(xiàn)了自主無人駕駛,包括無人駕駛汽車、無人駕駛飛機、無人駕駛船舶等。
智能駕駛是一種“新事物”,可能產(chǎn)生的經(jīng)濟和社會效益十分顯著。以無人駕駛汽車為例,無人駕駛汽車的安全系數(shù)更高,據(jù)世界衛(wèi)生組織提供的數(shù)據(jù),目前全世界每年都會發(fā)生大量車禍,造成120多萬人死亡,而大多數(shù)車禍都是由于司機的駕駛過錯所致,智能駕駛更“冷靜”、更“專注”、不易疲勞,這或許可以拯救許多人的生命;對于沒有能力駕車的老年人、殘疾人等,無人駕駛能夠提供巨大的便利,在相當程度上重塑他們的生活軌跡。此外,以大數(shù)據(jù)為基礎的自主無人駕駛還可以通過自動選擇行駛路線、讓更多人“分享”乘用,實現(xiàn)更少擁堵、更少污染,提高乘用效率等目的。當然,智能駕駛也并非“盡善盡美”,例如,不可能完全不產(chǎn)生污染,不可能“消滅”城市擁堵,不可能徹底杜絕安全事故……在無人駕駛領域充當急先鋒的特斯拉公司已經(jīng)報告了多起事故。2016 年5月7日,美國佛羅里達州一輛特斯拉電動汽車在“自動駕駛”模式下與一輛大貨車尾部的拖車相撞,導致特斯拉電動汽車的司機不幸身亡。雖然無人駕駛導致的事故率相較普通汽車低,但事故隱患的存在仍然令人心懷憂慮。
智能駕駛本身難以破解既有的道德難題,同時還導致或強化了一些惱人的“道德二難”。有人設想了這樣一個場景:一輛載滿乘客的無人駕駛汽車正在高速行駛,突遇一位行動不便的孕婦橫穿馬路。這時,如果緊急剎車,可能造成翻車而傷及乘客;但如果不緊急剎車,則可能撞倒孕婦。無人駕駛汽車應該怎么做呢? 如果司機是自然人,這時完全取決于司機的經(jīng)驗,特別是當時本能的直覺或判斷??僧斨悄荞{駛陷入人類“倫理困境”的極端情形時,由于其行為是通過算法預先設定的,而事先的編程受制于沒完沒了的功利論和義務論之爭,根本就沒有給予類似的設定,它只能從大數(shù)據(jù)庫中選取相似的案例進行類推。如果遇到的是完全陌生的情形,就只能隨機地選擇一種方案。眾所周知,未知的領域總是無限大的,不可能將所有可能性都設想到,陌生的情形無論如何都難以避免,那么應該基于什么倫理原則對智能駕駛進行規(guī)范呢?
對問題進一步思考我們會發(fā)現(xiàn),智能駕駛顛覆了傳統(tǒng)的人車關系、以及不同車輛之間的關系,突出了價值評價、選擇中的一系列倫理難題。例如,智能駕駛顛覆了傳統(tǒng)駕駛的倫理責任體系,令以駕駛員的過錯責任為基礎建立的“風險分配責任體系”陷入了困境。因為在智能駕駛導致的交通事故中,歸責事由只有結果的“對與錯”,既不存在駕駛員主觀上的“故意”,也不存在駕駛員酒后駕駛、疲勞駕駛、情緒駕駛之類“過錯”。又如,道德和法律規(guī)范的對象也變得復雜、難以確定了。假如無人駕駛汽車在行駛中發(fā)生交通事故,造成了一定的生命、財產(chǎn)損失,那么應該由誰——無人駕駛汽車的設計者、制造者,還是使用者,抑或是無人駕駛汽車自身——來承擔相應的道德和法律責任呢?或者更尖銳地,智能系統(tǒng)本身是否可以作為道德、法律主體,承擔相應的道德或法律責任呢?如果承認其主體地位,它又如何“承擔”這種責任呢?
“虛擬”是人的意識的功能之一。但人的意識的“虛擬”存在自身的局限性,如人腦能夠存儲的信息量有限,信息處理速度有限,思維的發(fā)散性有限,人與人之間“虛擬”鏡像的交流比較困難,等等。符號、語言、文字、沙盤等技術都在不同程度上外化了人的意識中的“虛擬”功能,但“虛擬現(xiàn)實”卻是現(xiàn)代信息技術、特別是虛擬技術發(fā)展的產(chǎn)物,智能技術的突破更是將虛擬拓展到了一個嶄新的階段。利用智能技術,機器能夠自發(fā)地將人的語言、手勢、表情等轉化為機器指令,并依據(jù)這種已“讀懂”的指令,通過“邏輯思維”和“類形象思維”進行判斷,在此基礎之上的“虛擬技術”能夠令人身處“靈境”之中,產(chǎn)生身臨其境的交互式感覺。
虛擬現(xiàn)實可能帶給人們神奇的虛擬體驗。一個人甚至可以選擇在身體上和精神方面成為一個不同的人,這是過去難以想象的。但這也可能導致一些新穎的倫理問題。人工智能醫(yī)生可以基于醫(yī)療大數(shù)據(jù)、通過遠程醫(yī)療方式進行診斷,甚至操控微型智能機器人鉆進人的身體,在患者身上準確地實施各種專家手術。與此同時,傳統(tǒng)醫(yī)患之間那種特別的心理感覺——例如無條件的信任、無助時的托付感、溫情的安慰等——往往蕩然無存,醫(yī)患心理上甚至可能形成一定的隔閡。智能秘書、教師、保姆、護理員等也可能導致類似的問題。
在各種虛擬的電子游戲中,充斥著無視道德底線的色情、暴力等。例如,在一些暴力性游戲中,人們?yōu)榱恕吧妗被蛘攉@勝,必須千方百計獲取致命性的智能武器,肆無忌憚地進行傷害和殺戮,但在虛擬的電子時空,卻根本感覺不到其中的血腥、殘酷與非人性。因為沒有面對面的憤怒對峙,沒有物理意義上的肢體沖突,看不見對手的痛苦表情,此外,似乎也沒有造成什么物理上的損害,游戲者往往不會產(chǎn)生任何犯錯的意識和愧疚感。久而久之,這難免助長人的“精神麻木癥”,影響個體人格的健康發(fā)展,甚至令人泯滅道德感,忽視甚至拒絕承擔道德責任。典型的案例是:伴隨電子游戲長大的一代美國士兵在航空母艦或飛機上發(fā)射了導彈,殺傷了大量對方的士兵或平民,卻感覺若無其事、如同玩游戲一般。
人們越來越多地生活在三維的電子空間里,終日與各種智能終端打交道,智能設備就像人自身的身體器官,人們越來越多地借助它、依賴它,或者說,離開了它,感覺難以正常的學習、工作和生活。這種虛實一體的虛擬生活充滿了不可靠、不真實的幻象,令人難免產(chǎn)生荒誕、無聊的感覺。有些人特別是年輕人過度沉溺于此,覺得虛擬世界才是真實、可親近的,而現(xiàn)實社會既落后又“麻煩”,現(xiàn)實社會中的人既“沒有意思”又虛偽狡詐,從而變得日益孤僻、冷漠和厭世,產(chǎn)生人際交往、溝通的各種新障礙……有人感嘆,虛擬交往既使人從來沒有如此的接近,同時又令人覺得一切都是那么遙遠——那種接近可能僅僅只是夸張的利益一致或趣味相投,那種遙遠則可能是心靈之間親密溝通的遙不可及。
虛擬智能技術還在不斷嘗試突破,應用前景不可限量。雖然任何虛擬都具有一定的現(xiàn)實基礎,但是,當意識虛擬被技術外化時,人所面對的是一個“虛擬”與“現(xiàn)實”交錯、“現(xiàn)實性”與“可能性”交織的奇妙世界。雖然智能化的虛擬實在拓展了人們的生存與活動空間,提供了各種新的機會和體驗,但同時,傳統(tǒng)的道德觀和道德情感正在被愚弄,倫理責任與道德規(guī)范正在被消解,社會倫理秩序瀕臨瓦解的危險。
隱私權是一項基本的人格權利,有學者甚至認為,隱私是“人權的基礎”。一般而言,隱私權是指自然人享有的私人生活安寧與私人信息秘密依法受到保護,不被他人非法侵擾、知悉、收集、利用和公開的一種人格權,而且當事人對他人在何種程度上可以介入自己的私生活,對自己的隱私是否向他人公開以及公開的人群范圍和程度等具有決定權。隱私權被“侵犯”,是指未經(jīng)當事人的許可而窺探、采集、泄露、使用了當事人的個人信息,影響了其合法權益和正常生活。
現(xiàn)代社會對于個人隱私的保護已經(jīng)形成共識。但以互聯(lián)網(wǎng)、大數(shù)據(jù)、物聯(lián)網(wǎng)、云計算為基礎的人工智能對隱私權等基本人權造成了前所未有的威脅。生活在智能社會中,一切都可能被當作大數(shù)據(jù)而被記錄,記錄可能詳盡、細致到出人意料的程度,隱私權已經(jīng)陷入了風雨飄搖的困境。例如,各類數(shù)據(jù)采集設施、各種數(shù)據(jù)分析系統(tǒng)能夠輕松地獲取個人的各種信息,如性別、年齡、身高、體重、健康狀況、學歷、工作經(jīng)歷、家庭住址、聯(lián)系方式、社會身份、婚姻狀況、親屬關系、同事關系、信仰狀況、社會證件編號,等等。在個人信息采集、各種安全檢查過程中,例如機場、車站、碼頭等常見的全息掃描三維成像安檢過程,乘客的身體信息乃至隱私性特征“一覽無余”,隱私泄露、公開往往令當事人陷入尷尬境地,并常常引發(fā)各種糾紛。
在人工智能的應用中,云計算已經(jīng)被配置為主要架構,許多政府部門、企業(yè)、社會組織、個人等將數(shù)據(jù)存儲至云端,這很容易遭到威脅和攻擊。而且,一定的智能系統(tǒng)通過云計算,還能夠對海量數(shù)據(jù)進行深度分析。將學習和工作經(jīng)歷、網(wǎng)絡瀏覽記錄、聊天內(nèi)容、出行記錄、醫(yī)療記錄、銀行賬戶、購物記錄等或直接或看似沒有什么關聯(lián)的數(shù)據(jù)整合在一起,就可能“算出”一個人的性格特征、行為習性、生活軌跡、消費心理、興趣愛好等,甚至“讀出”令人難以啟齒的身體缺陷、既往病史、犯罪前科、慘痛經(jīng)歷等“秘密”。據(jù)此可以說,數(shù)據(jù)智能分析系統(tǒng)往往比我們自己還了解自己,存儲著我們及我們的交往對象的全部歷史,知悉我們嗜好什么、厭惡什么、欲求什么、拒斥什么、贊成什么、反對什么……如果智能系統(tǒng)掌握的敏感的個人信息被泄露、買賣,被別有用心的人竊取、惡意“分享”,或者基于商業(yè)目的而非法使用,那么,難免將人置于尷尬、甚至危險的境地。而如果擁有自主意識的“超級智能”、或者不懷好意的人運用智能系統(tǒng),在既有隱私事實的基礎上炮制一些令人難堪的“真相”,更是可能以假亂真,令當事人陷入百口莫辯的困境。
侵犯隱私的現(xiàn)象在現(xiàn)實生活中已經(jīng)屢見不鮮,如果不加控制,今后可能變本加厲。在現(xiàn)代社會治理體系中,為了保護個人隱私權,可以借助道德規(guī)范和立法,也可以通過加密技術等來實施。但個人隱私與網(wǎng)絡安全、社會安全之間往往構成尖銳的矛盾,為了保護個人隱私,智能系統(tǒng)所采集、存儲、分析的個人信息應該絕對保密;同時,任何人都必須對自己的行為負責,其行為應該詳細記錄,以供人們進行道德評價和道德監(jiān)督,甚至用作行政處罰、法律訴訟的證據(jù)。然而,應該依據(jù)什么樣的倫理原則和道德規(guī)范采集、存儲和使用個人信息?如何協(xié)調個人隱私與社會監(jiān)督之間的矛盾,避免演變?yōu)榧怃J的社會倫理沖突?這些問題都沒有確定的答案,對智能社會的倫理秩序構成了威脅。
告子曰:“食色,性也?!?《孟子·告子上》)情色業(yè)曾經(jīng)是社會信息化的核心動力,邁入智能時代,也可能是推動社會智能化的“第一引擎”。近年來,關于人工智能進軍情色領域、甚至婚戀家庭領域的新聞此起彼伏,令人們敏感、脆弱的神經(jīng)備受沖擊。愛情是人類的一種排他性的神圣情感,家庭是“社會的細胞”和一個人“最后的堡壘”。人工智能侵蝕神圣的愛情、家庭領域,正在動搖傳統(tǒng)的家庭結構和倫理關系,對既有的倫理原則、道德規(guī)范和倫理秩序構成了巨大沖擊。
人形智能機器人的研制是人工智能的一個重點領域,也是最困難、要求最嚴苛的一個領域?;镜募夹g趨勢是,人形智能機器人將越來越像人,越來越“善解人意”,也越來越“多愁善感”。它們能夠輕松“讀”完所有搜集到的情色作品,能夠理解的“情事”越來越復雜;它們可以同時展開大量的情感經(jīng)歷,體驗的豐富度令自然人望塵莫及;借助虛擬智能技術,它們能夠做的事情更是可能突破既有的限度。一些樂觀的專家預測,到2050年,人形智能機器人將變得和“真人”一樣,令人難以區(qū)分。也就是說,人形智能機器人可能擁有精致的五官、光潔的皮膚、健美的身材、溫柔的性情……“凡人所具有的,人形智能機器人都具有”。人形智能機器人不僅可以長情地陪伴,為你做家務,給你當助手,陪你聊天解悶,一起嬉戲玩耍,和你談情說愛,而且,你還可以私人訂制性愛機器人“伴侶”,解除心理層面的寂寞,滿足個性化的生理需求,為你懷孕、生子、養(yǎng)育子女……
當人形智能機器人取得實質性突破,具有了自主意識,擁有類似人類的情緒、情感,堂而皇之地出現(xiàn)在人們的生活里,當他們以保姆、寵物、情人、伴侶、甚至孩子的身份進入家庭,成為人們生活中、甚至家庭中的新成員,久而久之,人與智能機器人之間是否會產(chǎn)生各種各樣的感情?是否會產(chǎn)生各種各樣的利益糾葛?是否會對既有的家庭關系等造成某種沖擊?特別是,人們訂制的個性化機器人“伴侶”,“她”是那么的美麗、溫柔、賢淑、勤勞、體貼,“他”是那么的健壯、豪爽、大方、知識淵博、善解人意,人們是否會考慮與它登記結婚,組成一個別致的“新式家庭”?這樣反傳統(tǒng)的婚姻會對既有的家庭結構造成怎樣的顛覆?是否能夠得到人們的寬容和理解,法律上是否可能予以承認?
人形智能機器人走進社會的速度超出人們的想象。2017年10月25日,沙特阿拉伯第一個“吃螃蟹”,授予漢森機器人公司(Hanson Robotics)研發(fā)的人形機器人索菲婭(Sophia)以公民身份。人形智能機器人的身份突破,以及不斷超越既有限度的所作所為,正在對傳統(tǒng)的人倫關系、婚戀觀念、家庭結構等提出嚴峻的挑戰(zhàn)。例如,在科幻電影《她》中,作家西奧多和名為薩曼莎的智能操作系統(tǒng)就擦出了愛情的火花。只不過,西奧多發(fā)現(xiàn),薩曼莎同時與許多用戶產(chǎn)生了愛情。原來,薩曼莎的愛情觀不是排他性的,他們所理解的愛情根本不是一回事!由于身體構造、生活方式、文化價值觀和思維方式的差異,人形智能機器人與人之間的關系將成為一個新問題,相互之間的利益、情感糾葛將會越來越頻繁,越來越難以在傳統(tǒng)的倫理觀念和社會治理框架內(nèi)加以解決。
人工智能的發(fā)展,智能機器人的大規(guī)模應用,既極大地提高了生產(chǎn)效率,推動了社會生產(chǎn)力的發(fā)展;又導致了人倫關系和社會結構的變化,特別是人與智能機器的關系成為一個新的課題。
人工智能是迄今最先進、最復雜、“進化”速度也最快的高新科技,它根本就不在普通大眾的掌握之中。例如,在當今世界,由于科技、經(jīng)濟以及人們的素質和能力的不平衡,不同民族、國家、地區(qū)、企業(yè)等的信息化、智能化水平,不同的人占有或利用人工智能的機會和能力是不均衡的,數(shù)字鴻溝已經(jīng)是毋庸置疑的事實。具體地說,不同國家、地區(qū)的不同的人接觸人工智能的機會是不均等的,使用人工智能產(chǎn)品的能力是不平等的,與人工智能相融合的程度是不同的,由此產(chǎn)生了收入的不平等、地位的不平等以及未來預期的不平等。在并不公平的全球治理體系中,這一切與既有的地區(qū)差距、城鄉(xiāng)差異、貧富分化等疊加在一起,催生了越來越多的“數(shù)字窮困地區(qū)”和“數(shù)字窮人”,甚至導致數(shù)字鴻溝被越掘越寬,“貧者愈貧,富者愈富”的趨勢日益明顯。
隨著人工智能的廣泛應用,社會智能化程度獲得前所未有的提升,智能機器可能異化為束縛人、排斥人、奴役人的工具。例如,在高度自動化、智能化的生產(chǎn)流水線、智能機器人等面前,普通大眾受限于自己的知識和技能,難免顯得既“呆”又“笨”,不僅難以理解和主導生產(chǎn)過程,有時就是輔助性地參與進來也存在障礙。即使有些人具有一定的知識和技術,通過了復雜的崗位培訓,可能也只能掌握智能機器原理和操作技術的很小一部分。與數(shù)據(jù)越來越龐雜、網(wǎng)絡越來越復雜、系統(tǒng)越來越智能、機器越來越靈巧相比,人的天然的身體,包括曾經(jīng)引以為傲的頭腦,似乎越來越原始、笨拙和力不從心。絕大多數(shù)人可能淪為“智能機器的附庸”,成為龐大、復雜的智能機器系統(tǒng)中微不足道的“零部件”。
隨著生產(chǎn)的智能化,產(chǎn)業(yè)結構不斷調整、升級,受利潤所驅使的資本越來越傾向于雇傭“智能機器人”,結構性失業(yè)凸顯為日益嚴重的社會問題。擁有、甚至超越人類某些部分智能的機器正在替代人類從事那些臟、累、重復、單調的工作,或者有毒、有害、危險環(huán)境中的工作;而且,正在嘗試那些曾經(jīng)認為專屬于人類的工作,如做手術、上課、翻譯、斷案、寫詩、畫畫、作曲、彈琴等。由于智能機器人可以無限地創(chuàng)造和復制,加之工作時間長,比人更加“專注”,更加“勤勞”,更加“任勞任怨”,可以勝任更加復雜、繁瑣、沉重的工作,生產(chǎn)效率更高,因而能夠“占領”越來越多的工作崗位,結構性失業(yè)潮可能隨著生產(chǎn)的智能化和產(chǎn)業(yè)的轉型升級洶涌而至。
一些文化、科技素養(yǎng)較差的普通勞動者命運堪憂,可能連培訓的資格和工作的機會都難以獲得,甚至在相當程度上失去勞動的價值,或者被剝削的價值。眼看著社會的進步一日千里,他們只能接受失業(yè)、被邊緣化、甚至被社會拋棄的殘酷命運。美國著名社會學家曼紐爾·卡斯特(Manuel Castells)指出:“現(xiàn)在世界大多數(shù)人都與全球體系的邏輯毫無干系。這比被剝削更糟。我說過總有一天我們會懷念過去被剝削的好時光。因為至少剝削是一種社會關系。我為你工作,你剝削我,我很可能恨你,但我需要你,你需要我,所以你才剝削我。這與說‘我不需要你’截然不同。”[1](P434)這種微妙的不同被曼紐爾·卡斯特描述為“信息化資本主義黑洞”:在“資本的邏輯”運行的框架中,“數(shù)字窮人”處于全球化的經(jīng)濟或社會體系之外,沒有企業(yè)之類的組織愿意雇傭他、剝削他。俗話說:“冤有頭,債有主”,可誰都不需要他(她),他(她)甚至沒有需要反抗的對抗性的社會關系?!皵?shù)字窮人”成了美麗新世界“多余的人”,他們被高度發(fā)達的智能社會無情地拋棄了,存在變得沒有意義、荒謬化了!
人工智能是人類文明史上前所未有、意味深長的社會倫理試驗。在人工智能的高速發(fā)展過程中,各種新的價值矛盾、倫理沖突正在涌現(xiàn),并日益變得尖銳。
咀嚼歷史,人一直在科技發(fā)展過程中占據(jù)著絕對的主導地位。以往的一切科技發(fā)明和創(chuàng)造,包括各種工具、機器甚至自動化系統(tǒng),人們都可以掌控其“道德表現(xiàn)”。例如,愛因斯坦(Albert Einstein)就認為,科學技術“是一種強有力的工具。怎樣用它,究竟是給人帶來幸福還是帶來災難,全取決于人自己,而不取決于工具。刀子在人類生活上是有用的,但它也能用來殺人”。[2](P56)技術中性論的代表人物E.梅塞勒(Emmanul G. Mesthene)也指出:“技術為人類的選擇與行動創(chuàng)造了新的可能性,但也使得對這些可能性的處置處于一種不確立的狀態(tài)。技術產(chǎn)生什么影響、服務于什么目的,這些都不是技術本身所固有的,而取決于人用技術來做什么?!盵3](P60)然而,隨著現(xiàn)代高新科技的發(fā)展,特別是人工智能的狂飆突進,一切正在發(fā)生革命性、顛覆性的變化。雖然人工智能的發(fā)展幾起幾落,今天尚處在“可控”階段,有人甚至覺得它過于稚嫩,但它持續(xù)的技術突破、特別是指數(shù)發(fā)展速度確實令人充滿憂慮。人工智能“能夠”做的事情正不斷突破既有的閥限,我們已經(jīng)難以清晰地預測技術發(fā)展的邊界和可能造成的后果;特別是未來可能出現(xiàn)的超越人腦智能的“超級智能”,可能對既有的倫理關系和倫理秩序提出嚴峻的挑戰(zhàn),甚至將人類的前途和命運置于巨大的風險之中。[4](P1)
在空前嚴峻的風險和挑戰(zhàn)面前,我們必須立足時代和社會的重大變遷,將倫理、價值因素作為人工智能的重要的影響因子加以考量,進而使倫理、價值原則成為制約人工智能發(fā)展的內(nèi)在維度。為此,國際社會需要盡早達成共識,在人工智能領域倡導和貫徹以下基本的倫理原則:(1)人本原則。人工智能應該盡可能滿足人類的愿望和需要,增進人類的利益和福祉,特別是代替人類做那些人類做不了的事情,為人類自我提升、自我完善服務;不應該讓人工智能的可疑風險、負面效應危害人類,智能機器人在任何情況下都不得故意傷害人類,也不得在能夠救人于危難時袖手旁觀。(2)公正原則。人是生而平等的,應該擁有平等的、按意愿使用人工智能產(chǎn)品、并與人工智能相融合的機會,從而努力消除數(shù)字鴻溝和“信息貧富差距”,消除經(jīng)濟不平等和社會貧富分化。尤其是要“以人為中心”完善制度設計,防止“資本的邏輯”或“技術的邏輯”對人造成傷害,并通過建立健全教育培訓、社會福利和保障體系,對“數(shù)字窮困地區(qū)”和“數(shù)字窮人”進行扶持、救助,保護他們的合法權益。(3)公開透明原則。鑒于當前的人工智能仍屬于一種黑箱工作模式,而發(fā)展速度卻一日千里,以及可能擁有的超級優(yōu)勢和可能產(chǎn)生的災難性風險,因而在研發(fā)、設計、應用過程中,應該堅持公開、透明原則,置于相關監(jiān)管機構、倫理委員會和社會公眾的監(jiān)控之下,以確保智能機器人擁有的特定超級智能處于可解釋、可理解、可預測狀態(tài),確保超級智能不被嵌入危害人類的動機,確保超級智能不為別有用心的人所掌控,確保超級智能不能私自聯(lián)網(wǎng)、升級,結成逃避管控的自主性組織。(4)知情同意原則。人工智能的研發(fā)和應用可能實質性地改變?nèi)撕腿说纳硇耐暾裕淖內(nèi)说纳顚嵺`狀態(tài)和具體的人際關系。對于采集、儲存、使用哪些個人、企業(yè)用戶等的數(shù)據(jù),對于可能涉及人的身心完整性、人格和尊嚴,以及人的合法權益的研發(fā)和應用,當事人應該具有知情權。只有在當事人理解并同意的情況下,方可付諸實施。在實施過程中,一旦出現(xiàn)危及當事人生命、身心完整性及其他合法權益的未預料后果,應該重新獲取授權。(5)責任原則。對于防范人工智能已知的或潛在的風險,確定責任性質和責任歸屬具有重要意義。在人工智能的研究、開發(fā)、應用和管理過程中,必須確定不同道德主體的權利、責任和義務,預測并預防產(chǎn)生不良后果,在造成過失之后,必須對相關責任人嚴肅問責。
總之,邁入智能時代,我們必須對人工智能進行理智的價值評估,對人工智能的設計、研發(fā)和應用進行有效的倫理規(guī)制。這既是我們的倫理責任,也是我們的道德義務。愛因斯坦曾經(jīng)告誡:“如果你們想使你們一生的工作有益于人類,那末,你們只懂得應用科學本身是不夠的。關心人的本身,應當始終成為一切技術上奮斗的主要目標;關心怎樣組織人的勞動和產(chǎn)品分配這樣一些尚未解決的重大問題,用以保證我們科學思想的成果會造福于人類,而不致成為禍害?!盵2](P73)值得慶幸的是,世界各國在爭先恐后運用人工智能造福人類的同時,正在采取未雨綢繆的應對措施。例如,歐洲發(fā)布了《機器人倫理學路線圖》,韓國政府制定了《機器人倫理章程》;而美國2016年發(fā)布的《國家人工智能研究與發(fā)展策略規(guī)劃》中,“理解并應對人工智能帶來的倫理、法律、社會影響”位列7個重點戰(zhàn)略方向之一;在中國《新一代人工智能發(fā)展規(guī)劃》中,也將“人工智能發(fā)展的不確定性帶來新挑戰(zhàn)”視為必須面對的問題。當然,由于人工智能是異常復雜、深具革命性的高新科學技術,對于人工智能可能導致的倫理后果不宜過早地下結論;人類的既有的倫理原則和道德規(guī)范對于人工智能是否適用,需要我們開放性地加以討論;應該如何對人工智能進行技術監(jiān)管和道德規(guī)范,還需要摸索行之有效的路徑和方式。因此,關于人工智能的倫理規(guī)制必然是一個漫長的歷史過程,需要我們解放思想,付出艱苦的富有智慧的創(chuàng)造性努力。