国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

信息技術(shù)問(wèn)題的道德治理

2022-11-24 09:07曾建平黃以勝
關(guān)鍵詞:倫理主體道德

曾建平 黃以勝

新一代信息技術(shù)的加速發(fā)展,正在深刻影響和改變著人類(lèi)社會(huì)生活。習(xí)近平總書(shū)記指出:“當(dāng)前,以互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能為代表的新一代信息技術(shù)日新月異,給各國(guó)經(jīng)濟(jì)社會(huì)發(fā)展、國(guó)家管理、社會(huì)治理、人民生活帶來(lái)重大而深遠(yuǎn)的影響?!?1)中共中央黨史和文獻(xiàn)研究院編:《習(xí)近平關(guān)于網(wǎng)絡(luò)強(qiáng)國(guó)論述摘編》,北京:中央文獻(xiàn)出版社,2021 年,第164 頁(yè)。信息技術(shù)在促進(jìn)經(jīng)濟(jì)發(fā)展、推動(dòng)社會(huì)建設(shè)、提升國(guó)家核心競(jìng)爭(zhēng)力等方面起著獨(dú)特的、不可替代的引領(lǐng)作用。與此同時(shí),信息技術(shù)發(fā)展的不確定性所帶來(lái)的倫理問(wèn)題也引起了世界各國(guó)的普遍關(guān)注。早在20 世紀(jì)40 年代,伯特蘭·羅素(Bertrand Russell)就曾經(jīng)預(yù)言:“在人類(lèi)的歷史上,我們第一次達(dá)到了這樣一個(gè)時(shí)刻:人類(lèi)種族的綿亙已經(jīng)開(kāi)始取決于人類(lèi)能夠?qū)W到的為倫理思考所支配的程度。如果我們繼續(xù)允許發(fā)揮破壞性的激情,我們?nèi)找姘l(fā)展起來(lái)的技能就勢(shì)必會(huì)給所有人帶來(lái)災(zāi)難”(2)[ 英 ]伯特蘭·羅素:《倫理學(xué)和政治學(xué)中的人類(lèi)社會(huì)》,肖巍譯,北京:中國(guó)社會(huì)科學(xué)出版社,1992 年,第159 頁(yè)。。如今,信息技術(shù)帶來(lái)的新的倫理問(wèn)題,如算法歧視妨礙社會(huì)公正、網(wǎng)絡(luò)霸權(quán)挑戰(zhàn)網(wǎng)絡(luò)主權(quán)、技術(shù)異化威脅人類(lèi)文明等,足以成為影響人類(lèi)可持續(xù)生存與發(fā)展的夢(mèng)魘,又一次考驗(yàn)著人類(lèi)為倫理思考的能力及其程度。

一 信息技術(shù)帶來(lái)的倫理變革

意大利旅英信息哲學(xué)家盧恰諾·弗洛里迪(Luciano Floridi)在《第四次革命:人工智能如何重塑人類(lèi)現(xiàn)實(shí)》 中闡述了人類(lèi)歷史中的四次科技革命。從科技—倫理角度來(lái)看,每次科技革命都是一次社會(huì)變遷、倫理變革、道德革新。首次的哥白尼日心說(shuō),盡管可能并未直接顛覆中世紀(jì)以來(lái)占統(tǒng)治地位的人類(lèi)中心主義,但無(wú)疑間接引發(fā)人們對(duì)人類(lèi)中心主義的質(zhì)疑;第二次的達(dá)爾文進(jìn)化論,不僅讓人類(lèi)認(rèn)識(shí)到自身與其他動(dòng)物沒(méi)有本質(zhì)區(qū)別,而且使人開(kāi)始萌生自然中心主義思想;第三次的弗洛伊德精神分析學(xué),不僅撼動(dòng)了人類(lèi)理性的地位以及控制自我意識(shí)的能力,而且從道德心理層面審視了人的自身行為發(fā)生的深層次原因;而第四次革命就是當(dāng)前正在發(fā)生的圖靈革命,不僅有力挑戰(zhàn)了人類(lèi)智能這個(gè)人類(lèi)引以為豪的特質(zhì)的唯一性,而且將動(dòng)搖人類(lèi)的道德主體地位。與前三次科技革命不同,圖靈革命由于分享著人性,它將解構(gòu)傳統(tǒng)倫理精神和道德觀念生成、依存的物質(zhì)根基,使人類(lèi)面臨倫理關(guān)系的革命性變革,其所引發(fā)的倫理問(wèn)題是根本性的,由此帶來(lái)的倫理風(fēng)險(xiǎn)具有顛覆性。

(一)傳統(tǒng)人倫關(guān)系的重構(gòu)

傳統(tǒng)的倫理問(wèn)題主要涉及人與人的關(guān)系問(wèn)題,而信息時(shí)代的倫理問(wèn)題不再純粹是人與人的關(guān)系問(wèn)題,它還包括人與機(jī)器人、人工智能之間的關(guān)系問(wèn)題。信息時(shí)代的到來(lái),正在改變或即將顛覆傳統(tǒng)的人倫關(guān)系,創(chuàng)構(gòu)人們的道德認(rèn)知和道德實(shí)踐。信息時(shí)代的道德問(wèn)題,無(wú)非是兩個(gè)方面:一方面是信息技術(shù)所涉及的人與人之間的道德問(wèn)題,如互聯(lián)網(wǎng)作為工具性意義存在的媒介,這一端雖然仍然屬于傳統(tǒng)倫理問(wèn)題,但已有信息化的新特點(diǎn);另一方面是信息技術(shù)所涉及的“機(jī)類(lèi)”帶來(lái)的人類(lèi)道德問(wèn)題,如人工智能作為價(jià)值性意義存在的行動(dòng)者,這一端則是全新性的問(wèn)題,他們重構(gòu)人倫關(guān)系基點(diǎn),對(duì)人類(lèi)提出了新的挑戰(zhàn):智能機(jī)器人能否成為道德主體或行動(dòng)者(moral agent;moral actor)和道德責(zé)任者?

從倫理關(guān)系看,信息技術(shù)的獨(dú)特之處在于,它屬于人創(chuàng)制的,但卻有著自身的運(yùn)轉(zhuǎn)規(guī)律,而且這種規(guī)律不同于過(guò)去的自然規(guī)律,也不同于人的規(guī)律,可以說(shuō)是第三種規(guī)律。作為主體的人與作為類(lèi)主體的人工智能機(jī)器,最本質(zhì)的區(qū)別是什么?人具有自主意識(shí)、自由思想、自在精神、自覺(jué)境界、自然情感,是感性與理性交融的主體,是學(xué)識(shí)與經(jīng)驗(yàn)交互的結(jié)果,是理論與實(shí)踐交合的產(chǎn)物。而人工智能創(chuàng)造物,盡管具有了某些屬人的特性,比如深度學(xué)習(xí)能力、模仿人類(lèi)感情、超強(qiáng)操作本領(lǐng),但不管他們的智能如何高級(jí),某些方面如何“類(lèi)人”,他們與人類(lèi)之間可能存在著、必然存在著,也必須存在著不可逾越的楚河漢界。但這種區(qū)別卻不是人類(lèi)可以人為控制的,這就是問(wèn)題的根源。

(二)傳統(tǒng)主客體關(guān)系的演變

自近代笛卡爾(Rene Descartes)最早提出主客二元論的哲學(xué)思想以來(lái),自然界等外物都是圍繞人這個(gè)主體而存在的,從而構(gòu)成了傳統(tǒng)意義上人與物之間的主客體關(guān)系。在抗擊新冠肺炎疫情中,智能機(jī)器作為強(qiáng)有力的“助手”與“伙伴”幫助人類(lèi)有效提升了防控成效。人工智能創(chuàng)造物也展示了具有類(lèi)似甚至超越人類(lèi)思維的能力。那么智能機(jī)器是否真的能與人同群?“這個(gè)問(wèn)題是前所未有的,與原有人機(jī)關(guān)系存在著根本不同:自然人和智能機(jī)的關(guān)系還是人機(jī)關(guān)系,還是主體和客體(對(duì)象)、中介(工具)之間的關(guān)系,自然人和機(jī)器人的關(guān)系則是主體和主體的關(guān)系,這種新型主體關(guān)系既不同于任何主客體關(guān)系,也不同于現(xiàn)有人與人之間的主體間關(guān)系,可以稱(chēng)為跨人際主體間關(guān)系?!?3)程廣云:《從人機(jī)關(guān)系到跨人際主體間關(guān)系—人工智能的定義和策略》,《自然辯證法通訊》 2019 年第1 期,第12 頁(yè)。人與人工智能創(chuàng)造物的關(guān)系從傳統(tǒng)的主客體關(guān)系,轉(zhuǎn)變成了主體與類(lèi)主體的關(guān)系,或者說(shuō)是跨人際主體間關(guān)系。人類(lèi)與信息技術(shù)的關(guān)系,主要經(jīng)歷了三個(gè)階段:第一階段是計(jì)算機(jī)時(shí)代,計(jì)算機(jī)仍然是人類(lèi)處理問(wèn)題的工具,在這種人與機(jī)器的關(guān)系中,人是主體,機(jī)器是客體的關(guān)系并沒(méi)有任何改變,人與人的關(guān)系秩序也沒(méi)有任何裂變;第二階段是互聯(lián)網(wǎng)時(shí)代,互聯(lián)網(wǎng)聯(lián)通的不僅僅是信息、數(shù)據(jù),而是直接改變了人與人的關(guān)系,人們的身份在虛擬世界開(kāi)始漂流,互相之間的性別、年齡、身份、職業(yè)、階層的秩序瞬間完全“虛擬”,傳統(tǒng)的人倫關(guān)系開(kāi)始出現(xiàn)模糊、變化,人在虛擬世界中完全可以從“自我”捏造為“他我”;第三階段是人工智能時(shí)代,由于智能機(jī)器具有深度學(xué)習(xí)能力,會(huì)獨(dú)立應(yīng)對(duì)問(wèn)題,過(guò)去屬于人的創(chuàng)新創(chuàng)造被顛覆。某種意義上,人工智能機(jī)器人具有了人的一些特質(zhì),盡管人類(lèi)一再擔(dān)憂、甚至恐懼以拒絕他們成為人類(lèi)中平等的一員,但他們毫無(wú)疑問(wèn)將成為“類(lèi)主體”。

隨著人工智能的發(fā)展,人與機(jī)器的關(guān)系既不是那種主體—客體之間的關(guān)系,也不是主體間的關(guān)系,變成了一種主體與類(lèi)主體之間的關(guān)系。面對(duì)這種新型的關(guān)系,倫理學(xué)應(yīng)該如何確立我與他之間的“倫”與“理”?如何以道德的方式與其相處?人類(lèi)若要不失去自身的倫理地位和道德主人的身份,唯有倍加呵護(hù)自身獨(dú)有的主體尊嚴(yán)和本質(zhì),倍加守護(hù)屬于人性獨(dú)有的情感和能力。

當(dāng)自然界衍生出來(lái)人類(lèi),而人類(lèi)又成為自然的主人之后,人類(lèi)已經(jīng)從自然之子變成了地球之王。面對(duì)自然這個(gè)誕生人類(lèi)的母體,人類(lèi)曾經(jīng)也有反抗心態(tài),但又不得不保持敬畏之心。而在面對(duì)人類(lèi)創(chuàng)造物時(shí),人類(lèi)從來(lái)就具有一種君臨天下的威嚴(yán)和自我崇拜的心態(tài),因?yàn)樗鼈兪冀K被置于人類(lèi)的掌控之中。人類(lèi)與自然的原始關(guān)系不時(shí)地提醒著人類(lèi)的本然之心。因而,當(dāng)人工智能機(jī)器人具有與人類(lèi)類(lèi)似的主體性反應(yīng)—會(huì)思維、有情感、能創(chuàng)造時(shí),人類(lèi)就不可能再像過(guò)去對(duì)待那些人造物那樣處之泰然、淡定自若了,我們擔(dān)心“他們”與我們一樣平起平坐,甚至恐懼“他們”哪一天從屬人物變成了統(tǒng)治者。從倫理學(xué)角度看,正是人類(lèi)與造物主之間關(guān)系的根本轉(zhuǎn)變,開(kāi)始了人類(lèi)作為主體倫理敘事的歷史,這是傳統(tǒng)倫理延續(xù)至今的內(nèi)在力量。當(dāng)大數(shù)據(jù)和人工智能的發(fā)展完全改變甚至顛倒了人類(lèi)活動(dòng)的地位時(shí),傳統(tǒng)倫理必然發(fā)生解構(gòu),那種人類(lèi)作為主體地位的倫理時(shí)代必將結(jié)束,必將迎來(lái)一個(gè)從傳統(tǒng)文明時(shí)代轉(zhuǎn)向信息文明時(shí)代的開(kāi)始。

(三)技術(shù)化生存的悖論

較之于自然化生存和機(jī)械化生存,技術(shù)化生存給人類(lèi)生產(chǎn)、生活帶來(lái)了革命性變化,其影響的力度、廣度、深度可以說(shuō)是史無(wú)前例的。新一代信息技術(shù)促使人類(lèi)能夠進(jìn)一步把“潛藏”的巨大物質(zhì)、信息、技術(shù)等各方面的資源廣泛利用起來(lái),前所未有地改變了人們的學(xué)習(xí)、工作、生活及交往方式。從“后疫情時(shí)代”“云課堂”“云辦公”“云健身”“云點(diǎn)餐”等“云”模式的興起,到登機(jī)、支付、取件、考勤等“一刷到底”“刷臉時(shí)代”的到來(lái),信息技術(shù)打破時(shí)空藩籬、線上線下隔閡,讓人民群眾在政務(wù)、教育、醫(yī)療等領(lǐng)域享受到了智能化升級(jí)紅利。

然而,依賴(lài)新一代信息技術(shù)的技術(shù)化生存在給人類(lèi)帶來(lái)空前資源及技術(shù)紅利、創(chuàng)造繁榮文明圖景的同時(shí),也可能加深技術(shù)化生存困境。雖然誰(shuí)也無(wú)法否認(rèn)技術(shù)化生存是人類(lèi)片刻不離的根本性存在方式,但這并不意味著技術(shù)化生存與人類(lèi)福祉必然存在正向關(guān)系。如在“刷臉時(shí)代”,“刷臉”泛濫大大增加了人臉信息泄露、被濫用或盜用等安全風(fēng)險(xiǎn),你的臉可能不再屬于你。(4)2020 年,“人臉識(shí)別第一案”一審落槌、“戴著頭盔看房”短視頻引發(fā)網(wǎng)民熱議,這些都反映出社會(huì)對(duì)人臉識(shí)別技術(shù)可能的濫用及其風(fēng)險(xiǎn)的擔(dān)憂。我們需要確保技術(shù)化生存真正朝著實(shí)現(xiàn)人類(lèi)解放與自由的進(jìn)程發(fā)展,以避免造成人的物化及非人化。正如馬克思所擔(dān)心的:“甚至科學(xué)的純潔光輝仿佛也只能在愚昧無(wú)知的黑暗背景上閃耀。我們的一切發(fā)明和進(jìn)步,似乎結(jié)果是使物質(zhì)力量成為有智慧的生命,而人的生命則化為愚鈍的物質(zhì)力量?!?5)《馬克思恩格斯文集》第1 卷,北京:人民出版社,2009 年,第580 頁(yè)。如何在推動(dòng)信息技術(shù)發(fā)展中破解技術(shù)化生存的悖論,以技術(shù)人性化實(shí)現(xiàn)人的解放與自由,成為信息時(shí)代必須應(yīng)對(duì)的倫理

問(wèn)題。

二 信息時(shí)代的倫理挑戰(zhàn)

借助大數(shù)據(jù)、人工智能、云計(jì)算等數(shù)字技術(shù),遷徙大數(shù)據(jù)平臺(tái)、5G 熱成像人體測(cè)溫系統(tǒng)、“健康碼”等大顯身手,抗疫機(jī)器人更是在消毒、檢測(cè)、遠(yuǎn)程輔診等方面表現(xiàn)搶眼。信息技術(shù)不僅提供新的工作方式,更為重要的是,它正在重塑生產(chǎn)力、生產(chǎn)關(guān)系、生產(chǎn)方式,重構(gòu)社會(huì)關(guān)系、生活方式、國(guó)家治理體系,進(jìn)一步挑戰(zhàn)及影響我們現(xiàn)存的法律、傳統(tǒng)的道德甚至社會(huì)的各個(gè)方面,帶來(lái)具有挑戰(zhàn)性的道德治理難題。雖然信息技術(shù)的傳播是無(wú)國(guó)界的,但是信息技術(shù)的運(yùn)用毫無(wú)疑問(wèn)是有界限的,而倫理道德也是有底線的。信息時(shí)代的道德問(wèn)題,既有傳統(tǒng)意義上的,也有現(xiàn)代意義上的;既有工具理性意義上的,也有價(jià)值意義上的。

(一)算法歧視妨礙社會(huì)公正

習(xí)近平總書(shū)記強(qiáng)調(diào):“我們要隨時(shí)隨刻傾聽(tīng)人民呼聲、回應(yīng)人民期待,保證人民平等參與、平等發(fā)展權(quán)利,維護(hù)社會(huì)公平正義,……使發(fā)展成果更多更公平惠及全體人民。”(6)中共中央文獻(xiàn)研究室編:《十八大以來(lái)重要文獻(xiàn)選編》(上),北京:中央文獻(xiàn)出版社,2014 年,第236 頁(yè)。可以說(shuō),公平正義不僅僅是普通百姓普遍關(guān)注的民生訴求,而且是人類(lèi)孜孜以求的社會(huì)理想,更是道德治理的核心要義。

大數(shù)據(jù)、深度學(xué)習(xí)及其智能算法等技術(shù)的突破性進(jìn)展,為人人平等獲取、共享信息及數(shù)據(jù)資源提供了便利化的技術(shù)支撐。智能算法的推廣應(yīng)用,既要通過(guò)建立算法的權(quán)威性,進(jìn)而取得公眾的普遍信任,又要通過(guò)“算法正義”提升“用戶體驗(yàn)”。作為一種數(shù)學(xué)表達(dá)的算法似乎摒棄了人的情緒、意圖、偏見(jiàn),消除了各種外部因素的影響,從而得出了完全“客觀”的數(shù)據(jù)。然而,看似理性的算法,在算法程序設(shè)計(jì)、數(shù)據(jù)挖掘等過(guò)程中難免“嵌入”人的偏見(jiàn),算法設(shè)計(jì)者也不可能完全把既有法律規(guī)定、道德規(guī)范、技術(shù)要求等完整地寫(xiě)入算法程序。因此,無(wú)論是哪種算法,都終究逃脫不了人的干預(yù),很有可能只是披著“客觀中立”的美麗技術(shù)外衣而已。除了數(shù)據(jù)采集和算法設(shè)計(jì)中的人為主觀因素之外,原始數(shù)據(jù)的質(zhì)量、偏見(jiàn)性等往往會(huì)影響中立性,正所謂“偏見(jiàn)進(jìn),則偏見(jiàn)出”,進(jìn)而妨礙社會(huì)公正。無(wú)論是芝加哥法院使用的犯罪風(fēng)險(xiǎn)評(píng)估算法COMPAS,還是谷歌的廣告系統(tǒng)及自動(dòng)圖像標(biāo)記軟件,抑或是微軟推出少女聊天機(jī)器人Tay,還有“大數(shù)據(jù)殺熟”,這些智能算法背后往往潛藏了偏見(jiàn)、甚至是被放大了的偏見(jiàn)。算法技術(shù)的專(zhuān)業(yè)性、復(fù)雜性及不透明性,強(qiáng)化了信息不對(duì)稱(chēng)的“馬太效應(yīng)”。算法和數(shù)據(jù)的偏見(jiàn)猶如暗網(wǎng),一般人難以知曉或觸及。因而,把錯(cuò)誤的、易出錯(cuò)的、不完整的原始數(shù)據(jù)輸入到帶有偏見(jiàn)的智能算法中,必然導(dǎo)致算法歧視現(xiàn)象,甚至造成算法歧視的惡性循環(huán)或代際傳遞?!八惴ㄖ辛ⅰ钡谋硐笾皇茄谏w了現(xiàn)有偏見(jiàn)和差異的“不中立”真相??梢哉f(shuō),信息時(shí)代不同出身、性別、種族、國(guó)家、地區(qū)、受教育背景、消費(fèi)層次等的人(群體)獲取數(shù)據(jù)信息或技術(shù)紅利的差異,可能比現(xiàn)實(shí)世界的差異還要大。而信息時(shí)代的缺席者一般難以有效表達(dá)其價(jià)值訴求,從而難以進(jìn)入道德治理的決策視野。如何更好地縮小數(shù)字鴻溝以保障社會(huì)公平、推進(jìn)人類(lèi)整體福祉,這是一個(gè)具有世界性、人類(lèi)性的價(jià)值倫理難題,也是推進(jìn)道德治理需要面對(duì)的現(xiàn)實(shí)性難題。

(二)網(wǎng)絡(luò)霸權(quán)挑戰(zhàn)網(wǎng)絡(luò)主權(quán)

關(guān)于網(wǎng)絡(luò)主權(quán),存在著網(wǎng)絡(luò)無(wú)國(guó)界和網(wǎng)絡(luò)雖無(wú)國(guó)界但有主權(quán)兩種爭(zhēng)論。網(wǎng)絡(luò)主權(quán)是國(guó)家主權(quán)在網(wǎng)絡(luò)空間的自然延伸。國(guó)家主權(quán)已經(jīng)從傳統(tǒng)意義上的經(jīng)濟(jì)、政治的領(lǐng)域擴(kuò)展至信息網(wǎng)絡(luò)領(lǐng)域,同時(shí)也意味著國(guó)家的“絕對(duì)主權(quán)”時(shí)代的終結(jié)。網(wǎng)絡(luò)主權(quán)在國(guó)家主權(quán)中的地位和作用越來(lái)越凸顯。尊重網(wǎng)絡(luò)主權(quán)是主權(quán)平等原則的題中應(yīng)有之義。

信息技術(shù)的交互性、便捷性、集成性,大大打破了國(guó)與國(guó)、虛與實(shí)的邊界,甚至模糊了是與非、真與假、好與壞、善與惡、美與丑、強(qiáng)與弱等的界限?!靶畔⒓夹g(shù)在加速大數(shù)據(jù)傳播、搜集、共享的同時(shí),也為一些國(guó)家或組織利用網(wǎng)絡(luò)霸權(quán)干涉別國(guó)內(nèi)政或?qū)嵤┚W(wǎng)絡(luò)攻擊提供了漏洞和暗網(wǎng),嚴(yán)重威脅國(guó)家主權(quán)和安全?!?7)曾建平:《信息時(shí)代的倫理審視》,《人民日?qǐng)?bào)》 2019 年7 月12 日,第9 版。從全球范圍看,無(wú)論是東歐中亞國(guó)家的“顏色革命”,還是中東北非地區(qū)的“阿拉伯之春”,還是烏克蘭、委內(nèi)瑞拉的政治危機(jī),其背后都有一種強(qiáng)大的網(wǎng)絡(luò)“公共外交”在發(fā)揮“潛在”作用。劍橋分析公司數(shù)據(jù)丑聞、“棱鏡門(mén)”事件、谷歌事件等,充分暴露了西方國(guó)家侵犯他國(guó)網(wǎng)絡(luò)主權(quán)、實(shí)施網(wǎng)絡(luò)攻擊的野蠻行徑,暴露了西方“網(wǎng)絡(luò)自由”的網(wǎng)絡(luò)霸權(quán)主義本質(zhì)。長(zhǎng)期以來(lái),美國(guó)憑借技術(shù)優(yōu)勢(shì)占據(jù)了互聯(lián)網(wǎng)領(lǐng)域的領(lǐng)導(dǎo)權(quán)、控制權(quán)、話語(yǔ)權(quán)?;ヂ?lián)網(wǎng)已經(jīng)成為美國(guó)實(shí)施對(duì)外干涉、顛覆滲透和謀求世界霸權(quán)的“先聲奪人”“利器”。據(jù)《2020 年我國(guó)互聯(lián)網(wǎng)網(wǎng)絡(luò)安全態(tài)勢(shì)綜述》 報(bào)告顯示,美國(guó)在惡意程序傳播源境外分布情況、控制我國(guó)境內(nèi)主機(jī)的境外計(jì)算機(jī)惡意程序控制服務(wù)器數(shù)量分布、控制我國(guó)境內(nèi)主機(jī)數(shù)量 TOP10 的國(guó)家或地區(qū)等多項(xiàng)指標(biāo)中均排在首位。號(hào)稱(chēng)監(jiān)控帝國(guó)的美國(guó),卻大力鼓吹“網(wǎng)絡(luò)自由”,為其網(wǎng)絡(luò)霸權(quán)“開(kāi)道”,竭力打造以美國(guó)主導(dǎo)的數(shù)據(jù)主權(quán)規(guī)則體系。時(shí)至今日,美國(guó)仍深陷網(wǎng)絡(luò)霸權(quán)的“毒癮”,發(fā)起針對(duì)中國(guó)的“清潔網(wǎng)絡(luò)”計(jì)劃,粗暴打壓、野蠻封殺中國(guó)科技公司。美國(guó)的網(wǎng)絡(luò)霸權(quán)行徑,嚴(yán)重挑戰(zhàn)了世界各國(guó)的網(wǎng)絡(luò)主權(quán),讓更多的人越來(lái)越認(rèn)清其真實(shí)面目和虛偽本質(zhì)。2020 年9 月,中國(guó)在發(fā)起的《全球數(shù)據(jù)安全倡議》 中提出,反對(duì)濫用信息技術(shù)大規(guī)模監(jiān)控他國(guó)。因此,防范網(wǎng)絡(luò)霸權(quán)是信息時(shí)代維護(hù)網(wǎng)絡(luò)主權(quán)的迫切要求和重要內(nèi)容。

(三)技術(shù)異化威脅人類(lèi)文明

信息技術(shù)同樣無(wú)法回避技術(shù)的“雙刃劍”屬性所帶來(lái)的負(fù)效應(yīng)。太陽(yáng)微計(jì)算公司首席科學(xué)家比爾·喬伊(Bill Joy)認(rèn)為,機(jī)器人、基因工程和納米技術(shù)等技術(shù)在21 世紀(jì)可能讓人類(lèi)面臨種族滅絕的威脅。埃隆·馬斯克(Elon Musk)則把人工智能看成我們?nèi)祟?lèi)文明面臨的最大風(fēng)險(xiǎn)。事實(shí)上,以上兩位學(xué)者的憂慮絕不是杞人憂天。早在2013 年,聯(lián)合國(guó)人權(quán)理事會(huì)就緊急叫停美、韓、俄、英、德、日等國(guó)研發(fā)“自動(dòng)殺人機(jī)器人”的軍備競(jìng)賽。2017 年,馬斯克等116 名全球人工智能和機(jī)器人公司創(chuàng)始人發(fā)布聯(lián)名公開(kāi)信,呼吁聯(lián)合國(guó)采取行動(dòng)禁止“殺手機(jī)器人”擴(kuò)散。2018 年,超過(guò) 50 位人工智能領(lǐng)域的專(zhuān)家聯(lián)名抵制韓國(guó)科學(xué)技術(shù)高級(jí)研究院( KAIST) 開(kāi)發(fā)“殺人機(jī)器人”。然而,2019 年波士頓動(dòng)力曬出堪比“美國(guó)大兵”的殺手機(jī)器人,俄羅斯則將外形如魔鬼終結(jié)者殺手機(jī)器人送上了太空。技術(shù)異化所帶來(lái)的安全隱患、道德?tīng)?zhēng)議等問(wèn)題,引起了全球各國(guó)的廣泛關(guān)注。人們不僅要問(wèn):技術(shù)的邊界和底線在哪里?如何構(gòu)建技術(shù)發(fā)展的正義邏輯?

面對(duì)開(kāi)發(fā)“殺人機(jī)器人”等技術(shù)異化所帶來(lái)的威脅,人類(lèi)如何能確保技術(shù)的安全性、可控性與人性化?進(jìn)而言之,這個(gè)問(wèn)題意味著:從短期看,人類(lèi)在多大程度上掌控了人工智能所具有的巨大理性行動(dòng)能力;從長(zhǎng)期看,人工智能系統(tǒng)是否會(huì)發(fā)展成為一種不受人類(lèi)控制的自主性力量,進(jìn)而威脅到人類(lèi)的生存境遇。1988 年發(fā)生的海灣空難、2008 年發(fā)生“劍”式地面作戰(zhàn)機(jī)器人將槍口對(duì)著人類(lèi)指揮官等事件都表明,人工智能的失控與反叛將對(duì)人類(lèi)文明構(gòu)成重大威脅。由此可見(jiàn),無(wú)論信息技術(shù)強(qiáng)大到何種程度,人類(lèi)恐怕都不能完全將該由人類(lèi)承擔(dān)的最終決策任務(wù)托付給它。這也許也是有效防范潛在風(fēng)險(xiǎn)的唯一辦法。為了避免技術(shù)異化或失控的危險(xiǎn)及其對(duì)人類(lèi)文明的威脅,倫理道德如何才能更好地發(fā)揮底線倫理的內(nèi)在約束作用?人類(lèi)如何在前進(jìn)的道路上保持對(duì)技術(shù)的控制,以免對(duì)人類(lèi)文明造成重大的威脅,這是新一代信息技術(shù)發(fā)展必須正視的重大倫理問(wèn)題。

三 信息技術(shù)問(wèn)題道德治理的實(shí)現(xiàn)路徑

信息技術(shù)的迅猛發(fā)展可能會(huì)超出人們的想象,更超出人們運(yùn)用法律、道德、社會(huì)政策為他們?cè)O(shè)計(jì)規(guī)范、科學(xué)、有效發(fā)展的準(zhǔn)備。國(guó)家治理離不開(kāi)道德力量,而道德治理又是國(guó)家治理的重要維度。黨中央提出“推進(jìn)國(guó)家治理體系和治理能力現(xiàn)代化”為道德治理提供了實(shí)踐境遇。信息技術(shù)問(wèn)題的道德治理,要以“關(guān)心人的本身”實(shí)現(xiàn)人的主體性回歸,以?xún)r(jià)值敏感性設(shè)計(jì)保障科技向善,以前瞻性道德責(zé)任構(gòu)建信息時(shí)代的責(zé)任倫理,進(jìn)而為新一代信息技術(shù)的整體性、長(zhǎng)遠(yuǎn)性和應(yīng)用性發(fā)展創(chuàng)設(shè)公認(rèn)的、共同的、全面的道德構(gòu)架。

(一)“關(guān)心人的本身”:從人的主體性消解到主體性回歸

信息技術(shù)是“人為”的產(chǎn)物,無(wú)論是其前期的技術(shù)研發(fā)設(shè)計(jì),還是中期的技術(shù)運(yùn)用,抑或是后期的技術(shù)評(píng)價(jià),都離不開(kāi)人的主體性的發(fā)揮。沒(méi)有人的主動(dòng)性創(chuàng)新與創(chuàng)造,就難以有技術(shù)的迭代與突破。然而,這種“人為”產(chǎn)物卻未必時(shí)時(shí)都是“為人”的。1931 年,愛(ài)因斯坦在對(duì)加利福尼亞理工學(xué)院學(xué)生發(fā)表的題為《要使科學(xué)造福于人類(lèi),而不成為禍害》 的講話中,提出“關(guān)心人的本身,應(yīng)當(dāng)始終成為一切技術(shù)上奮斗的主要目標(biāo)”(8)《愛(ài)因斯坦文集》第3 卷,許良英等編譯,北京:商務(wù)印書(shū)館,1979 年,第73 頁(yè)。。而當(dāng)前信息技術(shù)所帶來(lái)的種種倫理風(fēng)險(xiǎn),卻是對(duì)人的主體性的消解和“人的本身”的背離?!瓣P(guān)心人的本身”,既是推動(dòng)信息技術(shù)持續(xù)健康發(fā)展的必然要求,同時(shí)更是實(shí)現(xiàn)從人的主體性消解到主體性回歸的根本方向。

人的異化自然意味著人的主體性的消解。馬克思曾對(duì)資本主義社會(huì)勞動(dòng)條件特別是機(jī)器采用后對(duì)人的異化進(jìn)行了深刻分析與批判,指出“機(jī)器勞動(dòng)極度地?fù)p害了神經(jīng)系統(tǒng),同時(shí)它又壓抑肌肉的多方面運(yùn)動(dòng),奪去身體上和精神上的一切自由活動(dòng)。甚至減輕勞動(dòng)也成了折磨人的手段,因?yàn)闄C(jī)器不是使工人擺脫勞動(dòng),而是使工人的勞動(dòng)毫無(wú)內(nèi)容。一切資本主義生產(chǎn)既然不僅是勞動(dòng)過(guò)程,而且同時(shí)是資本的增殖過(guò)程,就有一個(gè)共同點(diǎn),即不是工人使用勞動(dòng)條件,相反地,而是勞動(dòng)條件使用工人”(9)《馬克思恩格斯文集》第5 卷,北京:人民出版社,2009 年,第486—487 頁(yè)。。在馬克思看來(lái),資本主義生產(chǎn)中,勞動(dòng)條件的異化造成工人不再是生產(chǎn)活動(dòng)的主體,而是淪為機(jī)器的“奴隸”和流水線上的“需要救濟(jì)的貧民”。信息技術(shù)的發(fā)展在給人類(lèi)帶來(lái)技術(shù)紅利、生活便利的同時(shí),也正在全方位地改變“人”。在人工智能領(lǐng)域,從護(hù)理機(jī)器人帶來(lái)的孝養(yǎng)分離難題,到社交機(jī)器人擬人化的“欺騙”悖論,再到養(yǎng)老機(jī)器人可能對(duì)老人尊嚴(yán)的侵害,均引發(fā)對(duì)“機(jī)器代人”倫理風(fēng)險(xiǎn)的擔(dān)憂。在大數(shù)據(jù)領(lǐng)域,數(shù)據(jù)主義以數(shù)據(jù)的深度挖掘、數(shù)據(jù)的傾向性預(yù)測(cè)、數(shù)據(jù)的全面監(jiān)控帶來(lái)隱私泄露、信息污染、“數(shù)字鴻溝”等問(wèn)題,嚴(yán)重阻礙人的本質(zhì)的確證。在互聯(lián)網(wǎng)領(lǐng)域,信息的多元化和碎片化消解了主流的意識(shí)形態(tài)及價(jià)值觀,所謂的“網(wǎng)絡(luò)大V”、網(wǎng)絡(luò)意見(jiàn)領(lǐng)袖等時(shí)常左右著網(wǎng)絡(luò)主體的自由意志,網(wǎng)絡(luò)道德虛無(wú)主義、泛道德化、泛娛樂(lè)化等更是使人類(lèi)失去自我反思與超越的理性自覺(jué)。由此可見(jiàn),人對(duì)技術(shù)的過(guò)度依賴(lài)甚至濫用,必將導(dǎo)致人的自我異化,進(jìn)而造成人的主體性的消解。

正如馬克思所揭示的,在其現(xiàn)實(shí)性上,人的本質(zhì)是一切社會(huì)關(guān)系的總和,人的存在是一種社會(huì)性的存在。無(wú)疑,在人與技術(shù)的關(guān)系中,人是當(dāng)然的主體,技術(shù)則是客體;人是目的,而技術(shù)則是實(shí)現(xiàn)目的工具而已。美國(guó)著名科幻作家艾·阿西莫夫(Isaac Asimov)曾提出“機(jī)器人學(xué)三定律”及“第零法則”,把不傷害人類(lèi)視為底線倫理。然而在實(shí)踐的過(guò)程中,往往會(huì)出現(xiàn)人的指向性不明確、情境變化增加判斷的復(fù)雜性等問(wèn)題,造成機(jī)器人難以遵從人的指令,實(shí)時(shí)做出正確的判斷。雖然該定律具有明顯的人類(lèi)中心主義色彩,但是其蘊(yùn)含的遵從人的主體性原則可以說(shuō)具有普遍而廣泛的價(jià)值意義?!皺C(jī)器文明的一切機(jī)制都必須服從人的目的,人的需求。”(10)[ 美 ]劉易斯·芒福德:《技術(shù)與文明》,陳允明等譯,北京:中國(guó)建筑工業(yè)出版社,2009 年,第377 頁(yè)。如何避免人類(lèi)對(duì)技術(shù)或智能機(jī)器人的過(guò)度依賴(lài)?人類(lèi)該如何在諸多方面超越自己的智能機(jī)器人面前保持自身的主體性,而不淪為技術(shù)的“奴隸”?因而,任何信息技術(shù),特別是智能機(jī)器人即具有自主性意識(shí)的技術(shù)應(yīng)該持有與人類(lèi)相同的基本價(jià)值觀,遵循服務(wù)于人的原則,確保人類(lèi)始終處于主體地位,把人類(lèi)的造物始終置于人類(lèi)的可控制之中,避免人類(lèi)利益受到損害,有效應(yīng)對(duì)可能的倫理風(fēng)險(xiǎn)。無(wú)論是系統(tǒng)設(shè)計(jì)還是具體應(yīng)用,這種技術(shù)都應(yīng)該具有風(fēng)險(xiǎn)意識(shí)、具備相應(yīng)的防范措施,充分考慮人的行為習(xí)慣、心理特征、倫理訴求、社會(huì)偏好等,確保技術(shù)及其產(chǎn)品始終“關(guān)心人的本身”?!叭魏谓夥哦际鞘谷说氖澜缂锤鞣N關(guān)系回歸于人自身。”(11)《馬克思恩格斯文集》第1 卷,北京:人民出版社,2009 年,第46 頁(yè)。因此,技術(shù)發(fā)展的倫理旨趣應(yīng)當(dāng)是在尊重人的尊嚴(yán)、保障人的自由意志的同時(shí),更好地增進(jìn)個(gè)人的幸福、提升人類(lèi)的福祉,決不是要把技術(shù)恐懼、“技術(shù)拜物教”推向極致。

(二)價(jià)值敏感性設(shè)計(jì):從技術(shù)異化到科技向善

技術(shù)的出發(fā)點(diǎn)本來(lái)是“為己”的,但因技術(shù)的異化而蛻變成“異己”的力量。信息技術(shù)能否實(shí)現(xiàn)如亞里士多德(Aristotle)所愿的“人的每種實(shí)踐都以某種善為目的”的目標(biāo)?信息技術(shù)的快速發(fā)展,很容易使全社會(huì)陷入追求速度與效率的“技術(shù)的統(tǒng)治”中,往往忽視了對(duì)技術(shù)目的及價(jià)值的倫理追問(wèn)。而事實(shí)上,無(wú)論技術(shù)的自主性程度再高,它也根本不可能成為“中立的工具”。信息技術(shù)越是發(fā)展、越是強(qiáng)大、越是動(dòng)力支撐,技術(shù)設(shè)計(jì)價(jià)值考量的重要性就愈加凸顯。而從倫理學(xué)的視角而言,技術(shù)設(shè)計(jì)價(jià)值考量的最高原則無(wú)疑就是科技向善。沒(méi)有科技向善,人就難以確保人之為人的應(yīng)有價(jià)值地位。退而言之,即使人類(lèi)目前暫未能充分論證信息技術(shù)對(duì)自身可能危害的因果關(guān)系,我們?nèi)匀挥谐浞掷碛蓪?duì)技術(shù)理性保持足夠的警惕和嚴(yán)謹(jǐn)?shù)膶徱暎讶祟?lèi)價(jià)值“嵌入”到設(shè)計(jì)、開(kāi)發(fā)、應(yīng)用的全過(guò)程,使其具有與人類(lèi)匹配的價(jià)值觀,從而更有可能規(guī)避霍金、馬斯克等人所描繪的科幻式的噩夢(mèng),實(shí)現(xiàn)從技術(shù)異化到科技向善的轉(zhuǎn)變。

正是因?yàn)榧夹g(shù)承載了人的欲望、情感,甚至是愿景,技術(shù)設(shè)計(jì)階段的價(jià)值立場(chǎng)和倫理取向就顯得尤為重要。美國(guó)學(xué)者巴提雅·弗里德曼(Batya Friedman)與同事于1992 年提出“價(jià)值敏感性設(shè)計(jì)”(Value Sensitive Design)理念,提出在技術(shù)設(shè)計(jì)階段就要全面性、系統(tǒng)性地考量人類(lèi)價(jià)值并將其“嵌入”技術(shù)系統(tǒng)中?!皟r(jià)值敏感設(shè)計(jì)是一種基于理論的技術(shù)設(shè)計(jì)方法,在整個(gè)設(shè)計(jì)過(guò)程中以一種原則和全面的方式考慮人類(lèi)價(jià)值”(12)轉(zhuǎn)引自閆坤如:《人工智能設(shè)計(jì)的道德意蘊(yùn)探析》,《云南社會(huì)科學(xué)》 2021 年第5 期,第30 頁(yè)。。具體而言,首要的是對(duì)人類(lèi)價(jià)值進(jìn)行哲學(xué)反思,列出人類(lèi)價(jià)值清單及價(jià)值排序,以便為價(jià)值敏感性設(shè)計(jì)提供價(jià)值考量。這些價(jià)值必須融合傳統(tǒng)的倫理道德規(guī)范和技術(shù)層面的非傳統(tǒng)價(jià)值訴求,以便為技術(shù)理性提供基本的倫理原則和內(nèi)在倫理規(guī)約。其二,通過(guò)多學(xué)科的調(diào)查分析,特別是針對(duì)社會(huì)現(xiàn)實(shí)中的“技術(shù)拜物教”、技術(shù)“越軌”案例,如“殺人機(jī)器人”違背人類(lèi)向善本能、數(shù)據(jù)主義造成數(shù)據(jù)鴻溝、網(wǎng)絡(luò)霸權(quán)危及政治安全等,綜合考量、全面權(quán)衡人類(lèi)價(jià)值與技術(shù)可用性,力求做到設(shè)計(jì)目的與社會(huì)需求的無(wú)偏差對(duì)接,實(shí)現(xiàn)物性與德性、技術(shù)與道德的有機(jī)融合,使技術(shù)更加人性化,打造道德化的技術(shù)。其三,將經(jīng)過(guò)價(jià)值考量、實(shí)踐檢驗(yàn)的治理經(jīng)驗(yàn)運(yùn)用到技術(shù)設(shè)計(jì)中,以確保創(chuàng)造的技術(shù)或智能機(jī)器人合乎倫理道德規(guī)范的要求。

價(jià)值敏感設(shè)計(jì)為信息技術(shù)問(wèn)題的道德治理提供了新視角。在具體“情境”中,價(jià)值敏感性設(shè)計(jì)應(yīng)堅(jiān)持安全性、可靠性和公開(kāi)透明原則。技術(shù)價(jià)值中立論認(rèn)為技術(shù)不涉及善惡?jiǎn)栴}。然而在技術(shù)開(kāi)發(fā)、運(yùn)用中不可避免會(huì)“嵌入”人的意圖。若沒(méi)有倫理道德的考量與約束,技術(shù)“越軌”、技術(shù)“暴力”、被技術(shù)滲透等“技術(shù)與人類(lèi)和人類(lèi)社會(huì)之間的反身性互動(dòng)”(13)李恒威、王昊晟:《后人類(lèi)社會(huì)圖景與人工智能》,《華東師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》 2020 年第5 期,第82 頁(yè)。就在所難免。當(dāng)然,科技向善不是、也不應(yīng)該成為科技創(chuàng)新的障礙,而是要為科技活動(dòng)提供倫理價(jià)值向?qū)?。這就必須建立起以安全性為核心的事前預(yù)防、事中監(jiān)管、事后評(píng)價(jià)關(guān)聯(lián)互動(dòng)科技倫理治理機(jī)制,對(duì)科技活動(dòng)的全過(guò)程進(jìn)行倫理考量與倫理調(diào)適,構(gòu)建以憂患意識(shí)及風(fēng)險(xiǎn)研判為基礎(chǔ)的底線倫理,才能有效防止“AI 換臉”“大數(shù)據(jù)殺熟”等技術(shù)異化風(fēng)險(xiǎn)。受信息不對(duì)稱(chēng)因素的影響,再加上人類(lèi)理性的有限性,不可避免造成對(duì)信息技術(shù)道德風(fēng)險(xiǎn)認(rèn)知及應(yīng)對(duì)的滯后性,帶來(lái)諸多“不對(duì)稱(chēng)風(fēng)險(xiǎn)”。信息技術(shù)的開(kāi)發(fā)、設(shè)計(jì)不應(yīng)只是企業(yè)的秘密行為。信息技術(shù)的設(shè)計(jì)研發(fā)主體,要構(gòu)建具有正當(dāng)性、倫理性的程序設(shè)計(jì),及時(shí)向用戶提供完整、易于理解的關(guān)于目的、功能、限制等技術(shù)參數(shù)及信息和算法規(guī)則,保障和鼓勵(lì)公眾行使參與權(quán)利,增強(qiáng)公眾對(duì)信息技術(shù)及系統(tǒng)的信任,進(jìn)而通過(guò)技術(shù)程序的正當(dāng)性、倫理性來(lái)保障智能算法的透明性和技術(shù)運(yùn)用結(jié)果的公平性。唯有在開(kāi)發(fā)、設(shè)計(jì)過(guò)程中向智能機(jī)器提供實(shí)時(shí)、準(zhǔn)確、完整、不帶偏見(jiàn)的信息及數(shù)據(jù),用人類(lèi)普遍認(rèn)可的道德及價(jià)值觀約束開(kāi)發(fā)、使用者,才能盡最大可能保障技術(shù)正義。

(三)前瞻性道德責(zé)任:從責(zé)任困境到信息時(shí)代責(zé)任倫理的構(gòu)建

責(zé)任追究是任何一個(gè)領(lǐng)域都面對(duì)的現(xiàn)實(shí)難題。在信息技術(shù)問(wèn)題的道德治理中,責(zé)任倫理也是不可或缺的視角。對(duì)于責(zé)任主體的界定,國(guó)內(nèi)外學(xué)界關(guān)于技術(shù)人造物如智能機(jī)器人能否作為道德行為體展開(kāi)了研究與爭(zhēng)論。有學(xué)者認(rèn)為,智能機(jī)器人可以作為道德行為體,并進(jìn)而承擔(dān)一定的道德責(zé)任。也有學(xué)者鑒于智能機(jī)器人沒(méi)有自我意識(shí),認(rèn)為其不可能具備責(zé)任承擔(dān)能力,反對(duì)將其作為道德行為體。退而言之,即使智能機(jī)器人具備一定的責(zé)任承擔(dān)能力,作為技術(shù)的設(shè)計(jì)者和使用者的人或者相關(guān)組織仍是主要的、最大的乃至是唯一的責(zé)任主體。

傳統(tǒng)的責(zé)任模式一般是對(duì)個(gè)體行為的事后責(zé)任。換言之,這種模式是基于過(guò)去某種行為后果的消極性的責(zé)任追究,而非積極性的責(zé)任倫理構(gòu)建。然而,信息技術(shù)內(nèi)在機(jī)制的復(fù)雜性、不透明性及其影響的深度風(fēng)險(xiǎn)性,決定了傳統(tǒng)“追溯性責(zé)任”時(shí)常陷入“鞭長(zhǎng)莫及”“無(wú)能為力”的窘境。在倫理學(xué)界,漢斯·約納斯(Hans Jonas)基于人類(lèi)社會(huì)進(jìn)入技術(shù)時(shí)代后技術(shù)對(duì)社會(huì)影響的全面性、深刻性,較早地提出了前瞻性道德責(zé)任的理念。約納斯認(rèn)為,“并非只有當(dāng)技術(shù)惡意地濫用,即濫用于惡的意圖時(shí),即便當(dāng)它被善意地用到它本來(lái)的和最合法的目的時(shí),技術(shù)仍有其危險(xiǎn)的、能夠長(zhǎng)期起決定作用的一面?!?14)[ 德 ]漢斯·約納斯:《技術(shù)、醫(yī)學(xué)與倫理學(xué):責(zé)任原理的實(shí)踐》,張榮譯,上海:上海譯文出版社,2008 年,譯序第4 頁(yè)。信息時(shí)代的到來(lái),使得人類(lèi)的責(zé)任“負(fù)擔(dān)”比以往任何時(shí)候都重?!翱屏指窭锲胬Ь场保?Collingridge’s Dilemma)導(dǎo)致的控制困境,更加彰顯遠(yuǎn)距離的、前瞻性、整體性的未來(lái)責(zé)任的重要性。

前瞻性道德責(zé)任對(duì)于責(zé)任主體有著新的更高要求。這種責(zé)任倫理要求相關(guān)主體對(duì)技術(shù)研發(fā)的動(dòng)機(jī)、目的以及可能產(chǎn)生的后果等有著比較完整與全面、清晰與清醒的認(rèn)識(shí)和把握。技術(shù)設(shè)計(jì)者無(wú)疑要首當(dāng)其沖擔(dān)負(fù)起這種責(zé)任。因?yàn)榧夹g(shù)人造物如智能機(jī)器人僅僅是執(zhí)行設(shè)計(jì)者所設(shè)定的技術(shù)程序或算法,即充當(dāng)了執(zhí)行人的意志或者意圖的工具,而非其自身自主意志或愿望的智能表達(dá)。人類(lèi)如何看待智能機(jī)器人并處理好人機(jī)(技)關(guān)系?技術(shù)人造物應(yīng)該“嵌入”何種倫理系統(tǒng)?設(shè)計(jì)者在設(shè)計(jì)、使用者在使用過(guò)程應(yīng)該分別遵循哪些基本的倫理準(zhǔn)則?是否意味著已“嵌入”預(yù)計(jì)能做出符合人類(lèi)預(yù)期道德判斷的機(jī)器人可以讓人無(wú)憂?這些既需要技術(shù)設(shè)計(jì)者有求真求善的科學(xué)精神,同時(shí)也需要他們具有卓越的道德“遠(yuǎn)見(jiàn)”。因而,技術(shù)設(shè)計(jì)者要在堅(jiān)持基本價(jià)值準(zhǔn)則的基礎(chǔ)上,強(qiáng)化科研倫理和敬畏意識(shí),系統(tǒng)厘清具體相關(guān)科技活動(dòng)的倫理風(fēng)險(xiǎn),把倫理要求內(nèi)化為自身的自覺(jué)行動(dòng),避免技術(shù)被資本“綁架”,積極主動(dòng)開(kāi)展負(fù)責(zé)任的科學(xué)研究及技術(shù)應(yīng)用。特別是要?jiǎng)澏夹g(shù)禁區(qū)、“技術(shù)紅線”,如不得從事“殺人機(jī)器人”的開(kāi)發(fā)、不得利用網(wǎng)絡(luò)霸權(quán)危害他國(guó)政治安全等,在源頭上為“科技始終向善”劃定道德邊界,以道德化的技術(shù)和道德算法把人類(lèi)的根本利益和價(jià)值訴求落到實(shí)處。誠(chéng)然,人類(lèi)也不能奢望前瞻性道德責(zé)任能窮盡所有的技術(shù)漏洞及安全風(fēng)險(xiǎn),并作出準(zhǔn)確的道德評(píng)估和到位的倫理應(yīng)對(duì),但其所賦予道德主體的道德自覺(jué)、道德信念、道德“遠(yuǎn)見(jiàn)”,最起碼可以讓人類(lèi)在信息技術(shù)瞬息萬(wàn)變中多一份道德自信,增加倫理抉擇的主動(dòng)性,不至于因措手不及而陷入“道德困境”中。

此外,前瞻性的道德責(zé)任還要求實(shí)現(xiàn)多元主體協(xié)同、多學(xué)科滲透、多手段并用。因?yàn)槿魏螁我坏呢?zé)任主體,即便是政府,都不可能擁有足夠的權(quán)力、資源、能力獨(dú)自解決所有的道德治理難題。信息技術(shù)的深入發(fā)展,打破了傳統(tǒng)時(shí)代的信息壟斷、信息壁壘,便于社會(huì)主體實(shí)時(shí)獲取海量的信息及數(shù)據(jù)資源,便于他們?nèi)媪私庹麄€(gè)社會(huì)的道德生活全貌,為各類(lèi)主體有效參與道德治理創(chuàng)造了良好的條件。同樣,任何單一的治理手段,即便是法律手段,也不可能具有包攬治理所有社會(huì)治理難題的效力。信息技術(shù)的發(fā)展及運(yùn)用也是建立在法學(xué)、社會(huì)學(xué)、數(shù)學(xué)等多學(xué)科滲透及交叉的基礎(chǔ)之上的。習(xí)近平總書(shū)記強(qiáng)調(diào):“要整合多學(xué)科力量,加強(qiáng)人工智能相關(guān)法律、倫理、社會(huì)問(wèn)題研究,建立健全保障人工智能健康發(fā)展的法律法規(guī)、制度體系、倫理道德?!?15)《加強(qiáng)領(lǐng)導(dǎo)做好規(guī)劃明確任務(wù)夯實(shí)基礎(chǔ) 推動(dòng)我國(guó)新一代人工智能健康發(fā)展》,《人民日?qǐng)?bào)》 2018 年11 月1 日,第1 版。推進(jìn)多元主體協(xié)同、多學(xué)科滲透、多手段并用,有利于更好破解“技術(shù)鴻溝”和“碎片化”困境等倫理風(fēng)險(xiǎn)。面對(duì)信息技術(shù)更迭的加速度及其影響的深層性,任何一個(gè)主體、任何一個(gè)學(xué)科、任何一個(gè)治理手段都不適合做“盤(pán)觀者”“局外人”,都是道德生活與道德治理的“參與者”“行動(dòng)者”。唯此,才有可能避免“有組織的不負(fù)責(zé)任”,構(gòu)建立足信息時(shí)代的技術(shù)天性與道德人性雙向互動(dòng)的責(zé)任倫理。

猜你喜歡
倫理主體道德
強(qiáng)化述職評(píng)議 落實(shí)主體責(zé)任
《心之死》的趣味與倫理焦慮
論碳審計(jì)主體
頭上的星空與心中的道德律
《白噪音》中后現(xiàn)代聲景的死亡倫理思考
何謂“主體間性”
跟蹤導(dǎo)練(五)(2)
道德是否必需?——《海狼》對(duì)道德虛無(wú)主義的思考
倫理批評(píng)與文學(xué)倫理學(xué)
略論意象間的主體構(gòu)架
光泽县| 文登市| 宁乡县| 茂名市| 东丽区| 乐业县| 济南市| 天柱县| 宿松县| 堆龙德庆县| 沾益县| 崇礼县| 山东省| 宁远县| 宁乡县| 色达县| 大足县| 永新县| 含山县| 山阴县| 加查县| 开封县| 河间市| 南木林县| 高要市| 乌拉特后旗| 星座| 新蔡县| 临漳县| 商城县| 秀山| 牡丹江市| 云龙县| 神木县| 丹东市| 汤阴县| 乐业县| 佛冈县| 五河县| 新河县| 巴塘县|