(成都工業(yè)學(xué)院 馬克思主義學(xué)院,四川 成都 611731)
2019年7月24日,中共中央召開的全面深化改革第九次會議通過了《國家科技倫理委員會組建方案》等系列文件,并明確指出科技倫理是科技活動必須遵守的價值準(zhǔn)則,將組建國家科技倫理委員會提上日程,突出科技倫理在科技活動的戰(zhàn)略地位[1]。這標(biāo)志著我國科技事業(yè)正進入倫理引導(dǎo)發(fā)展歷程,科技倫理的建構(gòu)與普及也成為現(xiàn)代技術(shù)研發(fā)的現(xiàn)實必要。人工智能作為現(xiàn)代技術(shù)發(fā)展的智能高階化表現(xiàn),在研究與應(yīng)用過程中面臨著不可調(diào)和的倫理問題,造成了社會治理與結(jié)構(gòu)體系發(fā)展遭遇多重障礙的困境。這意味著我們應(yīng)在全新視角下,正視現(xiàn)代倫理道德規(guī)范科技行為的作用力,讓科技倫理成為保障科學(xué)合理性的有效武器。
人工智能的快速發(fā)展跨越了理論與實踐的鴻溝,推動了經(jīng)濟、政治、文化等多重領(lǐng)域的進一步融合,卻也致使社會發(fā)生異化,而算法的桎梏與偏見便是異化的結(jié)果。現(xiàn)代社會實踐活動中,信息資源的攫取以及壟斷無疑是權(quán)威與影響力的表達,而人工智能的算法推演則極大地助推了數(shù)據(jù)的統(tǒng)籌規(guī)劃與信息資源的獲得。在市場競爭中,常常會出現(xiàn)“馬太效應(yīng)”,即優(yōu)勢企業(yè)公司可以利用自身掌握的算法來識別、打擊弱勢企業(yè)形成行業(yè)壟斷,造成強勢企業(yè)更強、弱勢企業(yè)更弱的局面。人工智能算法本身的運行機制是將每個個體都作為算法邏輯體系下的參數(shù)而不考慮個體主體性,但算法技術(shù)壁壘卻讓其技術(shù)權(quán)力表象下潛藏著資本等價值取向性[2]。歐盟數(shù)據(jù)保護委員會與美國皮尤研究中心曾相繼發(fā)布人工智能算法歧視調(diào)查研究報告,認(rèn)為當(dāng)前人工智能算法在收集、分類、整理、分成、解釋數(shù)據(jù)時已相繼產(chǎn)生年齡、性別、種族等群體歧視現(xiàn)象。亞馬遜集團曾于2014年至2017年間使用了支持人工智能技術(shù)的招聘軟件來幫助人力資源部審核簡歷,但經(jīng)報道后,人們發(fā)現(xiàn)該軟件降級了包括“女性”一詞的簡歷,含有極大的性別偏見[3]?;诜秶^廣的數(shù)據(jù)信息,算法在形成到應(yīng)用的過程中除了具備基礎(chǔ)數(shù)據(jù)信息,也隱含著未脫敏的不可知屬性。牛津大學(xué)數(shù)據(jù)倫理和算法領(lǐng)域研究人員桑德拉·沃徹便曾談到:“世界存在偏見,歷史數(shù)據(jù)存在偏見,因此我們得到帶有偏見的結(jié)果不足為奇?!盵4]虛擬世界的算法黑箱歧視都較為隱蔽,通過嵌入歧視代碼讓系統(tǒng)在高科技包裝下進行觀念的延伸。人工智能自動化識別系統(tǒng)的算法設(shè)計結(jié)構(gòu)極為復(fù)雜,樣本數(shù)據(jù)采集標(biāo)準(zhǔn)、樣本數(shù)量平衡、有意遺漏或傾向性選擇都讓公眾意見與梳理的文本材料無法顯露以致算法桎梏加劇。
工具理性,是指人類在實踐活動中為追求效率最大化而利用工具或某種手段實現(xiàn)自身目的。隨著科技的不斷進步,人工智能的出現(xiàn)極大促進了人們把握事物的精確性與高速率性,導(dǎo)致工具理性思想逐漸擴展蔓延,與以信念價值為行為導(dǎo)向的價值理性慢慢失衡。2016年美國多家公司聯(lián)合推出“世界首屆人工智能選美大賽”,以算法來評價參賽者的美,獲勝者卻與人們期待的不同,沖擊了大眾審美觀。人類目前所面對的是發(fā)展的物質(zhì)需求與客觀世界的應(yīng)然價值二者之間的矛盾,黑格爾曾說過“熟知”并非“真知”,人類所追求的理所當(dāng)然的事物一旦缺乏理性的反思,將會成為一種盲目的、無法預(yù)期的東西,造成難以預(yù)料的后果[5]。人類在恒久以來的人類文明發(fā)展進化過程中探索到,工具理性與價值理性兩者之間只有獲得相對平衡才能緩解這一矛盾。而當(dāng)前工業(yè)社會正因人工智能等技術(shù)的發(fā)展逐步向智能社會轉(zhuǎn)型,知識工具理性迅速漫溢,技術(shù)工具帶來的高效實踐成果背后,是對責(zé)任與義務(wù)、道德與倫理等價值理性關(guān)懷問題的忽視。許多人工智能研究者與使用者只以利益為優(yōu)先選擇,對其研發(fā)與使用造成的社會矛盾與不公正現(xiàn)象不作思索,甚至在自我思想層面直接出現(xiàn)偏見與歧視。
隨著人工智能的發(fā)展,原有的科技制度規(guī)范已失靈,各種價值觀與多元思潮并行存在,科技規(guī)范漏洞與不足正頻頻顯現(xiàn)。從行為層面上,科技人員的越軌行為存在隱蔽性,其越軌活動的行為目的與心理活動動機的主觀故意性也缺乏衡量標(biāo)準(zhǔn)。此外,當(dāng)前人工智能研究活動仍無法判定是否存在潛在危險,一些人工智能產(chǎn)品出現(xiàn)危害后也無法判定是研究活動造成的還是使用不當(dāng)造成的,致使對科技道德失范行為難以實施懲戒。不過各個國家也在努力采取措施來解決道德判定障礙問題,如2018年6月,美國醫(yī)學(xué)會針對醫(yī)學(xué)人工智能系統(tǒng)發(fā)布了如何開發(fā)、使用和調(diào)節(jié)人工智能的指南,旨在解決人工智能醫(yī)療實踐問題中所引發(fā)的責(zé)任判定障礙。該指南強調(diào)了人工智能技術(shù)只是起到增強作用而非替代醫(yī)生工作,人工智能系統(tǒng)中的決策失誤引發(fā)的醫(yī)療事故由醫(yī)生負(fù)責(zé)。
一直以來,道德地位的唯一作用主體是人,但經(jīng)研究發(fā)現(xiàn)人工智能也具備一定的道德行為和部分道德行為的基本特征,這不免引起人們思考。在技術(shù)樂觀主義興盛的啟蒙時期,盧梭率先看出科技背后的隱患,指出科技作為工具被應(yīng)用,會使得人類自身力量受到削弱,其負(fù)面效應(yīng)也會使大自然遭到破壞,科技的存在必然面臨著道德倫理問題[6]。人工智能雖不同于人類之間的子代傳承,但依然保留著傳承者父代的基因特質(zhì),雖不具有客觀存在的實體,但可以通過產(chǎn)品功能表現(xiàn)來實施自身道德主體表達。2016年,歐盟委員會提議到,鑒于人工智能具有特殊的人格性,其外在表現(xiàn)形式和內(nèi)在機理構(gòu)造都擬于人,因此可將其定義為電子人,賦予其著作權(quán)、勞動權(quán)等相關(guān)權(quán)利與義務(wù)[7]。但同時要了解人工智能目前的意識形態(tài)仍不成熟,其意識源自設(shè)計者對它的程序輸入,自主性與實際互動性不高,更無法具有完整的社會屬性。由此可見,人工智能雖具備人本主義、擬人性、人類中心性三種道德主題意識表現(xiàn)形態(tài),但仍缺失自我感知與認(rèn)知自主性,這使其道德主體地位尚存質(zhì)疑,但它對人類主體地位卻有一定的削弱。
在人工智能化的大數(shù)據(jù)時代,用戶數(shù)據(jù)處于一種透明化、去隱私化的狀態(tài)。人工智能設(shè)計人員可根據(jù)用戶搜索整理出用戶的喜愛偏好等,再為其推送相關(guān)服務(wù),這便導(dǎo)致人們處理私人事情的自由被干預(yù)。然而可悲的是,在操作自由的掩蓋下,人們個人信息的輸出泄露顯得無足輕重。在人們未知的領(lǐng)域,人工智能正逐步依靠強大的算力和嚴(yán)謹(jǐn)?shù)倪壿嫹治瞿芰?,通過數(shù)據(jù)清洗、挖掘等方式對各數(shù)據(jù)之間的相互關(guān)系進行整合、分析,全面掌握公眾的身份信息與行為習(xí)慣,精準(zhǔn)把控用戶的動態(tài)。雖然物聯(lián)網(wǎng)與大數(shù)據(jù)的覆蓋范圍巨大,信息的保護似乎無從談起,但智能系統(tǒng)的干預(yù)卻局限了用戶的多樣性視角,并直接影響了人類個性的塑造。不過算法運行范圍的廣泛性其實是用戶權(quán)益受損的不必然因素,人工智能技術(shù)的壁壘與算法邏輯才是用戶信息泄露的直接原因。算法運作的優(yōu)勢方利用用戶協(xié)議條款來增加用戶閱讀障礙,甚至可以根據(jù)用戶語義解析算法判斷用戶行動,讓用戶的信息幾乎透明化[8]。此外,公眾視野下人們的行為舉止隨人工智能的出現(xiàn)加重了被監(jiān)控的態(tài)勢,智能系統(tǒng)普及到人類活動范圍,讓人類的隱私保護變得更加不可控。中國深網(wǎng)視界科技公司就于2019年發(fā)生人臉數(shù)據(jù)庫信息大規(guī)模泄露事件,超過256萬用戶的高敏感個人隱私信息被曝光。而《麻省理工技術(shù)評論》一則文章也指出人工智能在研發(fā)時,需要研發(fā)人員從互聯(lián)網(wǎng)等多種渠道進行大量數(shù)據(jù)的搜集,用其來填補人工智能的算法系統(tǒng)[9]。這使得許多不法商家利用漏洞攫取用戶隱私,并擴散以謀利。這些事件恰恰說明人工智能發(fā)展的倫理道德約束力仍有待加強。
人工智能的推廣為許多領(lǐng)域提供了科學(xué)決策的空間,尤其是其在社會治理過程中的實踐極大提升了決策者的治理工作效率。但是,技術(shù)哲學(xué)和技術(shù)倫理研究中的研究學(xué)派“荷蘭學(xué)派”提出“經(jīng)驗轉(zhuǎn)向”和“倫理轉(zhuǎn)向”兩大研究綱領(lǐng),對當(dāng)今科技活動本身進行了深刻的倫理反思,認(rèn)識到科技活動給社會治理帶來的重大難題[10]。如在現(xiàn)實中人工智能技術(shù)常常因數(shù)字化造成技術(shù)制約,進而造成數(shù)字鴻溝中大規(guī)模的邊緣人群失語現(xiàn)象的產(chǎn)生;讓決策者一再強化資源分配的差序性,傾軋數(shù)據(jù)化內(nèi)部盲區(qū)的領(lǐng)域,優(yōu)先導(dǎo)向智能數(shù)據(jù)中所推測的制高點群體空間,加劇了社會治理結(jié)構(gòu)的不合理性。此外,人工智能算法的應(yīng)用數(shù)據(jù)以及處理規(guī)則都是經(jīng)算法設(shè)計人員創(chuàng)建的,因此算法設(shè)計會帶有主體性偏差。當(dāng)其廣泛應(yīng)用到實踐當(dāng)中,這種偏差性或歧視性將加倍放大,直接侵蝕社會治理系統(tǒng)的公正性。
黨的十九屆四中全會上提到應(yīng)改進科技評價體系、健全科技倫理治理體制。我們黨關(guān)注到科技的發(fā)展進步必然會引發(fā)體制化的矛盾,先進的科技快速發(fā)展也會沖擊到原有的社會治理程序,成為影響國家和社會穩(wěn)定的重要因素。一方面,算法技術(shù)與優(yōu)勢國家可能利用人工智能成為新的全球治理體系的主體;另一方面,全球治理格局也可能因人工智能算法暗箱操作面臨解構(gòu)。我們必須認(rèn)識到現(xiàn)在治理實體不再是傳統(tǒng)意義上的主體與客體,而是真正提供公共服務(wù)的能力者。在人工智能研究潮流涌動下,我國迫切需要借助科技倫理來予以方向引導(dǎo),協(xié)調(diào)統(tǒng)籌好人工智能可持續(xù)發(fā)展與社會治理效能優(yōu)勢發(fā)揮的關(guān)系。
任何新興技術(shù)的發(fā)展應(yīng)用都勢必造成一定的技術(shù)風(fēng)險。技術(shù)風(fēng)險指技術(shù)發(fā)展應(yīng)用所帶來的不確定性與技術(shù)主體不利結(jié)果的發(fā)生,而人工智能作為時代發(fā)展的主要技術(shù)方向,其背后蘊藏著巨大的技術(shù)風(fēng)險。在倫理學(xué)領(lǐng)域,應(yīng)用倫理學(xué)正逐漸將關(guān)注點轉(zhuǎn)移至科技研究者的職業(yè)倫理和責(zé)任倫理。而傳統(tǒng)的技術(shù)后果承擔(dān)責(zé)任制根本無法應(yīng)對人工智能技術(shù)發(fā)展應(yīng)用實踐中導(dǎo)致的不確定性與負(fù)向性結(jié)果,這時倫理責(zé)任機制化構(gòu)建為我們提供了新的路徑思考。倫理責(zé)任機制化,作為事后責(zé)任追究制的反向性章程,主要強調(diào)進行規(guī)劃性研究工作來作為事前責(zé)任預(yù)警,倡導(dǎo)主體對所實施的行為加以責(zé)任上的自覺認(rèn)識。
德國技術(shù)倫理學(xué)家胡比希曾提到:技術(shù)研究者應(yīng)對技術(shù)活動承擔(dān)一般性責(zé)任,責(zé)任既有技術(shù)層面,也有社會層面。規(guī)范倫理學(xué)將“道德法則”作為中心,在不同程度上用某種同質(zhì)化或齊一化的倫理訴求和外在約束訴諸理性原則,來對維護社會公平正義的行動實施制度化安排[11]。在這種理性的制度化原則下,科研者自身對其研究對象與實踐過程能以倫理理論的思維邏輯進行反思。人工智能技術(shù)算法的使用具有明顯的溢出效應(yīng),它的公共妨害問題無疑深遠(yuǎn),因此,應(yīng)強調(diào)對人工智能運營商與開發(fā)商公共倫理責(zé)任機制的構(gòu)建,事前杜絕侵害問題并及時建立防護網(wǎng)。同時,及時研判技術(shù)風(fēng)險、把握方向、緊扣需求,摒除制度建立的理論障礙,以構(gòu)筑我國倫理責(zé)任領(lǐng)域的制度優(yōu)勢,將人工智能技術(shù)的利用實現(xiàn)從基礎(chǔ)保護導(dǎo)向到預(yù)期效果責(zé)任化保護導(dǎo)向的躍遷。
逐利性驅(qū)動將人工智能算法予以優(yōu)先級排序與類分,使人工智能這一技術(shù)發(fā)生異化。在新媒體創(chuàng)建的話語空間下,不同群體的話語權(quán)進行博弈互動,讓傳播信息在混雜的信息洪流沖擊中不斷價值化。群體價值觀與個體價值觀相分離,在被同質(zhì)化的信息語言體系中,個體價值的意義正逐漸被削弱,社會正在大數(shù)據(jù)引導(dǎo)下趨向于虛擬符號社會化態(tài)勢,價值觀與思維范式逐漸被禁錮。法蘭克福學(xué)派的創(chuàng)始人霍克海默曾提出雙重維度的科技倫理觀,提出科技作為社會意識形態(tài)部分受制于現(xiàn)有社會模式,在政治集權(quán)體制下對公眾的生活予以管控[12]。在現(xiàn)今整個公共話語生態(tài)智能化演進過程中,用戶的偏好及行為皆通過人工智能算法推演轉(zhuǎn)化為數(shù)據(jù),個體的行為在算法的活動下成為一種有價值的信息資源,經(jīng)由信息推薦和篩選的運作邏輯予以量化[13]。在人工智能整理傳播用戶信息數(shù)據(jù)后,人們所具備的不可量化的、潛在的價值理性被隱去,對媒體觀念形成行為導(dǎo)向,極大違背了信息倫理,降低了認(rèn)知公信力,造成了信息的泛濫化與信息平臺話語權(quán)的去價值化。當(dāng)前,信息的生成與流動速度正逐漸取代人作為衡量事物的價值標(biāo)準(zhǔn),這便聚焦了人工智能架構(gòu)成為社會信息交流的底層裝置這一問題,信息的運作僅與傳播環(huán)境形成系統(tǒng)間松散或緊密的結(jié)構(gòu)耦合關(guān)系模式,而不具備價值化的導(dǎo)向,讓現(xiàn)實世界與虛擬世界形成一種紛繁復(fù)雜的多層次關(guān)系。在這一關(guān)系下,我國應(yīng)及時加強對人工智能的倫理規(guī)范,重新將個體價值觀與群體價值觀相統(tǒng)一,以實現(xiàn)公共話語體系的再價值化。
人工智能作為技術(shù)屬性與社會屬性高度融合的產(chǎn)物,公眾的認(rèn)知是推行人工智能倫理規(guī)范的重要因素。當(dāng)前許多國家都已將倫理教育課程融入學(xué)校的課程教育當(dāng)中,美國哲學(xué)界更是突破西方以往以理論為導(dǎo)向的傳統(tǒng)哲學(xué)研究范式,出現(xiàn)了走向社會與服務(wù)社會的研究思潮。這種“刺激—反應(yīng)”的公眾倫理學(xué)習(xí)模式提高了人工智能產(chǎn)品生產(chǎn)與使用的透明度與可塑性,進一步明確了人工智能的責(zé)任制度,極大地助推了人工智能研究倫理環(huán)境的塑造[14]。人工智能研究作為一項跨多個領(lǐng)域的技術(shù)研究,其影響威力與涉及范圍都是大規(guī)模的,一旦發(fā)生公共妨害,便需要群體共同提起訴訟請求。美國聯(lián)邦法院在侵權(quán)責(zé)任法中規(guī)定,主體只要在公共妨害中受到損害皆可予以訴訟。隨著人工智能的廣泛普及,人民在科技活動中參與度的提高以及科研機構(gòu)對社會開放程度的加大,公眾亟須加強對科技倫理的認(rèn)知。這需要政府部門利用公共媒體為科技倫理的推廣營造良好的社會氛圍,幫助人們辨別是非與真善美,抵制錯誤觀念與不道德行為,加強全社會對倫理價值的重視。
馬克思恩格斯建構(gòu)了技術(shù)思想和思維科學(xué)理論,為我國科技倫理奠定了思想基礎(chǔ)。馬克思恩格斯把其提出的唯物辯證法思想歸結(jié)為外部世界和人類思維的運動的一般規(guī)律的科學(xué),并將這一方法運用到佐證自然和人類社會歷史是存在辯證關(guān)系的一般科學(xué)規(guī)律,以此為哲學(xué)根據(jù)分化出自然科學(xué)和社會科學(xué)兩門學(xué)科。馬克思科技倫理思想先是高度肯定了科技活動的價值,又從異化觀點入手,極具革命民主主義色彩與辯證主義色彩。這對當(dāng)前人工智能所屬學(xué)科具有導(dǎo)向性意義,也有助于其學(xué)科倫理的構(gòu)建。馬克思的很多思想在當(dāng)前極具借鑒意義,就如很多人認(rèn)為利益與倫理相斥,而馬克思則指出:“人們奮斗爭取的一切都與利益有關(guān)?!盵15]正當(dāng)?shù)睦孀非笈c科技倫理行為并不相悖,在倫理規(guī)范中,要肯定科研人員自身的合法權(quán)益,只否定不當(dāng)獲取利益的行為。馬克思的觀點基于人類社會發(fā)展角度,將科技作為社會的基本要素予以看待,從生產(chǎn)力、社會意識與社會狀況三種現(xiàn)實存在的人類社會因素視角探討科技與社會的關(guān)系,蘊含著深厚的歷史辯證唯物主義思想,對我國推行人工智能發(fā)展的倫理規(guī)范具有重要的借鑒意義。我們應(yīng)在馬克思主義思想指導(dǎo)下,深化人工智能發(fā)展的科技倫理觀。
倫理作為一種人際關(guān)系的行為規(guī)范,必須發(fā)生于人與人的互動關(guān)系中,簡言之人與人工智能的關(guān)系需追溯到人工智能的設(shè)計者與制造者、使用者與支配者之間的關(guān)系中,要對倫理行為予以規(guī)范應(yīng)從人工智能的職責(zé)制度規(guī)劃進行構(gòu)建。社會系統(tǒng)運作和溝通的基本單位是由社會溝通之流通過行動元歸因到作用主體,而行動元的節(jié)點則主要依托于責(zé)任制度與規(guī)范構(gòu)成行為實施演化空間。人工智能的倫理準(zhǔn)則便是將系統(tǒng)演化界面創(chuàng)造的冗余空間規(guī)范化,讓行為主體承擔(dān)起自己的基礎(chǔ)責(zé)任。讓人工智能算法通過責(zé)任分配、監(jiān)管、實施制度來協(xié)助技術(shù)人員履行不同程度的公開義務(wù),可以幫助企業(yè)平臺增強自身的社會責(zé)任感[16]。如日本人工智能協(xié)會在內(nèi)部常設(shè)“倫理委員會”來保證倫理道德紅線的不可逾越,這種設(shè)置極大地維護了各項倫理原則的邊界線,提升了人工智能研究者的社會責(zé)任感,強化了人工智能行業(yè)的倫理操守。在當(dāng)前我國人工智能研發(fā)工作中,科學(xué)探索的課題必須從產(chǎn)品的設(shè)計、研發(fā)和創(chuàng)新階段入手,將人工智能倫理準(zhǔn)則與技術(shù)責(zé)任制度演化為評判人工智能活動的內(nèi)在維度,盡量放大人工智能技術(shù)的正面效應(yīng),減少科技異化對人和自然界的負(fù)面影響。
科學(xué)的價值應(yīng)建立在“仁”的基礎(chǔ)上,科學(xué)的精神態(tài)度來源于人,人承載了科學(xué)意識,科學(xué)技術(shù)則應(yīng)為人服務(wù)。在當(dāng)今人工智能技術(shù)進程下,社會實踐的演變與大數(shù)據(jù)信息的整合使個體呈現(xiàn)符號化,這代表著科技倫理思想的核心也需從傳統(tǒng)的學(xué)術(shù)道德轉(zhuǎn)換為人本道德。一是人工智能的研究運行的主導(dǎo),主要依靠科研者自身素質(zhì)能力與倫理知識素養(yǎng)。這意味著培養(yǎng)科研工作者研究能力,不能只局限于專業(yè)教育領(lǐng)域,也應(yīng)在其課程體系中添加人文教育課程。在歷史上,人文精神與科學(xué)理性在本質(zhì)上是一致的,古希臘有關(guān)價值問題的道德哲學(xué)本質(zhì)上是對人的道德本性的探討,從內(nèi)向角度來幫助人建構(gòu)道德價值體系。西方近代的科學(xué)倫理家在推進科研工作的過程中,直接樹立了包括求實、懷疑、創(chuàng)新、獻身等一系列科學(xué)研究精神,使科研活動的進行都依循一定的道德標(biāo)準(zhǔn)。在我國科研工作中科學(xué)工作者認(rèn)識到將人文精神融入科學(xué)理性,可以幫助科研工作者更好地進行思辨與分析。為此,我國人工智能研究工作需進行文化正義下的行為反思,讓工作者們能從人文視角出發(fā)延伸到哲學(xué)、社會等多重視角,恢復(fù)對生態(tài)與倫理道德的重視,以帶有人文美感的設(shè)計讓人工智能的發(fā)展與社會進步形成自在自為關(guān)系[17]。二是人工智能作為技術(shù)產(chǎn)品,其設(shè)計與生產(chǎn)活動需由企業(yè)作為主體實施。這一現(xiàn)象下需對企業(yè)加以人文要素的引導(dǎo),讓其在生產(chǎn)人工智能設(shè)備時更加注重道德物化的實踐,生產(chǎn)具備倫理素養(yǎng)的產(chǎn)品去促進企業(yè)生產(chǎn)與發(fā)展的良性循環(huán)。
伴隨著現(xiàn)代人工智能的深入發(fā)展,科技倫理的建構(gòu)已成為我們必須關(guān)注與審視的對象。人工智能所導(dǎo)致的算法桎梏與偏見、工具理性與價值理性的失衡、道德地位判定障礙以及用戶數(shù)據(jù)透明化與去隱私化等倫理維度偏差問題逐漸顯現(xiàn),這要求我們的倫理思想也必然要不斷發(fā)展并與之相適應(yīng)。可以明顯看到,人工智能的健康良性發(fā)展與科技倫理的指導(dǎo)有著明顯正相關(guān)關(guān)系,由此,我們應(yīng)充分提升公眾對科技倫理的認(rèn)知,深化馬克思主義思想指導(dǎo)下以人為本的科技倫理觀,通過切實加強技術(shù)責(zé)任制度建設(shè)來提高科技人員對倫理規(guī)范的踐行程度,并將人文主義思想融入人工智能研究過程,讓人工智能能夠在科技倫理的引導(dǎo)下真正應(yīng)對風(fēng)險和挑戰(zhàn),把握時代發(fā)展機遇。