国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

大眾對人工智能道德?lián)鷳n的雙層結(jié)構(gòu)分析

2022-04-29 18:48:09王云霄龍帥黃譯萱陳華
中國心理學(xué)前沿 2022年8期
關(guān)鍵詞:扎根理論人工智能

王云霄 龍帥 黃譯萱 陳華

摘 ? ? 要|人工智能的道德系統(tǒng)是動態(tài)的,不斷更新的,以社會共同的道德?lián)鷳n為基礎(chǔ)來構(gòu)建道德模型是重要研究方向,本文旨在探究大眾對于人工智能的道德?lián)鷳n模型。運(yùn)用扎根理論對17個訪談資料進(jìn)行分析,共形成23個范疇和8個主范疇。從主范疇的結(jié)構(gòu)關(guān)系可以得出大眾對人工智能道德?lián)鷳n模型由兩個層次組成,即因果層 和影響層。其中因果層由道德認(rèn)知和爭議點構(gòu)成的,爭議點是根本原因,道德認(rèn)知是直接原因;影響層由道 德規(guī)范和爭議點構(gòu)成的,通過中介和調(diào)節(jié)來影響道德?lián)鷳n。研究提供了減少大眾對人工智能道德?lián)鷳n的具體 路徑。

關(guān)鍵詞|人工智能;道德?lián)鷳n;道德規(guī)則;扎根理論

Copyright ? 2022 by author (s) and SciScan Publishing Limited

This article is licensed under a Creative Commons Attribution-NonCommercial 4.0 International License. https://creativecommons.org/licenses/by-nc/4.0/

1 引言

隨著人工智能系統(tǒng)的多領(lǐng)域發(fā)展,道德問題日益凸顯。在自動駕駛汽車的例子中,如何對情景作出選擇判斷,對于乘客、場景中的其他人及社會環(huán)境有著不同的影響(Bonnefon,Shariff,and Rahwan,2016)。人工智能已經(jīng)產(chǎn)生潛在的倫理風(fēng)險,因此學(xué)界強(qiáng)調(diào)人工智能的道德代碼與倫理嵌入的重要性?,F(xiàn)行的道德設(shè)計包含三種理念:自上而下、自下而上及混合取向(Arkin,2009;Bringsjord and Taylor,2012)。自上而下又稱基于規(guī)則,將人類認(rèn)可的道德標(biāo)準(zhǔn)編碼作為機(jī)器處理方式,使智能產(chǎn)品行動模式考慮到道德。自下而上的方案是提供恰當(dāng)環(huán)境,使其通過經(jīng)驗而學(xué)習(xí)道德意識,類似于兒童一般?;旌先∠騽t認(rèn)為,需要通過自上而下的方法設(shè)定一定的道德語法,并通過自下而上的情景學(xué)習(xí)而發(fā)展進(jìn)化(Allen et al.,2005)。機(jī)器倫理的最終目標(biāo)是:通過賦予機(jī)器道德能力以使其像人類一樣自主地進(jìn)行道德判斷與行動(陳銳、孫慶春,2020)。為此,機(jī)器倫理的研究者提出了諸多實現(xiàn)這一目標(biāo)的方法,如康德式方法、范疇理論方法、博弈法,以及表面義務(wù)的混合方法等(Hooker and Kim,2018)。然而一個個問題隨之產(chǎn)生,倫理規(guī)則及學(xué)習(xí)情境從哪里來?誰的道德認(rèn)識應(yīng)該被應(yīng)用到道德框架中?在道德設(shè)置中人們擔(dān)憂的問題是什么呢?

有研究者已經(jīng)提出將我們的多人道德價值模型置于相關(guān)備選方案之上,或者使用所有人共同的道德憂慮(Brandt,Conitzer,and Endriss,2012;Brandt et al.,2016)。李楠通過對專家直覺及康德的道義論規(guī)則進(jìn)行論述, 認(rèn)為智能機(jī)器的道德規(guī)則應(yīng)該從普通大眾的道德認(rèn)識和擔(dān)憂及行為樣本中使用學(xué)習(xí)方法得出,從而得到最接近于普通人的人工智能。將多人的道德觀念(通過機(jī)器學(xué)習(xí))聚合在一起可能產(chǎn)生比個人或者單個群體更完善的道德系統(tǒng),因為這減少了個人經(jīng)驗造成的特殊道德錯誤(Conitzer V et al.,2017),從而減少人們的道德?lián)鷳n?;谌藶榛A(chǔ)的人工智能的決策過程可以更容易地被可視化和更新(Van Berkel et al.,2020)。但是目前對于 大眾的道德?lián)鷳n探索較少。無法為人工智能的道德模型提供充足的理論及情景材料。另外對于道德情景及憂慮點的設(shè)置不是靜態(tài)的,是通過多種方式不斷進(jìn)行補(bǔ)充(Van Berkel et al.,2020)。因此本研究利用扎根理論研究方法基于現(xiàn)實材料探究大眾對于人工智能的道德?lián)鷳n及道德約束等方面,構(gòu)建出大眾對于人工智能的道德?lián)鷳n模型,探究減少道德?lián)鷳n的路徑,為人工智能道德模型增加理論基礎(chǔ)。

2 研究設(shè)計與方法

研究方法

本文采用程序化扎根理論的質(zhì)性研究方法,該方法能借助一條故事線將材料中分散的變量串連分析, 可以知道研究以實證的方式對樣本數(shù)據(jù)進(jìn)行詳細(xì)且反復(fù)地編碼、歸類和分析比較。這是一個自下而上對數(shù)據(jù)資料進(jìn)行不斷濃縮的過程,主要采用開放性編碼、主軸性編碼和選擇性編碼這三級編碼程序。開放式編碼將數(shù)據(jù)資料抽象形成概念或范疇;主軸式編碼是發(fā)現(xiàn)和建立概念類屬之間的各種聯(lián)系,挖掘主范疇、范疇及其之間的關(guān)系;選擇性編碼是在所有已發(fā)現(xiàn)的概念類屬中經(jīng)過系統(tǒng)地分析以后確定核心范疇及范疇之間的網(wǎng)絡(luò)關(guān)系(Strauss,1987)。

數(shù)據(jù)收集

為了通過訪談獲取更深入、更有用的信息,在正式訪談開始前,研究者先后向 5 位心理咨詢方向 的碩士生進(jìn)行預(yù)訪談。并根據(jù)預(yù)訪談受訪者反饋意見先后修改訪談提綱,形成最終版訪談提綱。本研究遵循理論抽樣原則使用深度訪談的方法對 17 名對象進(jìn)行了數(shù)據(jù)收集,采用一對一訪談的方式,時間為

30 ~ 50 分鐘,受訪者信息如表1 所示。半結(jié)構(gòu)化訪談提綱包括但不限于以下問題:(1)當(dāng)智能產(chǎn)品普及到生活方方面面,您比較擔(dān)心哪方面?(2)您愿意從個人和社會的角度詳細(xì)談一下對于人工智能的發(fā)展擔(dān)憂嗎?(3)如果發(fā)生了您擔(dān)心的問題,您認(rèn)為是什么原因呢?(4)您認(rèn)為通過什么方法可以減少您的擔(dān)憂么?每次訪談結(jié)束,立即撰寫關(guān)于該訪談的備忘錄。

3 數(shù)據(jù)分析與結(jié)果

開放性編碼

開放性編碼是程序化扎根理論的第一步,是對獲得的數(shù)據(jù)進(jìn)行標(biāo)簽化、概念化和范疇化的處理過 程。采用編碼一致性及小組討論的方式進(jìn)行,由兩名心理學(xué)研究生對于材料進(jìn)行編碼與討論,一致性超過 80% 時停止,整個編碼過程通過不斷地新增、刪除、合并,除去三份原始材料做飽和度檢驗之外,將數(shù)據(jù)逐步概括為 131 個概念,23 個范疇,如表2 所示。

主軸編碼

主軸編碼是對初始范疇進(jìn)行關(guān)系梳理的步驟,包括因果、脈絡(luò)結(jié)構(gòu)等。對開放性編碼中 23 個范疇進(jìn)行聯(lián)結(jié)、歸納和整合,最終形成 8 個主范疇,囊括在道德認(rèn)知、道德?lián)鷳n、道德規(guī)范及爭議點這 4 個維度中,如表3 所示。

選擇性編碼

選擇性編碼是對核心范疇的選擇與設(shè)定過程。在對主副范疇進(jìn)行完善的基礎(chǔ)上,將其反饋到關(guān)鍵概念的類型特征中,從而建立核心范疇與其他部分的聯(lián)系。其主要結(jié)構(gòu)關(guān)系如表4 所示。

本研究以大眾對于人工智能的道德?lián)鷳n為核心范疇建立故事線:(1)人們通過各種渠道了解到人 工智能,從人機(jī)定位及其認(rèn)識角度產(chǎn)生道德認(rèn)知,這是道德?lián)鷳n產(chǎn)生的直接原因,而對于人工智能關(guān)于情感、自主能力等的爭議點是產(chǎn)生道德?lián)鷳n的根本原因。(2)人工智能的社會影響構(gòu)成了道德?lián)鷳n的 外部表現(xiàn)層,而對于個體影響的考慮構(gòu)成了道德?lián)鷳n的內(nèi)部表現(xiàn)層。(3)規(guī)范設(shè)置可以通過規(guī)整爭議 點來對道德?lián)鷳n進(jìn)行調(diào)節(jié)。(4)通過國家法律等形成外部信任,通過減少社會影響而對道德?lián)鷳n起作用, 同樣內(nèi)部控制通過對個體的影響來對道德?lián)鷳n起作用。

理論飽和度檢驗

理論飽和度狀態(tài)是指在無法繼續(xù)提煉和抽取初始概念的范疇下不再產(chǎn)生新概念。對已構(gòu)建的理論框架能夠較好地解釋,理論就是“飽和”的狀態(tài)。本文對于三份原始材料通過小組討論和專家檢驗的方法進(jìn)行飽和度檢驗,發(fā)現(xiàn)并無可提煉的新概念范疇,表明上述理論模型是飽和的。

4 大眾對人工智能道德?lián)鷳n的雙層結(jié)構(gòu)模型

根據(jù)訪談后的三級編碼過程,通過進(jìn)一步的凝練概括,構(gòu)建了大眾對人工智能道德?lián)鷳n的理論框架。如圖2 ?所示,該框架包含因果層和影響層兩個部分,包含因果、表現(xiàn)、調(diào)節(jié)和中介四種結(jié)構(gòu)關(guān)系,可以從多個角度解釋人工智能的道德?lián)鷳n。

人工智能道德?lián)鷳n因果層分析

人工智能道德?lián)鷳n產(chǎn)生的直接原因是人機(jī)定位和認(rèn)知角度,包括人機(jī)異同、人機(jī)關(guān)系、工具設(shè)定、發(fā)展態(tài)度和理性優(yōu)勢 5 個范疇。涉及到智能,大眾通過比對自身產(chǎn)生道德認(rèn)知,岡克爾對于人機(jī)定位曾提出人工智能的道德是人為規(guī)范出來的,而人工智能也被定義為“他者”(Gunkel,2012)。大眾對于人和機(jī)器的異同及關(guān)系的理解產(chǎn)生了價值觀影響、信息繭房和過度依賴的個體道德?lián)鷳n;對于人工智能的不同認(rèn)知角度產(chǎn)生了安全隱患、就業(yè)沖擊和利益服務(wù)等的社會道德?lián)鷳n。而道德?lián)鷳n產(chǎn)生的根本原因是人們對于人工智能的爭議點,其中在情感層面對應(yīng)著未知恐懼,而自主能力是構(gòu)建人工智能主體的動力源,這些無法確定的爭議點造成了道德?lián)鷳n。

人工智能道德?lián)鷳n影響層分析

人工智能道德?lián)鷳n的影響因素主要包括外部信任、規(guī)范設(shè)置、內(nèi)部控制和爭議點 4 個范疇。即由于道德認(rèn)知產(chǎn)生的道德?lián)鷳n受到道德規(guī)范和爭議點的影響。其中外部信任通過國家的宏觀調(diào)控和企業(yè)的需求滿足來減少社會影響,同樣的內(nèi)部控制通過使用者責(zé)任承擔(dān)和控制權(quán)的掌握來減少個體影響,從而共同影響道德?lián)鷳n,也就是說人類的各部分需要承擔(dān)起道德責(zé)任來減少道德?lián)鷳n(Johnson,2006)。規(guī)范 設(shè)置中規(guī)則難點、來源和發(fā)展性最終減少爭議點帶來的擔(dān)憂,實現(xiàn)調(diào)節(jié)作用。

5 討論

人工智能道德?lián)鷳n的因果關(guān)系

本研究發(fā)現(xiàn),大眾對于人工智能的道德認(rèn)知,即人機(jī)定位與認(rèn)識角度兩個范疇是產(chǎn)生道德?lián)鷳n的直接原因。人機(jī)定位方面,主要描述了大眾對于人類與人工智能異同和關(guān)系的認(rèn)識。大眾普遍認(rèn)為,意識、思維與情感等核心特征是人類獨有的,因此在與人工智能交互時,人類應(yīng)該始終處于主導(dǎo)地位。經(jīng)典范疇觀認(rèn)為,身體、心靈與世界是獨立的,正是因為這種獨立,人會將一切外在物作為獨立于“自我”的客體(Mcginn C,2015),以此保持自我的獨特。但隨著科技技術(shù)的發(fā)展,人類引以為傲的核心特征受到了挑戰(zhàn),智能和自主將不再是人類獨有的特性(Luciano Floridi,2016),人工智能可以獲得更強(qiáng)的思維能力,甚至模仿人類的情感過程,從而引發(fā)了對于人工智能的道德?lián)鷳n。人工智能的普及及表現(xiàn)出的巨大力量,使得大眾產(chǎn)生了價值觀影響、信息繭房和過度依賴的個體道德?lián)鷳n。人工智能是人類功能與價值的延伸,在給人類全新生活體驗的同時,也可以徹底改變?nèi)祟惖纳嫘螒B(tài)(Kevin Kelly,2009),在這個過程中,對人類的價值觀產(chǎn)生影響,其所“造成的人類分裂和對立,對人的內(nèi)在性、自主性、平等性、整體性的顛覆和消解可能是不可逆的”(常晉芳,2019)。同時,人工智能特有的數(shù)據(jù)分析優(yōu)勢, 使得它能收集并分析用戶的各項信息,并提供個性化、針對性的內(nèi)容,但在進(jìn)行個性化信息精準(zhǔn)推薦時, 會造成“信息繭房”的問題,用戶使用個性化推薦服務(wù)的時間與選擇信息的主動性成反比,技術(shù)進(jìn)步的同時會造成用戶對信息的無節(jié)制滿足(Katz J E,2002;張敏,2021),并逐漸縮小用戶接受信息的范圍, 造成信息的單一化,甚至使受眾產(chǎn)生依賴而進(jìn)一步導(dǎo)致價值迷失。隨著科技技術(shù)的發(fā)展,人工智能已經(jīng)在人類日常生活中扮演了十分重要的角色,在提供便利的同時也產(chǎn)生了過度依賴方面的擔(dān)憂。在各種智能化應(yīng)用場景中,人類可能有意識或無意識地依賴并服從于機(jī)器決策而行動(趙志耘,2021),從而模糊了人類與人工智能的異同與關(guān)系,造成道德上的擔(dān)憂。

在認(rèn)識角度方面,從發(fā)展態(tài)度、工具設(shè)定、理性優(yōu)勢三個不同層面描述了大眾對人工智能的普遍 看法。相關(guān)調(diào)查顯示,公眾對人工智能的普遍了解程度較高(李思琪,2019),前景較為看好?,F(xiàn)目 前,人工智能作為給人類提供服務(wù)的工具,以及它處理數(shù)據(jù)而自帶的理性優(yōu)勢,使得大眾認(rèn)為人工智 能會在以后的社會中扮演更加重要的角色,從而引發(fā)了隱私泄露、就業(yè)沖擊以及利益服務(wù)等的社會道 德?lián)鷳n。隱私權(quán)被認(rèn)為是一項基本的人格權(quán)利,而現(xiàn)在的人工智能技術(shù)的發(fā)展是數(shù)據(jù)“喂養(yǎng)”出來的(孫少晶,2019)。所以,基于對人工智能的認(rèn)識,大眾難免會產(chǎn)生隱私方面的擔(dān)憂。特別是,人工 智能的算法對于大眾而言完全是一個黑箱,信息往往在不知情的情況下就被收集了,人們難免對隱私 信息是否會被過度收集而心存疑慮(Bryson,2018)。歷史地看,每一次技術(shù)革命都會造成失業(yè)現(xiàn)象, 人工智能取代人的工作崗位并不僅僅局限于勞動密集型產(chǎn)業(yè)(李傳軍,2021),在一些智力密集型行 業(yè)同樣如此(王前,2021)。一項調(diào)查顯示,超過 60% 的人認(rèn)為人工智能將會造成勞動力過剩和大量失業(yè)(李思琪,2019)。同時,大眾對于當(dāng)前人工智能發(fā)展的程度還有疑慮,擔(dān)心一些技術(shù)上的局限 會導(dǎo)致嚴(yán)重的安全隱患,并且如果人工智能以利益為導(dǎo)向被使用,那后果是嚴(yán)重的。有學(xué)者表示,一 旦人工智能系統(tǒng)中植入了不良代碼,或者人工智能系統(tǒng)被惡人控制,那么,其造成的損害將是人類所 不能承受的(李傳軍,2021)。

而爭議點方面,主要體現(xiàn)了大眾對于人工智能更加抽象化的思考,主要分為三個方面,即情感層面、數(shù)據(jù)獲取和自主能力。而道德?lián)鷳n產(chǎn)生的根本原因是人們對于人工智能的爭議點,其中情感層面對應(yīng)著未知恐懼,而自主能力是構(gòu)建人工智能主體的動力源,這些無法確定的爭議點造成了道德?lián)鷳n。

人工智能道德?lián)鷳n的影響因素

道德認(rèn)知產(chǎn)生的道德?lián)鷳n受到了道德規(guī)范的影響,其中外部信任通過國家的宏觀調(diào)控和企業(yè)的需求滿足來減少由社會影響帶來的道德?lián)鷳n。新技術(shù)的發(fā)展,在帶來便利的同時,必定伴隨著陣痛,新技術(shù)的掌控者們占領(lǐng)了人工智能發(fā)展與應(yīng)用的制高點(張正清、張成崗,2018)。使人變成更加難以掌控和保護(hù)自己的隱私與自由,并面臨失業(yè)風(fēng)險的弱者(Thucydides,2013),從而引起大眾對于隱私、就業(yè)、 安全等方面的擔(dān)憂。而無論如何,在處理新技術(shù)的規(guī)制上.通過法律制度的調(diào)整顯然是必要的方式之一(Hamilton,1980)。而且,我國政府長久以來樹立的負(fù)責(zé)擔(dān)當(dāng)?shù)拇髧蜗?,也使得大眾普遍相信國家會運(yùn)用法律或政策等手段,對人工智能發(fā)展可能帶來的擔(dān)憂進(jìn)行管控。同時,據(jù)不完全統(tǒng)計,迄今為止國際上由不同國家、機(jī)構(gòu)和團(tuán)體公布的人工智能和機(jī)器人倫理標(biāo)準(zhǔn)文件已多達(dá) 50 余份。這表明,企業(yè)與設(shè)計者也會以產(chǎn)品安全和需求為基礎(chǔ),與國家政府合力避免道德?lián)鷳n情境的發(fā)生,以此來減少社會影響,也就是說人類的各部分需要承擔(dān)起道德責(zé)任來減少道德?lián)鷳n(Johnson,2006)同時,內(nèi)部控制通過使用者責(zé)任承擔(dān)和控制權(quán)的掌握來減少由個體影響帶來的道德?lián)鷳n。決策自主是人類實現(xiàn)自由的重要方面(Peterson M,2019),但是隨著人工智能的發(fā)展,機(jī)器已經(jīng)具備一定的自動決策能力,自動化道德決策可能存在使用戶完全脫離道德決策循環(huán)的風(fēng)險,進(jìn)而可能對用戶的道德自主構(gòu)成直接威脅(Millar J,2016),因此,大眾要求在人機(jī)交互中擁有控制權(quán),并在外部規(guī)則下進(jìn)行責(zé)任承擔(dān), 以保障人工智能在可控條件下發(fā)展,從而減少人工智能帶來的個體影響方面的道德?lián)鷳n。

規(guī)范設(shè)置方面,包含了規(guī)則難點、來源和發(fā)展性三個范疇。其中,規(guī)則來源強(qiáng)調(diào)了制定人工智能道德規(guī)則的參考點,人工智能技術(shù)的發(fā)展不應(yīng)該挑戰(zhàn)和改變?nèi)祟惞逃械膫惱硪?guī)范,應(yīng)該遵守人類長期以來遵守和執(zhí)行的倫理規(guī)范(閆坤如,2021),并轉(zhuǎn)化為具體的設(shè)計要求(Poel I V D,2013),規(guī)則難點反映了大眾對于人工智能發(fā)展問題的深刻反思,而規(guī)則發(fā)展性體現(xiàn)了規(guī)則應(yīng)該與技術(shù)一起與時俱進(jìn)。這些有關(guān)規(guī)則的看法最終減少了爭議點帶來的擔(dān)憂,即大眾通過對人工智能各方面規(guī)則制定的認(rèn)識,一定程度上解決了對于情感層面、自主決策及數(shù)據(jù)獲取方面的問題,從而有效緩解人工智能的道德?lián)鷳n。

6 結(jié)論

本研究通過扎根理論探索了大眾對于人工智能的道德認(rèn)知,并以道德?lián)鷳n為核心,構(gòu)建了大眾對人工智能道德?lián)鷳n雙層結(jié)構(gòu)模型。主要結(jié)論如下:(1)大眾對人工智能道德?lián)鷳n由因果層和影響層組成;(2) 人工智能道德?lián)鷳n產(chǎn)生的直接原因是人機(jī)定位和認(rèn)知角度。道德?lián)鷳n產(chǎn)生的根本原因是人們對于人工智能的爭議點;(3)人工智能道德?lián)鷳n受到道德規(guī)范和爭議點的影響。其中外部信任通過國家的宏觀調(diào)控和企業(yè)的需求滿足來減少社會影響,內(nèi)部控制通過使用者責(zé)任承擔(dān)和控制權(quán)的掌握來減少個體影響;(4)在大眾對于人工智能道德?lián)鷳n中可以通過規(guī)范設(shè)置的調(diào)節(jié)來減少爭議點帶來的擔(dān)憂。通過人工智能道德?lián)鷳n模型,可以了解到大眾在接受人工智能普及過程中最關(guān)注的問題,并由此探究解決方法,另外也可以為人工智能道德模型的搭建提供現(xiàn)實材料。

參考文獻(xiàn)

[1]Arkin R.Governing lethal behavior in autonomous robots[R].Chapman and Hall/CRC,2009.

[2]Bringsjord S,Taylor J.The divine-command approach to robot ethics[C].Robot Ethics:The Ethical and Social Implications of Robotics,2012.

[3]Brandt F,Conitzer V,Endriss U.Computational social choice[J].Multiagent systems,2012(2):213- 284.

[4]Brandt F,Conitzer V,Endriss U,et al.Handbook of computational social choice[M].Cambridge University Press,2016.

[5]Bryson J J.Patiency is not a virtue:the design of intelligent systems and systems of ethics[J].Ethics and Information Technology,2018,20(1):15-26.

[6]Bonnefon J F,Shariff A,Rahwan I.The social dilemma of autonomous vehicles[J].Science,2016,352(6293):1573-1576.

[7]Conitzer V,Sinnott-Armstrong W,Borg J S,et al.Moral decision making frameworks for artificial intelligence

[C]// National Conference on Artificial Intelligence.AAAI Press,2017.

[8]Johnson D G.Computer systems:Moral entities but not moral agents[J].Ethics and information technology, 2006,8(4):195-204.

[9]Katz J E,Aarkhus M A.Perpetual contact:Mobile communication,private talk,public performance[M].New York:Cambridge University Press,2002:1-30.

[10]Kelly K.Out of control:The new biology of machines,social systems,and the economic world[M]. Hachette UK,2009.

[11]McGinn C.Prehension:The hand and the emergence of humanity[M].MIT Press,2015.

[12]Millar J.An ethics evaluation tool for automating ethical decision-making in robots and self-driving cars[J]. Applied Artificial Intelligence,2016,30(8):787-809.

[13]Hooker J N,Kim T W N.Toward non-intuition-based machine and artificial intelligence ethics:A deontological approach based on modal logic[C].In Proceedings of the 2018 AAAI/ACM Conference on AI, Ethics,and Society,2018:130-136.

[14]Gunkel D J.The Machine Question:Critical Perspectives on AI,Robots,and Ethics[M].The MIT Press,2012.

[15]Peterson M.The value alignment problem:a geometric approach[J].Ethics and Information Technology, 2019,21(1):19-28.

[16]Poel I V D.Translating values into design requirements[M].Philosophy and engineering:Reflections on practice,principles and process,2013:253-266.

[17]Strauss A L.Qualitative analysis for social scientists[M].Cambridge university press,1987.

[18]Thucydides.The War of the Peloponnesians and the Athenians[M].Cambridge:Cambridge University Press,2013.

[19]Berkel N,Tag B,Goncalves J,et al.Human-centred artificial intelligence:a contextual morality perspective

[J].Behaviour & Information Technology,2020,41(3):1-17.

[20]陳銳,孫慶春.道德計算是否可能:對機(jī)器倫理的反思[J].科學(xué)技術(shù)哲學(xué)研究,2020,37(4): 74-80.

[21]崔中良,王慧莉,郭聃,等.人工智能研究中交互性機(jī)器倫理問題的透視及應(yīng)對[J].西安交通大學(xué) 學(xué)報(社會科學(xué)版),2020,40(1):123-132.

[22]李傳軍.人工智能發(fā)展中的倫理問題探究[J].湖南行政學(xué)院學(xué)報,2021(6):38-48.

[23]李楠.機(jī)器倫理的來源[J].倫理學(xué)研究,2021(1):103-108.

[24]李思琪.公眾對人工智能發(fā)展的認(rèn)識、擔(dān)憂與期待[J].國家治理,2019(4):22-47.

[25]張正清,張成崗.第四次革命:現(xiàn)代性的終結(jié)抑或重構(gòu):信息倫理對人工智能倫理的啟示[J].武漢 大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2018,71(3):177-184.

[26]孫少晶,陳昌鳳,李世剛,等.“算法推薦與人工智能”的發(fā)展與挑戰(zhàn)[J].新聞大學(xué),2019(6):1-8.

[27]王東,張振.人工智能倫理風(fēng)險的鏡像、透視及其規(guī)避[J].倫理學(xué)研究,2021(1):109-115.

[28]王前,曹昕怡.人工智能應(yīng)用中的五種隱性倫理責(zé)任[J].自然辯證法研究,2021,37(7):39- 45.

[29]閆坤如.人工智能設(shè)計的道德意蘊(yùn)探析[J].云南社會科學(xué),2021(5):28-35.

[30]鄭戈.在鼓勵創(chuàng)新與保護(hù)人權(quán)之間:法律如何回應(yīng)大數(shù)據(jù)技術(shù)革新的挑戰(zhàn)[J].探索與爭鳴,2016(7):79-85.

[31]常晉芳.智能時代的人—機(jī)—人關(guān)系:基于馬克思主義哲學(xué)的思考[J].東南學(xué)術(shù),2019(2):75- 82.

[32]張富利.全球風(fēng)險社會下人工智能的治理之道:復(fù)雜性范式與法律應(yīng)對[J].學(xué)術(shù)論壇,2019,42(3):68-80.

[33]張敏,王朋嬌,孟祥宇.智能時代大學(xué)生如何破解“信息繭房”:基于信息素養(yǎng)培養(yǎng)的視角[J].現(xiàn) 代教育技術(shù),2021,31(1):19-25.

[34]趙志耘,徐峰,高芳,等.關(guān)于人工智能倫理風(fēng)險的若干認(rèn)識[J].中國軟科學(xué),2021(6): 1-12.

A Bilevel Structure Analysis of Popular Moral Concerns about Artificial Intelligence: An Exploration Based on the Grounded Theory

Wang Yunxiao Long Shuai Huang Yixuan Chen Hua

Psychological Research and Counseling Center, Southwest Jiaotong University, Chengdu

Abstract: The moral system of artificial intelligence is dynamic and constantly updated. It is an important research direction to build a moral model based on the common moral concerns of the society. This paper aims to explore the publics moral concern model for artificial intelligence. Using grounded theory to analyze 17 interview data, 23 categories and 8 main categories were formed. From the structural relationship of the main categories, it can be concluded that the publics moral concern model for artificial intelligence consists of two layers, namely the causal layer and the influence layer. The causal layer is composed of moral cognition and controversial points, the controversial point is the root cause, and the moral cognition is the direct cause; the influence layer is composed of moral norms and controversial points, and affects moral concerns through mediation and adjustment. Research offers concrete paths to reduce public concerns about the ethics of AI.

Key words: AI; Moral concern; Ethical norms; Grounded theory

猜你喜歡
扎根理論人工智能
我校新增“人工智能”本科專業(yè)
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
基于扎根理論的會展場館觀眾滿意度影響因素研究
社會心理安全氛圍在工作場所欺凌中所起的作用
消費(fèi)者在線生成廣告行為阻礙因素及作用路徑研究
新聞界(2016年11期)2016-11-07 21:19:58
中國企業(yè)管理創(chuàng)新的驅(qū)動力
大學(xué)生網(wǎng)上訂餐意愿的定性研究
商(2016年27期)2016-10-17 05:25:42
下一幕,人工智能!
华池县| 巴林左旗| 金乡县| 黔南| 平顶山市| 罗定市| 宁德市| 乌什县| 烟台市| 拜城县| 宣城市| 富顺县| 岫岩| 山西省| 明光市| 惠州市| 南丹县| 金昌市| 汉阴县| 山西省| 邢台县| 宁陵县| 启东市| 黄骅市| 图木舒克市| 左云县| 通海县| 凤凰县| 长兴县| 新源县| 雷州市| 财经| 宝丰县| 宁蒗| 黎川县| 博野县| 瑞安市| 浦北县| 同德县| 海南省| 沙洋县|