国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

生成式人工智能時(shí)代的使用者倫理研究

2024-01-01 00:00:00閆宏秀楊映瑜
科普研究 2024年2期
關(guān)鍵詞:數(shù)字素養(yǎng)生成式人工智能

[摘 " 要] 在既有生成式人工智能倫理治理討論中,使用者層面的倫理長(zhǎng)久以來(lái)遭到忽視。交互性與生成性作為生成式人工智能的重要屬性為使用者打開(kāi)了一條呈現(xiàn)自我的有效路徑,生成式人工智能時(shí)代中使用者與開(kāi)發(fā)者的融合早已超過(guò)生產(chǎn)者與消費(fèi)者在經(jīng)濟(jì)活動(dòng)中的融合,走向了人類(lèi)社會(huì)形態(tài)的重構(gòu)與人類(lèi)未來(lái)的重塑。因此,使用者倫理的出場(chǎng)與前置應(yīng)被視為數(shù)字素養(yǎng)的未來(lái)發(fā)展方向。本文將個(gè)人、社會(huì)兩個(gè)層面與積極倫理、消極倫理兩個(gè)維度相結(jié)合所構(gòu)建的使用者倫理矩陣,為使用者在面對(duì)、應(yīng)用生成式人工智能時(shí)所應(yīng)遵守的行為道德準(zhǔn)則和規(guī)范提供了基本框架。為了更好地實(shí)施這一框架,需要技術(shù)使用者、技術(shù)設(shè)計(jì)(開(kāi)發(fā))者、技術(shù)監(jiān)管者三方共同協(xié)力,推動(dòng)人與技術(shù)的關(guān)系走向緊密與向善,為人類(lèi)的福祉與未來(lái)保駕護(hù)航。

[關(guān)鍵詞]生成式人工智能 " 使用者倫理 " 技術(shù)道德化 " 數(shù)字素養(yǎng)

[中圖分類(lèi)號(hào)] "B82-057;TP18;N4 [文獻(xiàn)標(biāo)識(shí)碼] A [ DOI ] 10.19293/j.cnki.1673-8357.2024.02.003

近年來(lái),以GPT-4、Sora等為代表的生成式人工智能作為一種科技創(chuàng)新,在推動(dòng)新質(zhì)生產(chǎn)力發(fā)展的同時(shí),其隱含的不確定性后果和潛在倫理風(fēng)險(xiǎn)也越來(lái)越被社會(huì)所關(guān)注。交互性與生成性作為生成式人工智能的重要屬性為使用者打開(kāi)了一條呈現(xiàn)自我的有效路徑,并與設(shè)計(jì)者共同推進(jìn)技術(shù)的發(fā)展。特別是隨著生成式人工智能技術(shù)的易用性不斷提升,普通使用者的地位也日益凸顯,并成為推動(dòng)技術(shù)革新和應(yīng)用普及的關(guān)鍵力量。他們不僅是技術(shù)的受益者,更是技術(shù)的塑造者和傳播者。然而,面對(duì)日新月異的生成式人工智能,使用者自身應(yīng)當(dāng)建立并遵守何種倫理規(guī)則以應(yīng)對(duì)技術(shù)的挑戰(zhàn)卻鮮有討論。

根據(jù)《生成式人工智能服務(wù)管理暫行辦法》,生成式人工智能技術(shù)指的是“具有文本、圖片、音頻、視頻等內(nèi)容生成能力的模型及相關(guān)技術(shù)”[1]。目前,在生成式人工智能倫理治理的討論中,企業(yè)和國(guó)家層面的倫理議題受到了廣泛關(guān)注。這些研究多集中于企業(yè)內(nèi)部的倫理審查機(jī)制建設(shè)[2],包括人工智能領(lǐng)域的立法以及政策性文件、行業(yè)技術(shù)標(biāo)準(zhǔn)、行業(yè)協(xié)會(huì)自律公約、行業(yè)協(xié)會(huì)發(fā)布的倡議書(shū)等[3]。對(duì)比之下,目前學(xué)界對(duì)于使用者層面的倫理討論卻相對(duì)較少,這反映出生成式人工智能時(shí)代背景下的使用者倫理在一定程度上并未受到社會(huì)的關(guān)注與探討??v觀人工智能發(fā)展史,使用者在生成式人工智能時(shí)代的重要性已然不可同以往等量齊觀,這既是令人欣慰的技術(shù)路徑改變,同時(shí)也帶來(lái)了使用者治理的難題。

正如習(xí)近平總書(shū)記所指出:“要加強(qiáng)人工智能同保障和改善民生的結(jié)合,推動(dòng)人工智能在人們?nèi)粘9ぷ?、學(xué)習(xí)、生活中的深度運(yùn)用,創(chuàng)造更加智能的工作方式和生活方式。”[4]隨著未來(lái)生成式人工智能的普及,使用者作為技術(shù)的最終目的與指向,亟須重新審視自身,推動(dòng)使用者倫理的出場(chǎng)與構(gòu)建,以期與技術(shù)發(fā)展相協(xié)同,共同守護(hù)人類(lèi)的福祉與未來(lái)。

1使用者倫理出場(chǎng)的技術(shù)圖譜:Web3.0背景下的“產(chǎn)消者”

1.1 “產(chǎn)消者”的新樣態(tài)

針對(duì)科學(xué)技術(shù)的發(fā)展,阿爾文·托夫勒(Alvin Toffler)從經(jīng)濟(jì)活動(dòng)的視角提出,“第一次浪潮社會(huì)的產(chǎn)消合一者在以高新科技為基礎(chǔ)的第三次浪潮時(shí)代又將重新成為經(jīng)濟(jì)活動(dòng)的中心”[5]。產(chǎn)消者是指那些參與生產(chǎn)活動(dòng)的消費(fèi)者,他們既是消費(fèi)者又是生產(chǎn)者。產(chǎn)消者不以交換目的而進(jìn)行生產(chǎn),而是出于自己的興趣、愛(ài)好、需求而無(wú)償?shù)厣a(chǎn)產(chǎn)品或者服務(wù)。同時(shí)隨著消費(fèi)者對(duì)生產(chǎn)過(guò)程的介入越多,其在生產(chǎn)活動(dòng)中的必要性也就越顯著,從Web1.0時(shí)代到Web3.0時(shí)代的演變歷程(見(jiàn)表1)來(lái)看,也恰好印證了這一判斷。

Web1.0時(shí)代始于20世紀(jì)90年代,使用者主要通過(guò)互聯(lián)網(wǎng)網(wǎng)頁(yè)(瀏覽器)來(lái)獲取信息,但彼時(shí)的網(wǎng)頁(yè)由HTML代碼編寫(xiě),網(wǎng)頁(yè)內(nèi)容是固定的,不會(huì)因?yàn)槭褂谜叩慕换ザM(jìn)行動(dòng)態(tài)變化。同時(shí),網(wǎng)頁(yè)內(nèi)容是由網(wǎng)站開(kāi)發(fā)人員以及專(zhuān)業(yè)的內(nèi)容創(chuàng)作者提供的,即專(zhuān)業(yè)生成內(nèi)容(Professional Generated Content,PGC),普通使用者在這一階段只能作為讀者閱讀信息,而無(wú)法創(chuàng)造內(nèi)容。在這一階段,生產(chǎn)者和使用者(消費(fèi)者)是壁壘分明的,且相對(duì)生產(chǎn)者而言,使用者的話語(yǔ)權(quán)和地位都較為低微。長(zhǎng)此以往,Web1.0時(shí)代在“作者少、讀者多”的情況下,仍然采取中心化的數(shù)據(jù)存儲(chǔ)方式,導(dǎo)致使用者所能享受到的資源十分匱乏,因此Web1.0時(shí)代很快被Web2.0時(shí)代所取代。

2004—2022年大致處于Web2.0時(shí)代,使用者不再僅僅是讀者,他們可以通過(guò)各類(lèi)動(dòng)態(tài)網(wǎng)站參與在線編寫(xiě)和內(nèi)容修改而成為創(chuàng)作者,即使用者生成內(nèi)容(User-Generated Content,UGC)。在這一時(shí)期,UGC的創(chuàng)作途徑為人們通過(guò)各類(lèi)社交平臺(tái)分享自己創(chuàng)作的內(nèi)容。通過(guò)去中心化的數(shù)據(jù)共享和協(xié)作,不同的組織或個(gè)人之間進(jìn)行共享和協(xié)作使群體的內(nèi)容創(chuàng)造力不斷提升。不過(guò)在這一階段,UGC的創(chuàng)作主力仍然是擁有專(zhuān)門(mén)技能的意見(jiàn)領(lǐng)袖,普通使用者的潛力仍待發(fā)掘。

2022年之后進(jìn)入Web3.0時(shí)代,通過(guò)運(yùn)用生成式人工智能,使用者可以與機(jī)器協(xié)作,共同生成內(nèi)容,即人工智能生成內(nèi)容(AI-Generated Content,AIGC)。不同于前兩個(gè)階段,生成式人工智能的顛覆性在于引發(fā)了生產(chǎn)方式的變革,而非僅僅局限于托夫勒所指的商品活動(dòng)過(guò)程。

1.2生成式人工智能視角的“產(chǎn)消者”

在生成式人工智能中,使用者與設(shè)計(jì)者的融合早已超出生產(chǎn)者與消費(fèi)者在經(jīng)濟(jì)活動(dòng)中的融合,走向了人類(lèi)社會(huì)形態(tài)的重構(gòu)與人類(lèi)未來(lái)的重塑。

一方面,生成式人工智能開(kāi)始替代人類(lèi)非物質(zhì)形式的勞動(dòng)。自從第二次工業(yè)革命引發(fā)的工業(yè)化、機(jī)械化勞動(dòng)大規(guī)模地取代了人類(lèi)的體力和物質(zhì)勞動(dòng)以后,生成式人工智能開(kāi)始沖擊人類(lèi)對(duì)于腦力和非物質(zhì)勞動(dòng)的“獨(dú)占”地位。目前,AIGC已在各類(lèi)內(nèi)容創(chuàng)作領(lǐng)域布局,如文本生成有ChatGPT,圖像生成有Stable Diffusion、Midjourney,視頻生成有Sora等。通過(guò)分布式的數(shù)據(jù)存儲(chǔ)和分享,以及在先進(jìn)算法和強(qiáng)大算力的加持下,未來(lái)人類(lèi)的生產(chǎn)力和創(chuàng)造力或?qū)㈦y以離開(kāi)生成式人工智能的支撐。與此同時(shí),這也引發(fā)了人類(lèi)對(duì)于自身地位的懷疑,或許未來(lái)從事非物質(zhì)勞動(dòng)的主體不再僅僅是人,機(jī)器也不再是被動(dòng)的工具,人機(jī)共生已是不可阻擋的趨勢(shì)。

另一方面,在人機(jī)共生的進(jìn)程中,使用者已然成為中樞。不同于Web1.0和Web2.0時(shí)代,AIGC背景下的所有使用者從廣義上而言已參與到生產(chǎn)行為中?!罢麄€(gè)世界,我們每一個(gè)人,都在為人工智能做貢獻(xiàn)。每當(dāng)我們上網(wǎng),使用我們的智能手機(jī)、信用卡或社交媒體,通過(guò)自動(dòng)收費(fèi)站,播放流媒體電影、看電視,都是在為人工智能做貢獻(xiàn)?!?[6]目前,生成式人工智能的訓(xùn)練數(shù)據(jù)來(lái)自互聯(lián)網(wǎng)的文本、音視頻和聊天記錄等,同時(shí)使用者在使用生成式人工智能所產(chǎn)生的數(shù)據(jù)和信息又“反哺”為訓(xùn)練數(shù)據(jù),幫助大模型更新迭代。在這一過(guò)程中,用戶(hù)的消費(fèi)行為兼具了生產(chǎn)性質(zhì)。在托夫勒那里,“產(chǎn)消者”仍需經(jīng)過(guò)一道商品交換,且消費(fèi)者并沒(méi)有真正參與到勞動(dòng)工具的制造中,但在Web3.0時(shí)代,使用者不僅直接參與到了勞動(dòng)工具的制造中,他們的消費(fèi)資料還源源不斷轉(zhuǎn)換為生產(chǎn)資料,進(jìn)而推動(dòng)生產(chǎn)力的發(fā)展。因此,生成式人工智能的消費(fèi)者超越了托夫勒所處的時(shí)代,并引發(fā)了本體論意義上的變革。

綜上,生成式人工智能推動(dòng)了勞動(dòng)形式、生產(chǎn)關(guān)系的轉(zhuǎn)變,打破了傳統(tǒng)的生產(chǎn)者和消費(fèi)者的平衡,逐漸呈現(xiàn)出了使用者成為AIGC時(shí)代重要力量的趨勢(shì)。從PGC時(shí)代的開(kāi)發(fā)者(生產(chǎn)者),到UGC時(shí)代的部分使用者(擁有專(zhuān)門(mén)技能的意見(jiàn)領(lǐng)袖),最后到AIGC時(shí)代的全體使用者(產(chǎn)消者),這既是人機(jī)共生所帶來(lái)的生產(chǎn)力解放,也是潛在的人類(lèi)生存危機(jī)。

1.3技術(shù)發(fā)展亟須使用者倫理的出場(chǎng)

從Web1.0到Web3.0時(shí)代,使用者的數(shù)量在不斷增加,而這種數(shù)量上的無(wú)限擴(kuò)大也將導(dǎo)致秩序的混亂。得益于人工智能使用成本的降低,早期Web1.0只能搭載在電腦終端上,而該時(shí)期的電腦售價(jià)昂貴,只有部分技術(shù)精英才能夠承擔(dān),而到Web3.0時(shí)代,生成式人工智能已經(jīng)可以在手機(jī)上運(yùn)行,并且無(wú)須使用者掌握編程語(yǔ)言,只需自然語(yǔ)言即可使用。

根據(jù)第53次《中國(guó)互聯(lián)網(wǎng)絡(luò)發(fā)展?fàn)顩r統(tǒng)計(jì)報(bào)告》,截至 2023年12月,我國(guó)手機(jī)網(wǎng)民規(guī)模達(dá) 10.92億人[7]。這也從另一方面啟示我們,面對(duì)數(shù)量龐大且素質(zhì)良莠不齊的使用者群體,建立并普及使用者倫理應(yīng)當(dāng)是必須且急迫的社會(huì)任務(wù)。

2技術(shù)倫理的新面向:使用者倫理作為“將技術(shù)道德化”的補(bǔ)充

將技術(shù)道德化(Moralizing Technology),即將道德理念嵌入到技術(shù)設(shè)計(jì)中,從而使技術(shù)物能引導(dǎo)和規(guī)范人的行為 [8]。在生成式人工智能的設(shè)計(jì)中,道德物化已有所體現(xiàn)。例如,近年來(lái)所提出的“為社會(huì)負(fù)責(zé)任的人工智能”(Socially Responsible Artificial Intelligence)“為社會(huì)負(fù)責(zé)任的人工智能算法”(Socially Responsible Artificial Intelligence Algorithms,SARs)等均明確將社會(huì)責(zé)任與人工智能的發(fā)展置于一個(gè)共同的框架之中[9]。此外,各國(guó)所推出的相關(guān)倡議與框架,如中國(guó)發(fā)布的《全球人工智能治理倡議》,美國(guó)發(fā)布的《負(fù)責(zé)任的人工智能戰(zhàn)略和實(shí)施路徑》等,也都提及在算法設(shè)計(jì)、技術(shù)開(kāi)發(fā)、產(chǎn)品研發(fā)與應(yīng)用過(guò)程中,應(yīng)避免歧視、偏見(jiàn)等問(wèn)題。雖然在設(shè)計(jì)中嵌入道德是可行的,但仍不足以應(yīng)對(duì)嚴(yán)峻的人工智能治理困境,“將技術(shù)道德化”在某些情境下仍然會(huì)有“失靈”的潛在風(fēng)險(xiǎn)。

2.1技術(shù)調(diào)節(jié)的反調(diào)節(jié)與再調(diào)節(jié)

技術(shù)具有多穩(wěn)態(tài)性,技術(shù)設(shè)計(jì)者與使用者二者之間的意向性并非是連貫的或一致的,甚至可能是對(duì)抗性的。例如,在設(shè)計(jì)ChatGPT、Bing Chat等聊天機(jī)器人時(shí),設(shè)計(jì)者出于安全性能的考量會(huì)拒絕為使用者生成諸如販毒、偷竊等有害的教學(xué)內(nèi)容,但使用者通過(guò)各類(lèi)“越獄”技巧即可繞過(guò)ChatGPT的安全屏障而獲得答案,這類(lèi)行為屬于技術(shù)的反調(diào)節(jié)。就目前的情況而言,在社交媒體、論壇,一些含有不良傾向的“越獄”技巧、經(jīng)驗(yàn)仍在被用戶(hù)分享和轉(zhuǎn)載,且少有監(jiān)管,因此,這種反調(diào)節(jié)的倫理風(fēng)險(xiǎn)需要引起高度重視。

與此同時(shí),技術(shù)調(diào)節(jié)的再調(diào)節(jié),即不能預(yù)先假定技術(shù)設(shè)計(jì)者都是誠(chéng)實(shí)而完美的,設(shè)計(jì)者的設(shè)計(jì)行為必須得到再調(diào)節(jié)。如廣州地鐵女子裸照事件,一名網(wǎng)紅在地鐵拍攝的正常照片被惡意“一鍵脫衣”成“裸照”,虛假照片的迅速流傳嚴(yán)重?fù)p害了當(dāng)事人的名譽(yù)權(quán)和肖像權(quán)。但與技術(shù)設(shè)計(jì)者初衷相背離的是,這類(lèi)軟件設(shè)計(jì)之初是為了幫助女性在網(wǎng)絡(luò)上虛擬試衣或智能挑衣 [10]。由此可見(jiàn),反調(diào)節(jié)與再調(diào)節(jié)都超出了技術(shù)設(shè)計(jì)者的可控范圍,二者均與使用者的意圖、行為息息相關(guān)。

2.2“將技術(shù)道德化”中的使用者問(wèn)題

就將技術(shù)道德化而言,從《將技術(shù)道德化》一書(shū)的副標(biāo)題“理解與設(shè)計(jì)物的道德”就可以看出,設(shè)計(jì)者被賦予了高度關(guān)注,但這并非僅僅指通過(guò)設(shè)計(jì)將道德予以技術(shù)化,進(jìn)而將技術(shù)的道德問(wèn)題置于設(shè)計(jì)端,而是力圖通過(guò)對(duì)物的道德解碼來(lái)開(kāi)啟對(duì)技術(shù)道德構(gòu)成問(wèn)題的探討。就這種構(gòu)成而言,設(shè)計(jì)者與使用者的意向性在將技術(shù)道德化的理論中均被關(guān)注。然而,鑒于設(shè)計(jì)者在技術(shù)環(huán)節(jié)中的重要性,技術(shù)設(shè)計(jì)者的倫理被高度重視。特別是,隨著技術(shù)日趨自主與智能化的趨勢(shì),技術(shù)設(shè)計(jì)者的倫理素養(yǎng)、價(jià)值取向等逐漸被視為技術(shù)倫理問(wèn)題的核心。

就技術(shù)設(shè)計(jì)者的現(xiàn)狀來(lái)看,目前主流的生成式人工智能多由歐美發(fā)達(dá)國(guó)家的白人男性工程師開(kāi)發(fā),這些技術(shù)設(shè)計(jì)者的價(jià)值偏好也被映射到了生成式人工智能內(nèi)容生成的各個(gè)環(huán)節(jié)。例如,ChatGPT所用的語(yǔ)料就主要來(lái)自維基百科(Wikipedia)、Common Crawl、Web Text等語(yǔ)料庫(kù),這些語(yǔ)料庫(kù)語(yǔ)種類(lèi)型多為英語(yǔ),這也許會(huì)導(dǎo)致非英語(yǔ)國(guó)家的使用者在使用生成式人工智能時(shí)不免受到來(lái)自西方價(jià)值觀念和文化思想的沖擊,同樣非白人群體、女性群體也因訓(xùn)練數(shù)據(jù)的局限性而備受人工智能的偏見(jiàn)。因此,事實(shí)證明技術(shù)設(shè)計(jì)者很難保證完全的價(jià)值中立,如果僅以技術(shù)設(shè)計(jì)者的“法則”來(lái)發(fā)展技術(shù),使用者被剝奪參與技術(shù)民主決策的權(quán)利,那么技術(shù)就會(huì)成為技術(shù)專(zhuān)家專(zhuān)制的“利維坦”。大至國(guó)家安全、意識(shí)形態(tài),小至弱勢(shì)群體的利益,都應(yīng)由多方群體協(xié)商參與,而非僅由技術(shù)設(shè)計(jì)者獨(dú)攬決策大權(quán)。

一旦任由技術(shù)設(shè)計(jì)者成為類(lèi)似的“統(tǒng)治階級(jí)”,技術(shù)治理可能異化為技術(shù)統(tǒng)治,而避免這種命運(yùn)就需要落實(shí)再治理的制度設(shè)計(jì)[11]。易言之,采取將技術(shù)道德化的方式雖能在一定程度上用技術(shù)引導(dǎo)使用者做出道德行為,但技術(shù)調(diào)節(jié)仍然會(huì)面臨諸如反調(diào)節(jié)與再調(diào)節(jié)、技術(shù)統(tǒng)治論等問(wèn)題,這些問(wèn)題超出了技術(shù)設(shè)計(jì)者的客觀能力范圍,且與使用者層面息息相關(guān)。究其原因,技術(shù)本質(zhì)上仍然有社會(huì)屬性,它指向的另一端是使用者,因此,作為實(shí)際倫理受益者和風(fēng)險(xiǎn)受害者的使用者問(wèn)題也亟待解決。

2.3“將技術(shù)道德化”與使用者倫理的出場(chǎng)

使用者倫理的出場(chǎng)作為“將技術(shù)道德化”的補(bǔ)充,意味著更多元的技術(shù)倫理,重視使用者與技術(shù)的關(guān)系,能推動(dòng)多方利益群體的協(xié)同,為將技術(shù)道德化的內(nèi)在主義進(jìn)路進(jìn)行補(bǔ)充,進(jìn)而推動(dòng)生成式人工智能更好地走向善與發(fā)展之路。

生成式人工智能作為一種尚處于研發(fā)升級(jí)階段的新興技術(shù),與之相關(guān)的倫理分析往往面臨“科林格里奇困境”問(wèn)題,即過(guò)早且過(guò)嚴(yán)的控制容易導(dǎo)致技術(shù)難以獲得爆發(fā)與突破;過(guò)晚控制則易導(dǎo)致技術(shù)發(fā)展失控,再治理起來(lái)將耗費(fèi)更多的時(shí)間、金錢(qián)、人力。為此,有學(xué)者指出,為破解這一難題,AIGC的治理應(yīng)建立“從決策層、技術(shù)層到應(yīng)用層,從標(biāo)準(zhǔn)規(guī)范、管理制度到工具支撐,自上而下貫穿AIGC發(fā)展底層數(shù)據(jù)治理的完整生態(tài)體系。在AIGC運(yùn)行的各個(gè)階段以及基于數(shù)據(jù)合規(guī)治理框架規(guī)制的各個(gè)環(huán)節(jié)之間需要對(duì)規(guī)制目標(biāo)和宗旨取得共識(shí),以確保合規(guī)高效、科學(xué)動(dòng)態(tài)地完成治理目標(biāo)”[12]。而就現(xiàn)狀來(lái)看,將技術(shù)道德化已從決策層、技術(shù)層引導(dǎo)使用者如何應(yīng)然地使用生成式人工智能,但具體到使用者如何實(shí)然地使用層面則進(jìn)一步呼喚使用者倫理的出場(chǎng)。

實(shí)證研究表明,公正、責(zé)任、隱私與透明度是使用者在實(shí)踐中難以察覺(jué)的倫理問(wèn)題,并且不同身份的使用者存在個(gè)體利益和社會(huì)影響感知上的明顯差異 [13]。這意味著,使用者視角的倫理層次存在著被遮蔽的現(xiàn)象,應(yīng)在使用者的實(shí)然層面有針對(duì)性地建構(gòu)相應(yīng)的、可操作的倫理框架。而就將技術(shù)道德化而言,其自身作為一種前瞻性的技術(shù)倫理分析,仍然會(huì)面臨對(duì)技術(shù)未來(lái)的猜測(cè)同真實(shí)使用行為不符的情況。易言之,這種方法忽視了生活經(jīng)驗(yàn)中的基本規(guī)范性問(wèn)題。為彌補(bǔ)這一缺憾,以湯姆·波爾森(Tom Brsen)為代表的技術(shù)人類(lèi)學(xué)派提出構(gòu)筑以專(zhuān)家、使用者、人工物三方互動(dòng)的人類(lèi)學(xué)模型,“技術(shù)哲學(xué)更多的是從工程師、專(zhuān)家的角度思考問(wèn)題,而奧爾堡學(xué)派的技術(shù)人類(lèi)學(xué)方式則更傾向于對(duì)用戶(hù)、顧客等技術(shù)的使用者進(jìn)行研究” [14]。就理論方法而言,技術(shù)人類(lèi)學(xué)強(qiáng)調(diào),“微觀層面?zhèn)€體與實(shí)體之間的具體互動(dòng);制度層面應(yīng)有成文的規(guī)范和具體化的實(shí)踐;社會(huì)層面強(qiáng)調(diào)支撐微觀層面和制度層面的意識(shí)形態(tài)和政治進(jìn)程”[15]。因此,使用者倫理作為將技術(shù)道德化的補(bǔ)充,將從一種技術(shù)人類(lèi)學(xué)的視角為使用者提供“實(shí)然”的倫理框架。

3基于數(shù)字素養(yǎng)新發(fā)展視角的使用者倫理:從唯技能論到全民倫理啟蒙

隨著人工智能的浪潮逐漸蔓延至更多人群,傳統(tǒng)的數(shù)字素養(yǎng)(Digital Literacy)概念已經(jīng)不足以應(yīng)對(duì)生成式人工智能時(shí)代的挑戰(zhàn)。在此基礎(chǔ)之上,拓寬數(shù)字素養(yǎng)的內(nèi)涵與邊界,使數(shù)字素養(yǎng)能為全體使用者所共享是確保全社會(huì)享有數(shù)字福祉、規(guī)避數(shù)字風(fēng)險(xiǎn)的必由之路。

3.1技能培養(yǎng)視角下的數(shù)字素養(yǎng)

理查德·蘭納姆(Richard Lanham)于1995年提出數(shù)字素養(yǎng)的概念,他認(rèn)為“素養(yǎng)”在數(shù)字時(shí)代的涵義應(yīng)當(dāng)從理解文本拓展到圖像、聲音、視頻等多媒體信息形態(tài)[16]。

在20世紀(jì)與21世紀(jì)之交,數(shù)字素養(yǎng)主要指使用者對(duì)數(shù)字技術(shù)的學(xué)習(xí)能力與技術(shù)技能。這種觀念的形成是因?yàn)樽?0世紀(jì)70年代計(jì)算機(jī)應(yīng)用程序誕生以來(lái),早期使用者必須通過(guò)專(zhuān)門(mén)、系統(tǒng)的學(xué)習(xí)才能使用與特定任務(wù)或工作相關(guān)的計(jì)算機(jī)系統(tǒng)。因此,數(shù)字素養(yǎng)一詞的出現(xiàn)正是用來(lái)評(píng)估與計(jì)算機(jī)相關(guān)的基本概念和技能的。隨著計(jì)算機(jī)技能在人們當(dāng)代社會(huì)生活及工作中的重要性不斷增強(qiáng),數(shù)字素養(yǎng)已逐漸進(jìn)入幼兒教育、中小學(xué)教育領(lǐng)域。在K-12基礎(chǔ)教育階段,數(shù)字素養(yǎng)的教育更偏向于學(xué)習(xí)人工智能的知識(shí)和技能,如計(jì)算機(jī)科學(xué)基礎(chǔ)、數(shù)據(jù)挖掘、機(jī)器編程等,從而為學(xué)生未來(lái)的工作需求打下基礎(chǔ)。

值得注意的是,以色列學(xué)者約拉姆·埃謝特-阿爾卡萊(Yoram Eshet-Alkalai)在2004年依據(jù)功能將數(shù)字素養(yǎng)劃分為圖像素養(yǎng)(視覺(jué)識(shí)讀)、創(chuàng)新素養(yǎng)(創(chuàng)造性生產(chǎn))、分支素養(yǎng)(新思維)、信息素養(yǎng)(辨別真?zhèn)危┘啊吧鐣?huì)—情感”素養(yǎng)(共享與情感交流)五個(gè)層次[17]。

3.2對(duì)唯技能論的反思

無(wú)疑,上述這種以掌握具體技能操作為目標(biāo)的數(shù)字素養(yǎng),過(guò)度強(qiáng)調(diào)實(shí)用性和現(xiàn)實(shí)性的功能主義導(dǎo)向或?qū)㈦y以應(yīng)對(duì)生成式人工智能對(duì)人類(lèi)社會(huì)造成的具有顛覆性質(zhì)的潛在倫理風(fēng)險(xiǎn)。當(dāng)下,這種唯技能論的數(shù)字素養(yǎng)教育思潮的弊端也逐漸顯現(xiàn)出來(lái)。實(shí)證研究發(fā)現(xiàn),學(xué)生很少關(guān)注倫理問(wèn)題,如人工智能和法律責(zé)任的偏見(jiàn)(8%)、人工智能和知識(shí)產(chǎn)權(quán)問(wèn)題(9%),因?yàn)檫@對(duì)于他們的就業(yè)并無(wú)直接益處[18]。因此,數(shù)字素養(yǎng)的教育不僅應(yīng)該關(guān)注提高學(xué)生的人工智能能力和興趣,還應(yīng)該幫助學(xué)生認(rèn)識(shí)到作為使用者應(yīng)如何去正確應(yīng)對(duì)人工智能帶來(lái)的社會(huì)影響和倫理問(wèn)題。

基于此,學(xué)界對(duì)這類(lèi)定義進(jìn)行了反思和批判,“數(shù)字素養(yǎng)”的外延也逐漸擴(kuò)大。數(shù)字素養(yǎng)教育的核心內(nèi)容應(yīng)該集中在數(shù)字技術(shù)素養(yǎng)、針對(duì)動(dòng)態(tài)文本的思辨能力、創(chuàng)造性生產(chǎn)與自我表達(dá)能力、互動(dòng)交往能力以及數(shù)字媒介倫理[19]。同樣,在各國(guó)及各大國(guó)際組織的官方文件中,倫理也作為重要因素被納入數(shù)字素養(yǎng)框架。例如,《歐洲終身學(xué)習(xí)核心素養(yǎng)框架》(European Commission:Key Competences for Lifelong Learning)明確要求使用者自身需要以批判性的態(tài)度看待從數(shù)字渠道所獲信息及數(shù)據(jù)的有效性、可靠性和影響,并且了解有關(guān)數(shù)字技術(shù)使用的法律和倫理原則;同時(shí)要以符合倫理的、安全的、負(fù)責(zé)任的方式來(lái)使用數(shù)字工具[20]。我國(guó)的《提升全民數(shù)字素養(yǎng)與技能行動(dòng)綱要》則將數(shù)字素養(yǎng)明確定義為,數(shù)字社會(huì)公民學(xué)習(xí)工作生活應(yīng)具備的數(shù)字獲取、制作、使用、評(píng)價(jià)、交互、分享、創(chuàng)新、安全保障、倫理道德等一系列素質(zhì)與能力的集合,并提出推動(dòng)全民數(shù)字道德倫理水平大幅提升的發(fā)展目標(biāo)[21]。

3.3數(shù)字素養(yǎng)的新意涵:全民倫理啟蒙

縱觀近幾十年數(shù)字素養(yǎng)概念與戰(zhàn)略的發(fā)展,其自身已突破唯技能論的桎梏,走向了倫理層次的啟蒙。因此,不能把數(shù)字素養(yǎng)看作簡(jiǎn)單的數(shù)字獲取與使用等技術(shù)性技能,還要看到與之相關(guān)聯(lián)的思維和行為模式。換言之,公眾應(yīng)具備的數(shù)字素養(yǎng)與技能,不僅指公眾具備與信息通信等數(shù)字技術(shù)相關(guān)的知識(shí)和技能,還包括他們?cè)跀?shù)字社會(huì)中的價(jià)值觀、倫理、行為和思維方式等方面的素養(yǎng)。而從使用者的角度來(lái)看,包含倫理啟蒙的數(shù)字素養(yǎng)應(yīng)當(dāng)惠及全體公民,不應(yīng)僅局限于K-12教育階段的學(xué)生。

在使用者群體中,我們尤其要關(guān)心“銀發(fā)一族”對(duì)于人工智能的接受度和學(xué)習(xí)能力。諸如其文化程度、經(jīng)濟(jì)能力的不足,以及網(wǎng)絡(luò)安全隱患催生的“數(shù)字恐懼”、從現(xiàn)實(shí)世界到虛擬空間的過(guò)渡所引發(fā)的“數(shù)字排斥”等問(wèn)題,導(dǎo)致部分老年群體不愿學(xué)、很難學(xué)習(xí)人工智能的相關(guān)知識(shí)[22],這也使得老年群體成為不法分子利用人工智能犯罪的主要目標(biāo)。在技術(shù)的裹挾下,這類(lèi)使用者如果不具備基礎(chǔ)的人工智能素養(yǎng),不僅無(wú)法享受到生成式人工智能所帶來(lái)的福利,反而很容易被不法分子利用人工智能加害。這類(lèi)情況也啟示公眾,在已有的數(shù)字素養(yǎng)框架中,總是被首先強(qiáng)調(diào)的那些數(shù)字技術(shù)與技能在現(xiàn)實(shí)生活中并不一定真正能為使用者所有,因此將使用者倫理前置、倡導(dǎo)倫理先行或許是更適宜數(shù)字素養(yǎng)未來(lái)發(fā)展的新方向。

4生成式人工智能時(shí)代的使用者倫理框架

4.1 使用者倫理的涵義及其矩陣框架

廣而言之,使用者倫理即是在生成式人工智能時(shí)代,使用者在面對(duì)、應(yīng)用這項(xiàng)技術(shù)所應(yīng)該遵守的行為道德準(zhǔn)則與規(guī)范的總稱(chēng)。使用者倫理取向可分為積極倫理與消極倫理兩個(gè)維度。所謂積極倫理,是指使用者以積極的態(tài)度來(lái)釋放技術(shù)給人帶來(lái)的正面價(jià)值,如促進(jìn)人類(lèi)解放與人類(lèi)的全面自由發(fā)展等[23]。消極倫理,則是指強(qiáng)調(diào)使用者的道德義務(wù),節(jié)制、禁止某些行為。同樣,使用者倫理還有個(gè)人倫理層與社會(huì)倫理層兩種層面。將它們與積極倫理以及消極倫理兩個(gè)維度相結(jié)合,則可得到一個(gè)基本的使用者倫理矩陣框架(見(jiàn)表2)。

通過(guò)該矩陣框架,可初步梳理出使用者倫理的詳細(xì)內(nèi)涵并用其指導(dǎo)使用者正確面對(duì)、使用生成式人工智能。

4.2 使用者倫理框架的實(shí)施與踐行

使用者倫理框架雖直接關(guān)涉使用者,但其實(shí)施與踐行仍然依賴(lài)多方共同努力。

首先,就技術(shù)使用者自身而言,提高自我的道德意識(shí),對(duì)于生成式人工智能的批判認(rèn)知、使用能力已是倫理的應(yīng)有之義。進(jìn)一步而言,如前文所述,產(chǎn)消者所帶來(lái)的本體論意義上的變革也意味著使用者應(yīng)當(dāng)更積極地介入到“生產(chǎn)”環(huán)節(jié)中。在國(guó)內(nèi)首個(gè)大語(yǔ)言模型治理開(kāi)源中文數(shù)據(jù)集100 PoisonMpts中,環(huán)境社會(huì)學(xué)專(zhuān)家范葉超、著名社會(huì)學(xué)家李銀河、心理學(xué)家李松蔚、人權(quán)法專(zhuān)家劉小楠等專(zhuān)家作為標(biāo)注工程師,各提出 100 個(gè)包含誘導(dǎo)偏見(jiàn)、歧視回答的刁鉆問(wèn)題以幫助人工智能模型完成從“投毒”到“解毒”的攻防[25]。這類(lèi)專(zhuān)家型使用者在標(biāo)注數(shù)據(jù)的過(guò)程中,相較于純技術(shù)架構(gòu)開(kāi)發(fā)者,能更好地識(shí)別出隱蔽的偏見(jiàn)歧視、潛在有害內(nèi)容。由此可見(jiàn),一方面生成式人工智能技術(shù)的設(shè)計(jì)者應(yīng)當(dāng)更多地吸納不同學(xué)科、領(lǐng)域的專(zhuān)家型使用者,通過(guò)博采眾長(zhǎng),技術(shù)設(shè)計(jì)者可以更好地理解不同行業(yè)的需求和挑戰(zhàn),從而更有針對(duì)性地優(yōu)化技術(shù),使其更好地服務(wù)于各類(lèi)群體。另一方面,使用者自身也可借鑒消費(fèi)者協(xié)會(huì)、微博社區(qū)志愿者等制度建設(shè)自律組織,推動(dòng)構(gòu)建共治、共享的智能空間。

其次,盡管技術(shù)設(shè)計(jì)者會(huì)面臨技術(shù)的反調(diào)節(jié)與再調(diào)節(jié)問(wèn)題,但就目前來(lái)看,將倫理道德嵌入生成式人工智能設(shè)計(jì)的程度仍然是遠(yuǎn)遠(yuǎn)不夠的。布魯諾·拉圖爾(Bruno Latour)將技術(shù)物對(duì)個(gè)體行為的影響作用概括為“腳本(Script)”,但在技術(shù)實(shí)踐的實(shí)際過(guò)程中,使用者并不一定必然遵循設(shè)計(jì)者的“腳本”,反而會(huì)“改寫(xiě)”。困難的是,在生成式人工智能時(shí)代,使用者的“改寫(xiě)”現(xiàn)象更加頻繁,這反過(guò)來(lái)促使技術(shù)設(shè)計(jì)者在編寫(xiě)“腳本”時(shí),應(yīng)盡可能詳細(xì)地考慮到使用者可能的意圖,并以說(shuō)明、引導(dǎo)的方式幫助使用者正確使用人工智能。諸如強(qiáng)制用戶(hù)閱讀用戶(hù)須知、隱私保護(hù)條款,以醒目方式警告使用者不當(dāng)使用的嚴(yán)重后果及法律責(zé)任,強(qiáng)制標(biāo)注某段內(nèi)容是人工智能合成等。當(dāng)然,隨著使用者的地位日漸提升,未來(lái)設(shè)計(jì)者應(yīng)當(dāng)加強(qiáng)與使用者的合作,包括但不限于吸收各學(xué)科專(zhuān)家型學(xué)者優(yōu)化數(shù)據(jù)集、重視使用者的反饋等。

最后,作為技術(shù)倫理治理的兜底,技術(shù)的監(jiān)管者也應(yīng)對(duì)倫理秩序予以最基本的保護(hù)。就目前來(lái)看,我國(guó)在這方面已取得了一定的成績(jī)?!吨腥A人民共和國(guó)民法典》將數(shù)據(jù)、網(wǎng)絡(luò)虛擬財(cái)產(chǎn)納入法律保護(hù)范圍;對(duì)肖像權(quán)、著作權(quán)、名譽(yù)權(quán)等的規(guī)定,同樣適用于人工智能領(lǐng)域,如明令禁止“深度偽造”侵害他人肖像、聲音等?!吨腥A人民共和國(guó)民法典》《中華人民共和國(guó)網(wǎng)絡(luò)安全法》《中華人民共和國(guó)數(shù)據(jù)安全法》《中華人民共和國(guó)個(gè)人信息保護(hù)法》等法律法規(guī)從根本上明確了相關(guān)技術(shù)服務(wù)提供者、使用者的權(quán)利和義務(wù),為其提供了基本的行動(dòng)指南,并且在《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《生成式人工智能服務(wù)管理暫行辦法》等文件中有更加詳細(xì)的規(guī)定。而根據(jù)《提升全民數(shù)字素養(yǎng)與技能行動(dòng)綱要》對(duì)提升全民數(shù)字道德倫理水平的要求,未來(lái)我國(guó)可在全民普及生成式人工智能知識(shí)、加強(qiáng)倫理宣傳,在對(duì)弱勢(shì)群體傾斜、關(guān)注等方面發(fā)力,以提高使用者的整體數(shù)字素養(yǎng)水平。

4.3作為生成式人工智能發(fā)展必要條件的使用者倫理

與發(fā)展勢(shì)頭如火如荼的生成式人工智能相對(duì)的是,人類(lèi)社會(huì)應(yīng)對(duì)人工智能風(fēng)險(xiǎn)的滯后性。直到2024年,歐洲議會(huì)批準(zhǔn)的《人工智能法案》(Artificial Intelligence Art)才成為全球首部全面的人工智能監(jiān)管法規(guī)??傮w而言,相關(guān)立法和政策的推出與人工智能的發(fā)展速度總是不匹配的;人工智能領(lǐng)域的人才需求與供給之間存在不平衡,相關(guān)教育和培訓(xùn)不夠充分;普通公眾對(duì)人工智能技術(shù)的認(rèn)知和理解程度有限,社會(huì)對(duì)人工智能倫理問(wèn)題的認(rèn)識(shí)和討論需要提上日程。

以上種種都在提示公眾,必須注重倫理在技術(shù)發(fā)展中的重要意義。然而,作為基數(shù)最為龐大的使用者,他們應(yīng)當(dāng)承擔(dān)何種倫理責(zé)任卻仍不明晰,這顯然并不符合生成式人工智能的發(fā)展趨勢(shì)。因此,從生成式人工智能的技術(shù)特性來(lái)看,使用者倫理是其發(fā)展的必要條件,但更需認(rèn)清的是,建設(shè)使用者倫理是一個(gè)長(zhǎng)期且復(fù)雜的過(guò)程,需要個(gè)人、企業(yè)、社會(huì)、政府等多方共同協(xié)力。在現(xiàn)階段,面對(duì)不同水平、能力的使用者群體,使用者倫理的踐行應(yīng)當(dāng)從個(gè)人層面到社會(huì)層面循序漸進(jìn)地推進(jìn)。

參考文獻(xiàn)

中央網(wǎng)絡(luò)安全和信息化委員會(huì).生成式人工智能服務(wù)管理暫行辦法 [EB/OL].(2023-07-13)[2024-03-24]. https://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm.

章誠(chéng)豪,張勇.生成式AI的源頭治理:數(shù)據(jù)深度運(yùn)用的風(fēng)險(xiǎn)隱憂與刑事規(guī)制[J].湖北社會(huì)科學(xué),2023(11):127-135.

曾雄,梁正,張輝.人工智能軟法治理的優(yōu)化進(jìn)路:由軟法先行到軟法與硬法協(xié)同[EB/OL].(2024-01-23)[2024-02-22]. http://kns.cnki.net/kcms/detail/11.5181.TP.20240122.1129.014.html.

新華社.習(xí)近平主持中共中央政治局第九次集體學(xué)習(xí)并講話[EB/OL].(2018-10-13)[2024-03-24]. https://www.gov.cn/xinwen/2018-10/31/content_5336251.htm?eqid=8e9a43b100048e9700000003646b28f8.

阿爾文·托夫勒. 第三次浪潮[M]. 黃明堅(jiān),譯.北京:中信出版社,2018.

帕梅拉·麥考黛克.人工智能往事:精英、文化與思維[M].虞晶怡,楊麗鳳,譯.上海:格致出版社,2023.

中國(guó)互聯(lián)網(wǎng)絡(luò)信息中心.第53次《中國(guó)互聯(lián)網(wǎng)絡(luò)發(fā)展?fàn)顩r統(tǒng)計(jì)報(bào)告》[R/OL].(2024-03-21)[2024-03-24]. https://www.cnnic.net.cn/n4/2024/0321/c208-10962.html.

彼得·保羅 ·維貝克.將技術(shù)道德化——理解與設(shè)計(jì)物的道德[M]. 閆宏秀,楊慶峰,譯. 上海:上海交通大學(xué)出版社,2016.

閆宏秀.負(fù)責(zé)任人工智能的信任模塑:從理念到實(shí)踐[J].云南社會(huì)科學(xué),2023(4):40-49.

董浩.生成式人工智能時(shí)代人機(jī)對(duì)話的傳播倫理風(fēng)險(xiǎn)及其應(yīng)對(duì)[J]. 閱江學(xué)刊,2024,16 (1):104-114.

劉永謀,李尉博.有限技術(shù)治理的理論建構(gòu)與時(shí)代意蘊(yùn)[J].自然辯證法研究,2024,40(2):3-10.

張春春,孫瑞英.如何走出AIGC的“科林格里奇困境”:全流程動(dòng)態(tài)數(shù)據(jù)合規(guī)治理[J].圖書(shū)情報(bào)知識(shí),2024(2):39-49.

洪杰文,常靜宜.用戶(hù)關(guān)切視角下的“生成式AI”倫理框架建構(gòu)[J].新聞與寫(xiě)作,2023(12):44-55.

王皓.奧爾堡學(xué)派的技術(shù)-人類(lèi)學(xué)探究[J].青海民族大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2019,45(4):57-64.

王中貝,周榮庭. 新興技術(shù)倫理分析路徑研究 [J]. 自然辯證法研究,2022,38(3):29-35.

Lanham R A.Digital literacy[J].Scientific American,1995,273(3):160-161.

Eshet-Alkalai Y.Digital Literacy:A Conceptual Framework for Survival Skills in the Digital Era[J]. Journal of Educational Multimedia and Hypermedia,2004,13(1):93-106.

Gong X Y,Tang Y,Liu X Y,et al. K-9 Artificial Intelligence Education in Qingdao:Issues,Challenges and Suggestions[EB/OL].(2020-11-04)[2024-02-22]. https://ieeexplore.ieee.org/document/9238087.

李德剛.數(shù)字素養(yǎng):新數(shù)字鴻溝背景下的媒介素養(yǎng)教育新走向[J].思想理論教育,2012(18):9-13.

鐘周.勝任數(shù)字變革:歐盟數(shù)字素養(yǎng)框架體系研究[J].世界教育信息,2023,36(1):46-57.

中央網(wǎng)絡(luò)安全和信息化委員會(huì)辦公室 . 提升全民數(shù)字素養(yǎng)與技能行動(dòng)綱要 [EB/OL].(2021-11-05)[2024-03-24]. http://www.cac.gov.cn/2021-11/05/c_1637708867754305.htm.

黃晨熹.老年數(shù)字鴻溝的現(xiàn)狀、挑戰(zhàn)及對(duì)策[J].人民論壇,2020(29):126-128.

成素梅.智能革命與個(gè)人的全面發(fā)展[J].馬克思主義與現(xiàn)實(shí),2020(4):196-202.

孟令宇.從算法偏見(jiàn)到算法歧視:算法歧視的責(zé)任問(wèn)題探究[J].東北大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2022,24(1):1-9.

Openbayes. 100PoisonMpts:中文大模型治理數(shù)據(jù)集[EB/OL].(2024-02-23)[2024-03-24]. https://openbayes.com/console/hyperai-tutorials/datasets/493fA4LmWwA/1/overview.

(編輯 "顏 " "燕 " "和樹(shù)美)

猜你喜歡
數(shù)字素養(yǎng)生成式人工智能
生成式人工智能的教育啟示:讓每個(gè)人成為他自己
挑戰(zhàn)·融合·變革:“ChatGPT與未來(lái)教育”會(huì)議綜述
生成式人工智能時(shí)代的政治傳播走向
黨政研究(2023年3期)2023-05-29 01:10:39
生成式人工智能重塑教育及教師應(yīng)對(duì)之道
人機(jī)共生時(shí)代國(guó)際傳播的理念升維與自主敘事體系構(gòu)建
生成式人工智能的教育應(yīng)用與展望
微課在初中信息科技教學(xué)中的應(yīng)用
通過(guò)議論文寫(xiě)作培養(yǎng)學(xué)生的數(shù)據(jù)意識(shí)
提升學(xué)生數(shù)字公民素養(yǎng)的必要性與策略分析
新技術(shù)環(huán)境下圖書(shū)館轉(zhuǎn)型趨勢(shì)研究
佛教| 湘潭县| 澜沧| 营口市| 巴林左旗| 临泽县| 凤凰县| 高雄县| 玛曲县| 松原市| 毕节市| 北京市| 桐城市| 安顺市| 丁青县| 汽车| 买车| 韩城市| 兴山县| 炉霍县| 临武县| 保康县| 乐安县| 濮阳市| 磴口县| 鄯善县| 东方市| 封丘县| 伊金霍洛旗| 曲周县| 海丰县| 正镶白旗| 萨嘎县| 睢宁县| 儋州市| 同德县| 芮城县| 木兰县| 惠安县| 珲春市| 务川|