国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

學(xué)術(shù)出版中的人工智能應(yīng)用倫理治理框架與措施

2024-08-16 00:00許潔肖謙
編輯之友 2024年8期

【摘要】人工智能深度介入學(xué)術(shù)出版全流程,深刻影響了當(dāng)前的學(xué)術(shù)交流系統(tǒng),掌握國(guó)際學(xué)術(shù)出版中人工智能的倫理治理框架和具體措施,可為我國(guó)學(xué)術(shù)期刊建設(shè)提供經(jīng)驗(yàn)借鑒。文章采用扎根理論和內(nèi)容分析法對(duì)有關(guān)人工智能應(yīng)用的政策文本展開實(shí)證研究,分析當(dāng)前國(guó)際學(xué)術(shù)出版流程中人工智能應(yīng)用的倫理政策框架和主要規(guī)制措施。研究發(fā)現(xiàn),國(guó)際學(xué)術(shù)出版機(jī)構(gòu)對(duì)人工智能的應(yīng)用持基本肯定態(tài)度,但仍保持謹(jǐn)慎的政策原則,其倫理治理框架分為包容審慎的處置原則和針對(duì)不同利益主體的具體規(guī)范兩部分,導(dǎo)向清晰,措施明確。

【關(guān)鍵詞】學(xué)術(shù)出版 人工智能倫理 扎根理論 政策分析

【中圖分類號(hào)】G230 【文獻(xiàn)標(biāo)識(shí)碼】A 【文章編號(hào)】1003-6687(2024)8-037-10

【DOI】 10.13786/j.cnki.cn14-1066/g2.2024.8.005

2022年年底,ChatGPT-3.5以其強(qiáng)大的信息整合和自然語(yǔ)言處理能力引發(fā)了人工智能的全球風(fēng)暴,一系列支撐文生文、文生圖甚至是文生視頻的多模態(tài)大語(yǔ)言模型相繼發(fā)布,革命性的人機(jī)交互模式為許多領(lǐng)域的應(yīng)用帶來(lái)了新的可能性,尤其是知識(shí)密集型的學(xué)術(shù)出版領(lǐng)域。隨著人工智能在學(xué)術(shù)出版領(lǐng)域的廣泛應(yīng)用,研究其對(duì)學(xué)術(shù)倫理的影響以及制定適當(dāng)?shù)氖褂谜吆蜏?zhǔn)則變得越來(lái)越重要。然而現(xiàn)實(shí)情況是,不斷更新的技術(shù)持續(xù)帶來(lái)學(xué)術(shù)倫理問(wèn)題,針對(duì)性的倫理規(guī)范和具體措施有待制定。2023年年初,頂級(jí)學(xué)術(shù)期刊《科學(xué)》聲明禁止使用ChatGPT等人工智能工具,同年11月又放寬了限制,作者只要進(jìn)行合適的披露,在研究中使用這些工具是可以接受的。[1]同樣對(duì)人工智能使用政策做出調(diào)整的還有國(guó)際醫(yī)學(xué)期刊編輯委員會(huì)等。面對(duì)未定的人工智能應(yīng)用倫理體系,迫切需要開展更多研究,探討出版商和學(xué)術(shù)組織如何更好地規(guī)制人工智能技術(shù)和工具的使用,從而制定和實(shí)施有效的策略,更有效地指導(dǎo)人工智能工具的合理使用,維護(hù)學(xué)術(shù)倫理。

國(guó)際學(xué)術(shù)出版機(jī)構(gòu)及學(xué)術(shù)組織發(fā)布的有關(guān)政策規(guī)范直接代表其對(duì)人工智能的態(tài)度,分析其政策規(guī)定,有助于為我國(guó)學(xué)術(shù)出版機(jī)構(gòu)、學(xué)術(shù)組織、高校、科研人員等在應(yīng)對(duì)人工智能介入科學(xué)研究和學(xué)術(shù)出版過(guò)程中的種種問(wèn)題提供借鑒?;诖?,本研究以人工智能應(yīng)用倫理政策為對(duì)象,通過(guò)文本收集和分析,運(yùn)用扎根理論進(jìn)行政策文本編碼和理論飽和度檢驗(yàn),試圖梳理和描繪國(guó)際學(xué)術(shù)出版機(jī)構(gòu)和學(xué)術(shù)組織在應(yīng)對(duì)人工智能技術(shù)在學(xué)術(shù)出版流程中的應(yīng)用時(shí),所提出的倫理政策框架和具體約束措施,提出我國(guó)學(xué)術(shù)出版領(lǐng)域切實(shí)可行的倫理政策優(yōu)化路徑。本研究所指的學(xué)術(shù)出版包含人文社會(huì)科學(xué)領(lǐng)域的學(xué)術(shù)出版和科技出版。

一、學(xué)術(shù)出版中的人工智能應(yīng)用現(xiàn)狀與倫理反思

愛思唯爾的一項(xiàng)最新研究在線調(diào)查了2999名研究人員和臨床醫(yī)生,54%的受訪者表示使用過(guò)人工智能,31%的受訪者表示將人工智能用于工作。[2]人工智能在學(xué)術(shù)出版的各個(gè)環(huán)節(jié)均得到深度應(yīng)用,顯示出良好的應(yīng)用前景。[3]當(dāng)前,學(xué)術(shù)寫作、發(fā)表、傳播全流程均已衍生出功能強(qiáng)大的人工智能輔助工具,涵蓋文章閱讀、數(shù)據(jù)分析、插圖繪制、潤(rùn)色修改等環(huán)節(jié)??茖W(xué)發(fā)現(xiàn)階段,愛思唯爾推出的Scopus AI能夠協(xié)助用戶獲取更深入的文獻(xiàn)摘要和研究見解,為用戶探索特定領(lǐng)域提供幫助,甚至能夠揭示科研空白,全面提升科研效率。[4]中國(guó)知網(wǎng)同樣推出智能協(xié)作平臺(tái)和學(xué)術(shù)研究助手,為用戶提供文獻(xiàn)分析輔助。寫作階段,PaperPal、Writefull可以輔助學(xué)術(shù)內(nèi)容創(chuàng)作,施普林格·自然推出的Curie基于大量經(jīng)過(guò)專業(yè)的學(xué)術(shù)編輯和專家潤(rùn)色過(guò)的稿件,為用戶提供修改建議,[5]幫助提升內(nèi)容的準(zhǔn)確性和專業(yè)度。投稿階段,威立、愛思唯爾等均推出了基于摘要分析的期刊查找器,可為用戶智能推薦具有更高匹配度的期刊。同行評(píng)審階段,人工智能工具可為文章確定合適的審稿人,[6]智能算法早已納入出版商的審稿匹配機(jī)制中。輔助審稿方面,愛思唯爾推出的StatReviewer、Frontiers AIRA都可進(jìn)行文本質(zhì)量、數(shù)據(jù)完整性、學(xué)術(shù)不端和潛在利益沖突的評(píng)估。[7]此外,ChatGPT也開始集成大量可用于科研輔助的插件,極大提升了使用便捷性。與此同時(shí),為審查人工智能在學(xué)術(shù)寫作中的濫用,技術(shù)對(duì)抗工具隨之誕生,文本檢測(cè)方面,Turnitin為多種工具提供技術(shù)支撐,Proofig則可以在審查階段用于圖像檢查。

但需注意的是,人工智能的介入也為學(xué)術(shù)出版各環(huán)節(jié)帶來(lái)了多方面的潛在風(fēng)險(xiǎn),[8]科研倫理和信息安全問(wèn)題逐漸顯現(xiàn)。[9]研究者普遍認(rèn)為人工智能會(huì)削弱學(xué)術(shù)研究中人的主體性和自主權(quán),尤其生成式人工智能具有類似人類的文本生成能力。學(xué)術(shù)期刊《自然》的一篇調(diào)查文章訪問(wèn)了1600名學(xué)者,其中有超過(guò)2/3的受訪者擔(dān)心過(guò)度使用生成式人工智能會(huì)導(dǎo)致科研人員缺少思考。[10]而生成式人工智能工具在同行評(píng)審過(guò)程中的使用缺乏政策規(guī)制,有學(xué)者對(duì)此表示擔(dān)憂,[11]認(rèn)為在學(xué)術(shù)出版的任何環(huán)節(jié)使用大語(yǔ)言模型都會(huì)存在泄露數(shù)據(jù)和隱私的風(fēng)險(xiǎn)。[12]在目前有關(guān)人工智能應(yīng)用的法律制度尚不完善的情況下,面對(duì)種種倫理風(fēng)險(xiǎn),人工智能如何以負(fù)責(zé)任的方式融入學(xué)術(shù)工作,亟須制定明確、現(xiàn)實(shí)和連貫的政策。[13]有學(xué)者從人工智能帶來(lái)的風(fēng)險(xiǎn)出發(fā),分析可行化解路徑,提出要構(gòu)建具體責(zé)任規(guī)范、推進(jìn)透明研究、強(qiáng)化審查機(jī)制。[14]有學(xué)者聚焦學(xué)術(shù)研究責(zé)任倫理困境,提出具體的出場(chǎng)路徑。[15]學(xué)術(shù)出版機(jī)構(gòu)和學(xué)術(shù)組織則明確拒絕承認(rèn)人工智能的作者身份,[16]甚至拒絕刊登人工智能生成的圖片和視頻,[17]同時(shí)嚴(yán)格約束在其他流程中的人工智能使用。[18]在政策研究方面,有學(xué)者試圖歸納現(xiàn)有倫理政策,發(fā)現(xiàn)出版商正以一種開放和警惕并存的態(tài)度對(duì)待生成式人工智能在學(xué)術(shù)出版流程中的應(yīng)用,[19]但未就此提出建設(shè)意見。

為全面掌握全球范圍內(nèi)人工智能運(yùn)用于學(xué)術(shù)出版的倫理問(wèn)題及其規(guī)制情況,本研究基于扎根理論對(duì)100家學(xué)術(shù)出版機(jī)構(gòu)、12個(gè)學(xué)術(shù)組織以及160本國(guó)際期刊進(jìn)行有關(guān)人工智能使用的政策收集,對(duì)人工智能在學(xué)術(shù)出版流程中的應(yīng)用規(guī)范進(jìn)行實(shí)證研究,并結(jié)合內(nèi)容分析法解讀倫理規(guī)范,描繪全球?qū)W術(shù)出版流程中人工智能應(yīng)用倫理建設(shè)現(xiàn)狀,為我國(guó)學(xué)術(shù)出版乃至整個(gè)出版產(chǎn)業(yè)在人工智能環(huán)境下的高質(zhì)量發(fā)展提供借鑒。

二、基于扎根理論的學(xué)術(shù)出版?zhèn)惱碚呖蚣軜?gòu)建

1967年,格拉澤和施特勞斯在《扎根理論的發(fā)現(xiàn)》一書中正式提出扎根理論,認(rèn)為其是定性研究中最科學(xué)的方法論。[20]施特勞斯將其操作路徑程序化為開放性編碼—主軸性編碼—選擇性編碼三個(gè)步驟,形成了一套嚴(yán)格的操作程序和完整的概念框架。作為一種從經(jīng)驗(yàn)材料中歸納提取抽象概念甚至構(gòu)建理論框架的有效方法,運(yùn)用扎根理論范式與方法,能夠自下而上地將零碎的政策文本歸納為統(tǒng)一的框架,與本研究的目標(biāo)相適配。

1. 樣本選擇

為確保政策規(guī)制文本的廣泛性和代表性,本研究兼顧學(xué)術(shù)出版機(jī)構(gòu)、學(xué)術(shù)組織和期刊三類學(xué)術(shù)出版相關(guān)主體。學(xué)術(shù)出版機(jī)構(gòu)部分,綜合已有研究和國(guó)際科學(xué)、技術(shù)和醫(yī)學(xué)出版商協(xié)會(huì)名單,本研究根據(jù)分層隨機(jī)抽樣的原則選取了100家學(xué)術(shù)出版機(jī)構(gòu);學(xué)術(shù)組織部分,本研究以可獲得性為原則,搜索發(fā)布了人工智能使用聲明或倡議的主要學(xué)術(shù)組織和機(jī)構(gòu),最終收集到有效政策12條;期刊部分,本研究依據(jù)SCImago Journal Rank①選取全球八個(gè)主要地區(qū)SJR排名前20的160本期刊為研究樣本。

2. 數(shù)據(jù)收集

本研究聚焦國(guó)際學(xué)術(shù)出版機(jī)構(gòu)和學(xué)術(shù)組織關(guān)于人工智能應(yīng)用的態(tài)度和具體倫理規(guī)范,為保證準(zhǔn)確性和客觀性,采用網(wǎng)絡(luò)調(diào)研的方法,以政策內(nèi)容為直接數(shù)據(jù)來(lái)源。對(duì)所選樣本官方網(wǎng)站中的“編輯政策”“作者指南”“出版?zhèn)惱怼表?yè)面和單獨(dú)發(fā)布的聲明進(jìn)行依次查閱,將文本中明確提及“人工智能”及相關(guān)延伸詞的政策納入樣本政策(數(shù)據(jù)收集截至2024年1月20日)。經(jīng)過(guò)上述步驟,去重后最終收集到相關(guān)政策49條(見表1),納入初始編碼流程的政策39條(見表2)。

需要指出的是,部分出版機(jī)構(gòu)未發(fā)布人工智能在學(xué)術(shù)出版流程中的應(yīng)用規(guī)范,但在“投稿須知”中明確了遵守國(guó)際出版?zhèn)惱砦瘑T會(huì)或國(guó)際醫(yī)學(xué)期刊編輯委員會(huì)的倫理規(guī)范;同樣,部分樣本期刊的相關(guān)頁(yè)面直接鏈接到出版機(jī)構(gòu)頁(yè)面。對(duì)于此類情況,本研究將其視為重復(fù)政策,不計(jì)入最終樣本。

數(shù)據(jù)結(jié)果顯示,僅有少數(shù)學(xué)術(shù)出版機(jī)構(gòu)和學(xué)術(shù)組織發(fā)布明確人工智能倫理政策,超過(guò)半數(shù)以國(guó)際出版?zhèn)惱砦瘑T會(huì)或國(guó)際醫(yī)學(xué)期刊編委會(huì)倫理規(guī)范為基本準(zhǔn)則。其中學(xué)術(shù)出版機(jī)構(gòu)發(fā)布的27份政策聲明中,16份位于其網(wǎng)頁(yè)“編輯政策”“出版?zhèn)惱怼毕碌膯为?dú)條目,其他分布于“作者指南”及單獨(dú)發(fā)布的PDF文件、頁(yè)面、新聞頁(yè),大多處于容易被注意到的位置。

3. 研究過(guò)程

本研究嚴(yán)格遵循扎根理論的操作程序,預(yù)留10條由學(xué)術(shù)期刊發(fā)布的政策作為飽和度檢驗(yàn)樣本,其他39條政策文本被直接導(dǎo)入Nvivo12并轉(zhuǎn)換為基本數(shù)據(jù)源。通過(guò)逐字閱讀政策文本,理解文本傳達(dá)的具體意義,共歸納形成42個(gè)初始概念,對(duì)其進(jìn)行概括并形成新的范疇,得出18個(gè)基本范疇(見表3)。進(jìn)一步整合歸類,最終總結(jié)出8個(gè)主范疇,通過(guò)更具系統(tǒng)思維的歸納方法,將已得出的主范疇總結(jié)為更具概括性的核心范疇,最終提煉出3個(gè)核心范疇(見P42表4)。更進(jìn)一步,通過(guò)對(duì)政策文本的回顧,對(duì)上述得出的基本框架做進(jìn)一步梳理和挖掘,探究核心范疇之間的聯(lián)系(見P42表5)。為保證研究的可靠性和準(zhǔn)確性,本研究又繼續(xù)分析了預(yù)留的10條政策,沒有再挖掘出新的概念節(jié)點(diǎn),因此可認(rèn)為研究所得概念和范疇充足,理論飽和度已達(dá)要求。

三、學(xué)術(shù)出版政策視角下人工智能倫理治理路徑

國(guó)際學(xué)術(shù)出版人工智能應(yīng)用倫理可分為處置原則、具體措施兩部分。其中,具體措施按照出版流程可再分為針對(duì)作者身份、審稿要求和編輯職責(zé)的主體行為規(guī)范,以及針對(duì)作者的具體使用規(guī)范。由此也構(gòu)建起了學(xué)術(shù)出版流程中人工智能應(yīng)用的倫理政策框架,清晰地展示了當(dāng)前全球?qū)W術(shù)出版機(jī)構(gòu)及相關(guān)學(xué)術(shù)組織對(duì)人工智能應(yīng)用的態(tài)度、原則和制定的措施(見圖1)。

1. 政策導(dǎo)向:包容審慎的處置原則

從已有政策文本來(lái)看,學(xué)術(shù)出版機(jī)構(gòu)和學(xué)術(shù)組織對(duì)人工智能在學(xué)術(shù)出版中的應(yīng)用保持著相對(duì)客觀謹(jǐn)慎的態(tài)度,對(duì)人工智能的作者身份不予承認(rèn),但對(duì)人工智能工具使用的態(tài)度不一。

(1)明確人工智能局限。ChatGPT和相關(guān)技術(shù)被認(rèn)為是顛覆性創(chuàng)新,甚至有可能徹底改變學(xué)術(shù)出版業(yè),[21]有政策明確肯定人工智能的智力貢獻(xiàn)(P13)。但就目前來(lái)看,在沒有人類作者指導(dǎo)的情況下人工智能無(wú)法發(fā)起原創(chuàng)性研究(P6)。且人工智能可能產(chǎn)生錯(cuò)誤,以ChatGPT為代表的生成式人工智能由于缺少最新知識(shí)或存在偏見,可能產(chǎn)生無(wú)意義、有偏見或虛假的信息(P2)。學(xué)術(shù)出版機(jī)構(gòu)和學(xué)術(shù)組織對(duì)人工智能生成內(nèi)容的準(zhǔn)確性并不信任,也不接受任何實(shí)質(zhì)上由人工智能或大語(yǔ)言模型工具編寫的作品(P23)。

(2)堅(jiān)守人類主體地位。為避免過(guò)度侵害人的主體性,人工智能在任何環(huán)節(jié)都不應(yīng)超越人類或直接代替人類做出決策。人工智能不過(guò)是計(jì)算機(jī)用來(lái)模仿人類智能的軟件(P39),人類的監(jiān)督和干預(yù)對(duì)于確保發(fā)布內(nèi)容的準(zhǔn)確性和完整性至關(guān)重要(P7)。部分出版商支持為編輯提供技術(shù)審查工具(P29),在出版前后對(duì)文章進(jìn)行人工智能技術(shù)規(guī)范應(yīng)用的核查(P38),但仍堅(jiān)持人機(jī)結(jié)合的工作模式。這類政策并未拒絕人工智能的加入,而是通過(guò)堅(jiān)守人的主體性來(lái)規(guī)避人工智能帶來(lái)的風(fēng)險(xiǎn)。

(3)緊跟外部環(huán)境變化。新興的計(jì)算方法和工具是推進(jìn)研究的關(guān)鍵,人工智能技術(shù)的興起、應(yīng)用和升級(jí)直接影響政策的建立和更新。國(guó)際學(xué)術(shù)出版機(jī)構(gòu)和學(xué)術(shù)組織認(rèn)識(shí)到人工智能和人工智能輔助工具的變革潛力,相關(guān)倫理政策也由此建立(P4、P7)。加之學(xué)術(shù)出版領(lǐng)域的人工智能應(yīng)用將迅速發(fā)展,因而需要對(duì)人工智能生成內(nèi)容的爭(zhēng)議保持關(guān)注(P9),用發(fā)展的眼光看待人工智能與學(xué)術(shù)出版的碰撞,根據(jù)人工智能技術(shù)、實(shí)踐等的發(fā)展,對(duì)政策進(jìn)行定期審查和更新(P35)。

2. 職責(zé)明確:多元主體的行為規(guī)范

作者、審稿人和編輯是學(xué)術(shù)出版流程中最重要的三類主體,彼此間對(duì)稿件的操作必須是相互透明的(P29)。在總體原則指導(dǎo)下,樣本政策制定了更加具體的應(yīng)用細(xì)則,以約束相關(guān)利益主體對(duì)人工智能的使用。

(1)人工智能不得承擔(dān)作者角色。作為出版流程中重要環(huán)節(jié)的作者,是學(xué)術(shù)出版流程中不可缺少的角色,也是作品責(zé)任的承擔(dān)者。學(xué)術(shù)出版機(jī)構(gòu)和學(xué)術(shù)組織均不承認(rèn)人工智能的作者身份,因?yàn)樽髡呱矸莸臍w屬伴隨著對(duì)作品的責(zé)任(P1),而人工智能無(wú)法承擔(dān)人類獨(dú)特責(zé)任(P3),無(wú)法斷言是否存在利益沖突(P23),也沒有法律地位或版權(quán)(P6)。即使是那些由人工智能生成的文本、圖像、表格,其責(zé)任歸屬仍是文章作者。

(2)人工智能不得參與文章評(píng)審。同行評(píng)審是現(xiàn)代科研的一個(gè)重要組成部分,人工智能能夠幫助提升審稿效率,優(yōu)化審稿意見,但同樣存在不可控制的倫理風(fēng)險(xiǎn)。[22]同行專家的專業(yè)知識(shí)無(wú)價(jià)且不可替代(P1),而生成式人工智能不是學(xué)科專家,缺乏對(duì)同行評(píng)審工作的理解力(P27)。倫理政策框架要求人工智能或大語(yǔ)言模型不得代替審稿,且審稿人不能將稿件的任何部分上傳至大語(yǔ)言模型,因?yàn)榭赡艽嬖陔[私和數(shù)據(jù)安全問(wèn)題。如果審稿人在撰寫評(píng)審意見過(guò)程中使用了任何人工智能工具,同樣需要在審稿報(bào)告中向編輯聲明(P2),且對(duì)其中表達(dá)的內(nèi)容和觀點(diǎn)負(fù)責(zé)。同時(shí),同行評(píng)審還需要考慮人工智能系統(tǒng)對(duì)文章的參與,合理評(píng)估研究的嚴(yán)謹(jǐn)性、方法論和意義(P22)。

(3)人工智能不得代替編輯決策。編輯負(fù)責(zé)篩選、編輯和發(fā)布高質(zhì)量的科技研究成果,幫助科學(xué)家傳播研究成果并推動(dòng)學(xué)術(shù)進(jìn)步,其決策具有關(guān)鍵作用。與審稿人相同,編輯不被允許使用人工智能或大語(yǔ)言模型代替決策,也不能將稿件或信件上傳至大語(yǔ)言模型之中(P4)。編輯還需要根據(jù)作者的聲明和實(shí)際使用情況,判斷其適當(dāng)性,如果發(fā)現(xiàn)未經(jīng)聲明的、違反使用規(guī)范的人工智能應(yīng)用,則需要向出版商如實(shí)匯報(bào)(P4)。

3. 源頭治理:針對(duì)作者的使用限制

作為學(xué)術(shù)內(nèi)容創(chuàng)作主體的作者,其研究行為規(guī)范直接決定學(xué)術(shù)成果的準(zhǔn)確性和真實(shí)性,需對(duì)作者有詳細(xì)且嚴(yán)格的倫理限制。

(1)在限定范圍內(nèi)合理使用。作者可以在學(xué)術(shù)創(chuàng)作的修改和優(yōu)化階段合理使用人工智能,如借用人工智能的知識(shí)庫(kù)屬性來(lái)拓展思路、打破寫作障礙并優(yōu)化編輯任務(wù),借助人工智能的工具屬性來(lái)提升效率,如借助拼寫或語(yǔ)法檢查、數(shù)據(jù)分析等工具以及參考文獻(xiàn)管理器等(P4、P7)。使用人工智能輔助生成的作品整體上必須準(zhǔn)確代表作者的基礎(chǔ)工作和新穎的智力貢獻(xiàn),而不主要是工具生成能力的結(jié)果(P39)。在文章的關(guān)鍵部分,如研究綜述(P13)、數(shù)據(jù)生成(P32)、研究結(jié)論(P5)等需依靠作者智慧的部分明確禁止使用人工智能。對(duì)于那些可以使用人工智能輔助創(chuàng)作的部分,大語(yǔ)言模型也可能會(huì)在不經(jīng)意間從現(xiàn)有資料中復(fù)制大量文字,而沒有適當(dāng)引用,從而侵犯他人的知識(shí)產(chǎn)權(quán)(P7)。所以,任何人工智能的使用都不得違反抄襲政策,不得在未充分引用和注明出處的情況下介紹他人的觀點(diǎn)、數(shù)據(jù)、文字或其他材料(P10),也不應(yīng)將人工智能作為作者引用(P33)。

(2)確保操作流程透明可重復(fù)。出于對(duì)人工智能不確定風(fēng)險(xiǎn)的考慮,倫理政策框架希望通過(guò)規(guī)范作者操作流程,將人工智能的使用限制在技術(shù)與倫理并存之中。對(duì)于使用人工智能的原因、目的、操作流程以及文中使用人工智能的部分,作者須以透明可重復(fù)的方式在文章合適位置進(jìn)行聲明(P38)。具體聲明方式可以歸結(jié)為三類:在方法中聲明、在致謝中聲明、另附章節(jié)聲明。多學(xué)科數(shù)字出版機(jī)構(gòu)要求作者在致謝部分完全透明地說(shuō)明使用了哪些工具,在材料和方法部分詳細(xì)描述如何使用這些工具(P13)。愛思唯爾和世哲向作者提供了人工智能使用聲明模板。愛思唯爾要求作者在參考文獻(xiàn)后插入寫作過(guò)程中使用人工智能和人工智能輔助技術(shù)的聲明,包括使用的工具/服務(wù)名稱和使用原因。作者需對(duì)人工智能參與創(chuàng)作的內(nèi)容進(jìn)行必要的審核和編輯,并對(duì)出版物的內(nèi)容負(fù)全部責(zé)任。世哲的要求則更為細(xì)致,作者需要給出使用人工智能的理由、最終提示及得到的答復(fù),包括做了什么、如何使用以及向生成式人工智能給出的提示(P7)。

四、人工智能時(shí)代學(xué)術(shù)出版?zhèn)惱碇卫淼捻攲舆壿嫼途唧w措施

國(guó)際學(xué)術(shù)出版領(lǐng)域關(guān)于人工智能的倫理規(guī)制有許多可供借鑒的政策實(shí)踐。內(nèi)容方面,學(xué)術(shù)出版領(lǐng)域?qū)τ谌斯ぶ悄軕?yīng)用總體持謹(jǐn)慎態(tài)度,政策內(nèi)容聚焦于作者身份與署名、版權(quán)與剽竊、編輯與審稿人職責(zé)等方面。就倫理政策框架來(lái)看,樣本政策在一定原則指導(dǎo)下,對(duì)相關(guān)利益主體的行為提出了細(xì)致要求。結(jié)合數(shù)據(jù)結(jié)果和研究結(jié)論,本研究提出以下政策建議。

1. 強(qiáng)化敏捷善治頂層設(shè)計(jì)

作為治理的基本途徑,敏捷治理要求政策制定主體不再局限于政府,而是來(lái)自利益相關(guān)方的共同努力,[23]敏捷治理能夠適應(yīng)技術(shù)快速發(fā)展的節(jié)奏,與人工智能倫理治理需求相匹配,能夠有效彌合技術(shù)發(fā)展和治理能力之間的空隙。[24]而善治已經(jīng)成為全行業(yè)面對(duì)人工智能風(fēng)險(xiǎn)的共識(shí),人工智能應(yīng)用一定是以推動(dòng)學(xué)術(shù)出版領(lǐng)域的發(fā)展為主要目的。在此頂層邏輯指導(dǎo)下,結(jié)合研究結(jié)論,國(guó)內(nèi)學(xué)術(shù)共同體應(yīng)盡快做到以下幾點(diǎn)。

(1)加快形成人工智能倫理共識(shí)。充分擁抱人工智能是社會(huì)發(fā)展的必然,政策約束為學(xué)術(shù)出版提供了重要的規(guī)范機(jī)制,加快形成倫理共識(shí)有助于推動(dòng)政策落實(shí)。國(guó)際合作是現(xiàn)代科學(xué)研究的顯著特點(diǎn)之一,[25]共通的學(xué)術(shù)倫理道德規(guī)范是全球?qū)W術(shù)共同體良性運(yùn)作的重要基礎(chǔ)。針對(duì)人工智能的應(yīng)用,出版?zhèn)惱砦瘑T會(huì)和國(guó)際醫(yī)學(xué)期刊編輯委員會(huì)已有較為完整的倫理規(guī)范可供參考,世界醫(yī)學(xué)編輯學(xué)會(huì)也提出了一系列應(yīng)用建議??梢灶A(yù)見,人工智能必然深度重構(gòu)學(xué)術(shù)出版生態(tài),而這種重構(gòu)是全球性的,應(yīng)主動(dòng)將期刊發(fā)展并入國(guó)際學(xué)術(shù)出版?zhèn)惱碚呖蚣埽袷貒?guó)際學(xué)術(shù)期刊、學(xué)術(shù)會(huì)議規(guī)范,與全球?qū)W術(shù)出版生態(tài)達(dá)成一致。在借鑒吸收的同時(shí),結(jié)合實(shí)際情況調(diào)整和推廣,加快形成與全球共識(shí)并行不悖、與我國(guó)國(guó)情良好兼容的學(xué)術(shù)出版?zhèn)惱碚唧w系。

(2)保持對(duì)人工智能的警惕,善用善治。人工智能具有極端的兩面性,學(xué)術(shù)工作者應(yīng)首先掌握人工智能的特點(diǎn)。學(xué)術(shù)出版機(jī)構(gòu)應(yīng)當(dāng)加強(qiáng)科研倫理培訓(xùn),幫助工作人員深入了解人工智能和大語(yǔ)言模型運(yùn)行邏輯,把握價(jià)值理性與工具理性的平衡,避免技術(shù)崇拜和職業(yè)焦慮,堅(jiān)守學(xué)術(shù)研究和出版過(guò)程中人的主體性及自主權(quán)。人工智能賦能下科研進(jìn)程加快,論文投稿數(shù)量必然有所增加,審稿難度也會(huì)隨之增長(zhǎng),應(yīng)當(dāng)調(diào)整期刊審核機(jī)制,借用人工智能進(jìn)行初步審稿,重點(diǎn)關(guān)注文章研究主題與期刊的匹配度、文章要素是否齊全,同時(shí)進(jìn)行具有更強(qiáng)識(shí)別效果的學(xué)術(shù)不端檢測(cè),以此來(lái)節(jié)約編輯時(shí)間,使編輯將更多精力放在有效稿件的篩選和優(yōu)化上,保留具有創(chuàng)新性且符合期刊特性的文章。

(3)明確各利益主體具體職責(zé)。學(xué)術(shù)出版流程中不同主體對(duì)應(yīng)學(xué)術(shù)出版不同環(huán)節(jié),人工智能的介入方式和程度也會(huì)有一定差異,要避免人工智能莽撞進(jìn)入各環(huán)節(jié)造成的科學(xué)研究偏差,落實(shí)各利益主體具體職責(zé),構(gòu)建人工智能賦能下的透明可信的學(xué)術(shù)交流系統(tǒng)。出版機(jī)構(gòu)應(yīng)當(dāng)對(duì)作者責(zé)任作出明確要求,要求作者對(duì)人工智能使用行為進(jìn)行適當(dāng)承諾,確保人工智能的使用在合理范圍內(nèi)。編輯則需要關(guān)注人工智能使用的負(fù)面影響,著重核查觀點(diǎn)和事實(shí)的真實(shí)性、全面性,避免造成歧視或偏見。審稿人則應(yīng)當(dāng)結(jié)合人工智能使用情況,對(duì)文章進(jìn)行公平公正的評(píng)審,為文章科學(xué)性、合理性把關(guān)。

(4)根據(jù)實(shí)踐和法律變化及時(shí)調(diào)整政策。除學(xué)術(shù)倫理挑戰(zhàn)外,人工智能創(chuàng)作內(nèi)容的版權(quán)問(wèn)題懸而未決,[26]數(shù)據(jù)和隱私安全問(wèn)題仍然存在,學(xué)術(shù)出版機(jī)構(gòu)和學(xué)術(shù)組織既要考慮技術(shù)和社會(huì)觀念的變化,又要遵守法律規(guī)范和學(xué)術(shù)誠(chéng)信原則;既對(duì)人工智能的潛力持開放態(tài)度,又要對(duì)其倫理和法律挑戰(zhàn)保持警惕。因此有必要及時(shí)關(guān)注國(guó)際和國(guó)內(nèi)實(shí)踐與法律層面的變動(dòng),適時(shí)優(yōu)化倫理政策并通知作者和審稿人。著眼期刊自身發(fā)展,兼顧可能出現(xiàn)的負(fù)面影響,動(dòng)態(tài)安排政策規(guī)范。如《智能社會(huì)研究》早在2023年4月就開設(shè)了為期一年的“AI+科研”試驗(yàn)欄目,嘗試接收由AI參與輔助研究工作的論文稿件。[27]

2. 細(xì)化合理使用具體規(guī)范

(1)明確人工智能可用范圍。為作者、編輯和審稿人提供詳盡的人工智能使用規(guī)范,明確可用范圍,如能否參與文章寫作、協(xié)助編輯和審稿人審核稿件等。對(duì)于作者,可在“投稿須知”“作者指南”“出版?zhèn)惱怼钡软?yè)面明確指出可以使用人工智能或人工智能輔助技術(shù)的范圍,并給出參考樣例和明細(xì)要求。對(duì)于編輯,人工智能能夠進(jìn)行部分簡(jiǎn)單工作,如基本要素檢查、剽竊和偽造檢驗(yàn)、搜索引擎優(yōu)化、審稿人匹配、生成增強(qiáng)出版素材等,出版機(jī)構(gòu)應(yīng)結(jié)合期刊自身情況明確編輯在上述操作中的主動(dòng)權(quán),可在編輯培訓(xùn)課程中給出操作規(guī)范。

(2)明確人工智能使用方式。首先,將人工智能使用規(guī)范加入論文格式模板,或在投稿階段為作者提供是否使用人工智能進(jìn)行輔助創(chuàng)作的選項(xiàng),要求作者明確告知操作流程和具體結(jié)果。這樣既保證了編輯和審稿人對(duì)文章使用人工智能合理性的正確判斷,又為出版后的科學(xué)審查提供了可靠依據(jù)。如《學(xué)術(shù)出版中AIGC使用邊界指南》為出版機(jī)構(gòu)提供了可供參考的聲明模板。其次,為作者引用人工智能生成內(nèi)容或數(shù)據(jù)的方式建立規(guī)范,具體引用形式應(yīng)包括交互記錄、名稱、制作者、版本和訪問(wèn)地址等詳細(xì)數(shù)據(jù)?!吨ゼ痈缡謨?cè)——寫作、編輯和出版指南》和《美國(guó)心理協(xié)會(huì)刊物準(zhǔn)則》(APA)等主要寫作規(guī)范均已推出針對(duì)人工智能生成內(nèi)容引用的具體指導(dǎo)。此外,審稿過(guò)程中,審稿人需告知編輯人工智能使用情況,其中應(yīng)當(dāng)包括詳細(xì)的工具和操作流程等,這部分要求可與作者要求保持一致。以此保證作者—編輯—審稿人的操作過(guò)程透明,提高審稿效率和決策準(zhǔn)確性。

(3)明確違背倫理政策的處置方式。建立問(wèn)責(zé)機(jī)制,超出合理范疇或未經(jīng)披露的人工智能使用可視為違背科研誠(chéng)信,應(yīng)設(shè)置適當(dāng)?shù)奶幹么胧?,如拒絕投稿、撤回稿件等。編輯和審稿人濫用人工智能可能會(huì)導(dǎo)致稿件質(zhì)量降低、內(nèi)容泄露等問(wèn)題,同樣需要進(jìn)行警告性或強(qiáng)制性處置。中華醫(yī)學(xué)會(huì)雜志社為防范濫用生成式人工智能情況的發(fā)生,除事前防控外,對(duì)違背人工智能倫理政策的情形作出了清楚的處置規(guī)定。如果發(fā)現(xiàn)作者存在違規(guī)使用人工智能的情況,其稿件將被直接退稿或撤稿;情節(jié)嚴(yán)重的將被列入作者學(xué)術(shù)失信名單,兩年內(nèi)禁止向中華醫(yī)學(xué)會(huì)系列雜志投稿;如作者是期刊審稿人,同時(shí)禁止其參與審稿工作,如果其行為造成信息泄露或者侵權(quán)等后果,必要時(shí)需承擔(dān)相應(yīng)責(zé)任。

3. 配套倫理建設(shè)基礎(chǔ)設(shè)施

(1)人工智能技術(shù)自主研發(fā)。人工智能正在且會(huì)越來(lái)越深刻地影響學(xué)術(shù)出版生態(tài),應(yīng)主動(dòng)擁抱人工智能技術(shù),善用技術(shù)對(duì)抗倫理風(fēng)險(xiǎn),完成學(xué)術(shù)出版?zhèn)惱硪?guī)制手段的技術(shù)化改造,實(shí)現(xiàn)學(xué)術(shù)出版流程的智能化升級(jí)。實(shí)際操作中,可向編輯和審稿人提供或推薦負(fù)責(zé)任的人工智能輔助工具,甚至可以將人工智能集成到投審稿系統(tǒng)中,向作者、編輯和審稿人提供符合學(xué)術(shù)出版?zhèn)惱淼墓δ?,在給定范圍內(nèi)使用,保證人工智能使用過(guò)程透明可控。這對(duì)學(xué)術(shù)出版領(lǐng)域的人工智能提出了更高的技術(shù)性和專業(yè)性要求。國(guó)家層面應(yīng)加強(qiáng)學(xué)術(shù)出版領(lǐng)域?qū)S眯腿斯ぶ悄艿淖灾鏖_發(fā),包括技術(shù)自主和人工智能訓(xùn)練庫(kù)的自主。需要強(qiáng)調(diào)的是,人工智能工具的設(shè)計(jì)應(yīng)充分尊重人的主體性,不應(yīng)在操作流程的任何環(huán)節(jié)將決策權(quán)完全交予人工智能。

(2)倫理審查隊(duì)伍建設(shè)。倫理審查隊(duì)伍建設(shè)可分為內(nèi)外兩部分,對(duì)內(nèi)建立以人為本的人工智能倫理治理組織,對(duì)外建設(shè)倫理審查專家?guī)?。?duì)內(nèi)以高校、學(xué)/協(xié)會(huì)等刊群主體為單位建設(shè)人工智能倫理治理小組,設(shè)計(jì)并推行人工智能倫理規(guī)范,負(fù)責(zé)針對(duì)外部環(huán)境變化適時(shí)調(diào)整政策導(dǎo)向和具體措施。對(duì)外以學(xué)科或領(lǐng)域?yàn)榉较蝈噙x建設(shè)倫理審查專家?guī)?,?fù)責(zé)為內(nèi)部倫理治理小組和期刊同行評(píng)審專家提供培訓(xùn)。在國(guó)家統(tǒng)一的倫理審查機(jī)構(gòu)和倫理審查人員資質(zhì)培訓(xùn)、認(rèn)可和監(jiān)督系統(tǒng)要求下,加快推進(jìn)人工智能倫理審查隊(duì)伍建設(shè)。

(3)倫理治理環(huán)境優(yōu)化。首先,良好的科研生態(tài)和社會(huì)環(huán)境能為學(xué)術(shù)倫理治理提供外在保障,保證學(xué)術(shù)倫理體系的良性運(yùn)行。2017年以來(lái),我國(guó)發(fā)布了一系列人工智能管理辦法,[28]但學(xué)術(shù)出版領(lǐng)域仍缺少專門性指導(dǎo)文件,《學(xué)術(shù)出版中AIGC使用邊界指南》提供了覆蓋學(xué)術(shù)出版全流程的使用指南,但仍缺乏明確的學(xué)術(shù)失范及不端行為認(rèn)定標(biāo)準(zhǔn),且未能體現(xiàn)學(xué)科差異性。對(duì)此,應(yīng)進(jìn)一步完善人工智能在學(xué)術(shù)出版領(lǐng)域的法律法規(guī),讓學(xué)術(shù)倫理失范有法可依。其次,我國(guó)科研誠(chéng)信問(wèn)題一直廣受國(guó)際關(guān)注,學(xué)術(shù)共同體倫理意識(shí)亟待加強(qiáng),尤其在人工智能提供了更多便利的情況下,更應(yīng)強(qiáng)化學(xué)術(shù)共同體自律意識(shí)??擅嫦蜓芯咳藛T開展人工智能應(yīng)用倫理規(guī)范培訓(xùn),了解和掌握人工智能技術(shù)在學(xué)術(shù)出版中的合理運(yùn)用,知悉違反學(xué)術(shù)倫理規(guī)范的處罰措施;在某些單位或科研機(jī)構(gòu)的招聘流程中,也可適當(dāng)增加與人工智能有關(guān)的學(xué)術(shù)倫理考核,讓學(xué)術(shù)倫理深入人心。最后,應(yīng)有效聯(lián)通學(xué)術(shù)交流體系和大眾傳播體系,進(jìn)一步提高科學(xué)研究透明性,提高公眾人工智能使用素養(yǎng),為人工智能違規(guī)使用情況設(shè)置專門學(xué)術(shù)不端公眾反饋類別,強(qiáng)化外在約束力。自律與他律有機(jī)結(jié)合,協(xié)同推進(jìn),不斷優(yōu)化人工智能時(shí)代學(xué)術(shù)倫理治理環(huán)境,加快政策落地。

結(jié)語(yǔ)

政策文本作為管理邏輯的直接反映,承載著國(guó)際學(xué)術(shù)出版格局下人工智能應(yīng)用倫理的頂層設(shè)計(jì)和具體措施。本研究對(duì)國(guó)際學(xué)術(shù)出版機(jī)構(gòu)和學(xué)術(shù)組織發(fā)布的人工智能倫理政策進(jìn)行整合分析,是對(duì)國(guó)際管理經(jīng)驗(yàn)的有效總結(jié)。但我國(guó)學(xué)術(shù)出版領(lǐng)域的實(shí)際情況與國(guó)際情況存在差異,需跟隨全球?qū)W術(shù)生態(tài)轉(zhuǎn)變方向,辯證吸納國(guó)際學(xué)術(shù)出版經(jīng)驗(yàn),探索立足自身的倫理治理框架。2024年3月,歐盟議會(huì)審議通過(guò)《人工智能法案》,全球人工智能領(lǐng)域監(jiān)管或?qū)⑦~入全新階段,與人工智能應(yīng)用有關(guān)的政策規(guī)范將會(huì)有進(jìn)一步的發(fā)展。學(xué)術(shù)出版領(lǐng)域的人工智能倫理不僅是全球?qū)W術(shù)生態(tài)的一部分,也是人工智能倫理治理的一部分。學(xué)術(shù)出版領(lǐng)域的人工智能倫理建設(shè)在新的階段還需緊跟全球趨勢(shì),兼顧多方變化,靈活設(shè)計(jì)。本研究尚有不足之處,留待后續(xù)研究進(jìn)一步豐富。

參考文獻(xiàn):

[1] Science. Change to policy on the use of generative AI and large language models[EB/OL].[2023-11-16].https://www.science.org/content/blog-post/change-policy-use-generative-ai-and-large-language-models.

[2] Elsevier.Insights 2024:Attitudes toward AI[EB/OL].[2024-07-09].https://assets.ctfassets.net/Insights_2024_

Attitudes_To_AI_Full_Report.pdf.

[3] Perkins M,Roe J.Decoding academic integrity policies:A corpus linguistics investigation of AI and other technological threats[EB/OL].[2023-07-17].https://link.springer.com/article/10.1057/s41307-023-00323-2.

[4] Elsevier.Scopus AI:改變您看待知識(shí)的方式[EB/OL].[2024-01-16].https://www.elsevier.com/zh-cn/products/scopus/scopus-ai#0-%E5%85%B3%E4%BA%8E-scopus-ai.

[5] Springer Nature Group. Springer Nature introduces Curie, its AI-powered scientific writing assistant[EB/OL].[2023-10-13].https://group.springernature.com/cn/group/media/press-releases/ai-powered-scientific-writing-assitant-launched/26176230.

[6] Solomon D H, Allen K D, Katz P, et al. ChatGPT, Artificial Intelligence, Authorship, and Medical Publishing[J]. ACR Open Rheumatology, 2023, 5(6): 288.

[7] 楊亞紅,孫巖,余黨會(huì). 人工智能對(duì)學(xué)術(shù)期刊3個(gè)重要出版環(huán)節(jié)的影響[J]. 編輯學(xué)報(bào),2024(1):88-92.

[8] 令小雄,王鼎民,袁健. ChatGPT爆火后關(guān)于科技倫理及學(xué)術(shù)倫理的冷思考[J]. 新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2023,44(4):123-136.

[9] 張炯. 人工智能時(shí)代的出版?zhèn)惱聿┺募熬庉媯惱韮r(jià)值觀[J]. 中國(guó)編輯,2019(2):26-30.

[10] Van Noorden R, Perkel J M. AI and science: what 1, 600 researchers think[J]. Nature, 2023, 621(7980): 672-675.

[11] Garcia M B. Using AI tools in writing peer review reports:should academic journals embrace the use of ChatGPT?[J]. Annals of biomedical engineering, 2023(6): 139-140.

[12] Wach K, Duong C D, Ejdys J, et al. The dark side of generative artificial intelligence: A critical analysis of controversies and risks of ChatGPT[J].Entrepreneurial Business and Economics Review, 2023, 11(2): 7-30.

[13] Munn L. The uselessness of AI ethics[J]. AI and Ethics, 2023, 3(3): 869-877.

[14] 駱飛,馬雨璇. 人工智能生成內(nèi)容對(duì)學(xué)術(shù)生態(tài)的影響與應(yīng)對(duì)——基于ChatGPT的討論與分析[J]. 現(xiàn)代教育技術(shù),2023(6):15-25.

[15] 楊利利,馮子龍. 智能出版技術(shù)風(fēng)險(xiǎn)的責(zé)任倫理困境及其出場(chǎng)路徑[J]. 科技導(dǎo)報(bào),2023(7):63-70.

[16] Lund B D, Naheem K T. Can ChatGPT be an author? A study of artificial intelligence authorship policies in top academic journals[J]. Learned Publishing, 2024, 37(1): 13-21.

[17] Nature.Why Nature will not allow the use ofgenerative Al in images and video[EB/OL].[2023-06-07].https://www.nature.com/articles/d41586-023-01546-4#:~:text=Why%20Nature%20will%20not%20allow%20the%20use%20of,imagery%20created%20wholly%20or%20partly%20using%20generative%20AI.

[18] Elsevier.The use of generative AI and AI-assisted technologies in the journal editorial process[EB/OL].[2024-02-08].https://www.elsevier.com/zh-cn/about/policies-and-standards/publishing-ethics.

[19] Perkins M, Roe J. Academic publisher guidelines on AI usage: A ChatGPT supported thematic analysis[J]. F1000Research, 2023(12): 1398.

[20] 賈旭東,譚新輝. 經(jīng)典扎根理論及其精神對(duì)中國(guó)管理研究的現(xiàn)實(shí)價(jià)值[J]. 管理學(xué)報(bào),2010(5):656-665.

[21] Haque M U, Dharmadasa I, Sworna Z T, et al. " I think this is the most disruptive technology": Exploring Sentiments of ChatGPT Early Adopters using Twitter Data[EB/OL].[2022-12-12].https://arxiv.org/abs/2212.05856.

[22] 劉銀娣. 同行評(píng)審的人工智能應(yīng)用:現(xiàn)狀與挑戰(zhàn)[J]. 出版科學(xué),2020(5):68-73.

[23] 范旭,劉偉.“敏捷治理”:重塑前沿科技領(lǐng)域治理體系[EB/OL].[2020-09-30].http://www.rmlt.com.cn/2020/0930/595125.shtml.

[24] 陳萬(wàn)球. 中國(guó)生成式人工智能頂層設(shè)計(jì)的倫理視界[J]. 倫理學(xué)研究,2023(5):100-107.

[25] 劉慶生. 科學(xué)研究為什么要國(guó)際合作[EB/OL].[2024-03-31].https://blog.sciencenet.cn/blog-673617-607994.html.

[26] 徐小奔. 論人工智能生成內(nèi)容的著作權(quán)法平等保護(hù)[J]. 中國(guó)法學(xué),2024(1):166-185.

[27] 《智能社會(huì)研究》編輯部. 關(guān)于開設(shè)“AI+科研”欄目并接收AI輔助研究稿件的公告[EB/OL].[2024-03-25].http://www.jis.ac.cn/CN/news/news9.shtml.

[28] 湯志偉. 倫理先行:持續(xù)推進(jìn)人工智能倫理治理[EB/OL].[2023-10-25].https://theory.gmw.cn/2023-10/25/content_36917360.htm.

Ethical Governance Frameworks and Policies for Using AI in Scholarly Publishing:

A Grounded Theory Study on 49 International Publishing Policies

XU Jie1,2, XIAO Qian1(1.School of Information Management, Wuhan University, Wuhan 430072, China; 2.Publishing Research Institute, Wuhan University, Wuhan 430072, China)

Abstract: Artificial intelligence has penetrated deeply into the whole process of scholarly publishing and has profoundly affected the current system of scholarly communication. In order to describe the specific ethical governance framework of AI in international scholarly publishing and to provide reference for the development of scholarly journals in China, this study empirically examines the policy texts using grounded theory and content analysis to analyze the current ethical framework and key regulatory measures for AI applications in the international scholarly publishing process. The study finds that international scholarly publishing institutions and scholarly organizations have a positive attitude towards the application of AI, but still maintain prudent policy principles, and their ethical governance framework is divided into two parts: inclusive and prudent disposition principles and specific norms for different subject. In general, the framework has a clear policy orientation and clear specific measures.

Key words: scholarly publishing; artificial intelligence ethics; grounded theory; policy analysis

(責(zé)任編輯:武)

基金項(xiàng)目:國(guó)家社會(huì)科學(xué)基金一般項(xiàng)目“面向開放科學(xué)的科技期刊產(chǎn)業(yè)鏈整合研究”(21BTQ033)

作者信息:許潔(1983— ),女,云南昆明人,武漢大學(xué)信息管理學(xué)院、出版研究院教授、博士生導(dǎo)師,主要研究方向:出版基礎(chǔ)理論、科技出版與知識(shí)服務(wù);肖謙(1998— ),男,安徽金寨人,武漢大學(xué)信息管理學(xué)院博士研究生,主要研究方向:學(xué)術(shù)出版、出版知識(shí)服務(wù)。

① SCImago Journal Rank由SCImago團(tuán)隊(duì)基于Google的PageRank算法開發(fā),以Scopus數(shù)據(jù)庫(kù)中包含的期刊為基礎(chǔ),對(duì)期刊進(jìn)行綜合評(píng)價(jià),相較于傳統(tǒng)的JCR,其收錄期刊更廣泛、評(píng)價(jià)指標(biāo)更全面。