国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

國際出版機(jī)構(gòu)使用人工智能工具的出版?zhèn)惱碚叻治?/h1>
2024-11-28 00:00董敏劉雪梅杜亮雷芳
出版科學(xué) 2024年6期

[摘 要] 從科學(xué)網(wǎng)(Web of Science)的期刊引證報(bào)告(Journal Citation Reports)數(shù)據(jù)庫排名前70的出版機(jī)構(gòu)中篩選出23家,分析其人工智能(AI)出版?zhèn)惱碚?。在作者使用AI方面,出版機(jī)構(gòu)主要從署名、AI使用邊界、披露形式進(jìn)行了規(guī)范。出版機(jī)構(gòu)對(duì)AI身份問題已達(dá)成共識(shí),即AI不能成為署名作者;出版機(jī)構(gòu)允許在研究和寫作中使用AI,但使用者需要對(duì)內(nèi)容負(fù)責(zé)且充分披露,而目前只有少數(shù)(26.1%)機(jī)構(gòu)明確規(guī)定了作者的AI使用邊界,且各機(jī)構(gòu)之間對(duì)于如何披露的規(guī)定存在差異。關(guān)于審稿者使用AI的政策,鑒于保密性要求,機(jī)構(gòu)一般不允許審稿者將稿件上傳至無法保證安全性的AI工具,但關(guān)于如何披露和違反AI使用政策的懲罰措施還有待完善。針對(duì)上述問題,建議出版機(jī)構(gòu)從倫理、技術(shù)和法律三個(gè)層面,以及協(xié)同治理的角度,與學(xué)術(shù)共同體和管理部門合作,共同制定學(xué)術(shù)出版中AI使用的倫理規(guī)范,以營造健康的學(xué)術(shù)生態(tài)環(huán)境。

[關(guān)鍵詞] 人工智能 生成式 出版?zhèn)惱?透明化

[中圖分類號(hào)] G237 [文獻(xiàn)標(biāo)識(shí)碼] A [文章編號(hào)] 1009-5853 (2024) 06-0015-11

Analysis on Publishing Ethics Policies of International Publishers for the Use of Artificial Intelligence Tools

Dong Min Liu Xuemei Du Liang Lei Fang

(West China Hospital, Sichuan University, Chengdu, 610041)

[Abstract] The article selectes 23 publishing institutions from the top 70 in the Journal Citation Reports database of Web of Science and analyzes their artificial intelligence (AI) publishing ethics policies. In terms of the author’ s use of AI, publishing institutions have mainly standardized the authorship, AI usage boundaries and disclosure forms. Publishing institutions have reached a consensus on the issue of AI identity. That is, AI cannot become a co-author. Publishing institutions allow the use of AI in research and writing, but require authors’ responsibility and full disclosure. Currently only a few institutions (26.1%) have clearly defined the boundaries of authors’ AI usage, and there are differences among institutions on how to disclose them. Regarding the policy on the use of AI by reviewers, due to confidentiality requirements, institutions generally do not allow reviewers to upload manuscripts to AI tools that cannot guarantee security. However, there is still room for improvement on how to disclose and punish violations of AI usage policies. In response to the above issues, it is suggested that publishing institutions collaborate with academic communities and management departments from the perspectives of ethics, technology and law, as well as collaborative governance, to jointly develop ethical standards for AI applications in academic publishing, in order to create a healthy academic ecosystem.

[Key words] Artificial intelligence Generative Publishing ethics Transparency

2022年11月,ChatGPT的推出引發(fā)了全球廣泛關(guān)注。這款由OpenAI公司開發(fā)的人工智能(AI)語言模型,憑借其卓越的自然語言處理能力和深度學(xué)習(xí)技術(shù),迅速成為全球熱門話題。ChatGPT 與以前版本 GPT的顯著不同在于它的輸出質(zhì)量、交互能力和進(jìn)行類人對(duì)話的能力、速度以及通過用戶或?qū)<腋倪M(jìn)其輸出的能力[1]。越來越多的領(lǐng)域開始嘗試使用ChatGPT,如教育、醫(yī)療衛(wèi)生[2]。有人認(rèn)為禁止 ChatGPT 在學(xué)術(shù)出版中使用可能不切實(shí)際[3],因?yàn)閷?huì)有更多的研究者在研究和寫作過程中使用ChatGPT,可能造成論文爆發(fā)式增長(zhǎng),如索姆·比斯瓦斯(Som Biswas)醫(yī)生利用 ChatGPT 在 4 個(gè)月內(nèi)寫 16 篇論文,其中 5 篇已發(fā)表[4]。此外,還有學(xué)者開始研究生成式AI/大型語言模型(large language models,LLMs)對(duì)稿件評(píng)估的作用,發(fā)現(xiàn)該工具能總結(jié)稿件的主要內(nèi)容,包括稿件的主要目標(biāo)和結(jié)論,并對(duì)寫作風(fēng)格和可讀性提供了一些標(biāo)準(zhǔn)評(píng)估[5]。有研究者認(rèn)為,生成式AI可以提供一種加速和自動(dòng)化系統(tǒng)審查的方法,有可能大大改變同行評(píng)審專家和編輯的角色[6]。

隨著生成式AI /大型語言模型在研究、寫作、稿件評(píng)估中的使用,AI倫理問題再次引起廣泛熱議,給出版機(jī)構(gòu)帶來巨大挑戰(zhàn)[7]。因此,出版界急需建立、健全關(guān)于AI工具,特別是生成式AI工具使用的倫理政策,為相關(guān)人員(如編輯、作者、同行評(píng)審專家)提供明確的指導(dǎo)原則,確保出版行業(yè)的道德準(zhǔn)則得到遵守,防范潛在的倫理問題。

1 文獻(xiàn)綜述

AI概念最早由美國計(jì)算機(jī)科學(xué)家約翰·麥卡錫(John McCarthy)及其同事于1956年達(dá)特茅斯會(huì)議(Dartmouth Conference)上提出[8],隨后應(yīng)用于科學(xué)研究和寫作。1965年費(fèi)根鮑姆(Feigenbaum)與勒德貝格(Lederberg)利用AI開發(fā)了化學(xué)分析系統(tǒng)DENDRAL,1972年研究者開發(fā)了診斷血源性傳染病的MYCIN系統(tǒng),2009年科學(xué)家推出自運(yùn)行研究系統(tǒng) Adam [9]。2019年施普林格·自然(Springer Nature) 推出首本利用機(jī)器學(xué)習(xí)創(chuàng)作的研究圖書《鋰離子電池:機(jī)器生成的當(dāng)前研究概要》(Lithium-ion batteries: A machine-generated summary of current research)。AI可從6個(gè)方面輔助科學(xué)研究與學(xué)術(shù)寫作:研究想法啟發(fā)與研究設(shè)計(jì),內(nèi)容開發(fā)和構(gòu)建,文獻(xiàn)綜述與整合,數(shù)據(jù)管理和分析,編輯、審閱和發(fā)表支持,傳播推廣與風(fēng)險(xiǎn)檢測(cè)和評(píng)估(剽竊檢測(cè)、道德風(fēng)險(xiǎn)評(píng)估等)[10]。但AI技術(shù)的固有缺陷如數(shù)據(jù)偏差與系統(tǒng)性偏見、決策過程的透明度缺失與結(jié)果可解釋性不足,以及數(shù)據(jù)隱私保護(hù)與安全性風(fēng)險(xiǎn)等,導(dǎo)致AI應(yīng)用始終伴隨倫理及著作權(quán)等法律問題的爭(zhēng)議。

學(xué)術(shù)界通常對(duì)新興技術(shù)持中立論,認(rèn)為技術(shù)本身無善惡,其影響取決于使用和社會(huì)環(huán)境。然而,隨著算法和AI的普及,技術(shù)中立論受到質(zhì)疑。相對(duì)地,技術(shù)價(jià)值論認(rèn)為技術(shù)具有價(jià)值負(fù)荷,在政治、經(jīng)濟(jì)、文化、倫理上非中性,可進(jìn)行價(jià)值判斷。有學(xué)者認(rèn)為在數(shù)字出版智能語言模型治理路徑上應(yīng)調(diào)試?yán)砟?,將兩種觀點(diǎn)辯證統(tǒng)一[11];應(yīng)采用善治理念,制定“良法”,進(jìn)行引導(dǎo)、規(guī)范和促進(jìn)知識(shí)生產(chǎn)[12]。出版道德委員會(huì)(COPE)于2021年發(fā)布AI應(yīng)用于學(xué)術(shù)出版的指導(dǎo)政策,內(nèi)容包括期刊選擇、識(shí)別論文主題,確定該主題是否符合期刊范圍、篩選同行評(píng)審專家、語言質(zhì)量評(píng)估、剽竊檢測(cè)以及評(píng)估實(shí)驗(yàn)設(shè)計(jì)和統(tǒng)計(jì)學(xué)分析等[13]。但該政策是針對(duì)出版機(jī)構(gòu)如何規(guī)范使用AI。在ChatGPT出現(xiàn)前,相關(guān)出版協(xié)會(huì)、機(jī)構(gòu)及期刊并未制定作者、審稿專家使用AI的規(guī)范。

以ChatGPT為代表的生成式AI,由于其算法獨(dú)創(chuàng)性、能力綜合性、應(yīng)用廣泛性,將徹底改變出版內(nèi)容生產(chǎn)范式和內(nèi)容供給模式,但其技術(shù)局限性(AI幻覺、過度優(yōu)化困境、算法歧視和有害指令)和不合理使用將加劇著作權(quán)問題,增加技術(shù)倫理失范和學(xué)術(shù)倫理失范的風(fēng)險(xiǎn)[14][15],如在ChatGPT出現(xiàn)初期,有研究者將ChatGPT列為作者,此舉遭到很多學(xué)者反對(duì)[16]。因此,面對(duì)AI生成內(nèi)容,出版界需重點(diǎn)關(guān)注著作權(quán)與倫理問題,如技術(shù)倫理和學(xué)術(shù)倫理失范等[17]。針對(duì)研究、寫作、稿件評(píng)審過程中的AI工具使用,ChatGPT出現(xiàn)后,國際協(xié)會(huì)/委員會(huì)如出版道德委員會(huì)、國際醫(yī)學(xué)期刊編輯委員會(huì)(ICMJE)、世界醫(yī)學(xué)編輯協(xié)會(huì)(WAME)等[18][19][20]于2023年制定相關(guān)政策,但以上機(jī)構(gòu)對(duì)作者和審稿專家使用AI的規(guī)范存在差異。

出版機(jī)構(gòu)是學(xué)術(shù)內(nèi)容質(zhì)量、準(zhǔn)確性、合法性和倫理性的“把關(guān)人”。一些出版機(jī)構(gòu),如愛思唯爾(Elsevier)與施普林格·自然正持續(xù)關(guān)注AI應(yīng)用情況,并制定相應(yīng)的倫理政策,為作者、審稿者提供AI使用指導(dǎo)。倫德(Lund)等調(diào)查了300種學(xué)術(shù)期刊的作者使用AI政策,發(fā)現(xiàn)58.7%的期刊有相關(guān)政策,但該研究范圍比較局限,未能涵蓋AI使用邊界、審稿者AI使用規(guī)范[21],且隸屬于施普林格·自然、愛思唯爾等出版機(jī)構(gòu)的期刊均遵循其出版機(jī)構(gòu)的AI作者政策。因此,有必要對(duì)出版機(jī)構(gòu)關(guān)于作者和審稿者AI使用規(guī)范進(jìn)行系統(tǒng)梳理。本文基于此目的對(duì)當(dāng)前出版機(jī)構(gòu)AI工具使用政策進(jìn)行調(diào)查,包括AI使用邊界、披露內(nèi)容和形式等,以期全面了解AI的出版?zhèn)惱碚呒按嬖诘膯栴}。

2 研究設(shè)計(jì)

國際出版機(jī)構(gòu)名單來源于科學(xué)網(wǎng)(Web of Science)的期刊引證報(bào)告(Journal Citation Reports)數(shù)據(jù)庫,最近更新日期為2023年10月18日。科學(xué)網(wǎng)按2022年收錄期刊數(shù)量對(duì)出版機(jī)構(gòu)的排序,本文選擇排名前70的出版機(jī)構(gòu)。首先,由于這些出版機(jī)構(gòu)的出版物數(shù)量和質(zhì)量均較高,全球聲譽(yù)高、影響力大,其AI應(yīng)用倫理政策權(quán)威性高;其次,他們制定AI出版政策時(shí)充分考慮倫理、法律、社會(huì)和經(jīng)濟(jì)等多方面因素,內(nèi)容綜合性強(qiáng);再者,其出版物涵蓋專業(yè)廣泛,幾乎涉及理工農(nóng)醫(yī)所有專業(yè),政策內(nèi)容具有可推廣性。

從出版機(jī)構(gòu)官方網(wǎng)站發(fā)布的出版/編輯倫理(publication/editorial ethics)、作者/審稿專家指南(rguidelines for authors/peer re-viewers)中收集關(guān)于作者和審稿專家的AI出版政策。檢索時(shí)間為2024年1月2—8日。納入標(biāo)準(zhǔn):(1)若出版機(jī)構(gòu)之間是從屬關(guān)系,AI出版政策完全相同,則納入期刊數(shù)量最多的出版機(jī)構(gòu);(2)有的出版機(jī)構(gòu)之間雖然是從屬關(guān)系,但出版政策描述不完全一致,則分別統(tǒng)計(jì);(3)名單中重復(fù)的出版機(jī)構(gòu)則納入其中1個(gè);(4)如果出版機(jī)構(gòu)有針對(duì)圖書和期刊的不同出版政策,則選擇針對(duì)期刊的AI出版政策。

排除標(biāo)準(zhǔn):(1)出版機(jī)構(gòu)官方網(wǎng)站無AI相關(guān)政策;(2)針對(duì)AI的使用政策以新聞(news)、社論(editorial)、觀點(diǎn)(opinion、perspective)等形式發(fā)表,未在網(wǎng)站的出版/編輯倫理、作者/審稿專家指南出現(xiàn);(3)出版政策中只提到參考出版道德委員會(huì)、國際醫(yī)學(xué)期刊編輯委員會(huì)政策或提供其網(wǎng)址鏈接,并未對(duì)AI使用做特別要求和詳細(xì)描述。

由一位作者分析AI出版?zhèn)惱碚?,另一位作者核?duì)結(jié)果,如有分歧則通過討論解決。

最終納入23家出版機(jī)構(gòu)。納入機(jī)構(gòu)收錄期刊數(shù)均>40種,其中,施普林格·自然、愛思唯爾、泰勒弗朗西斯(Taylor & Francis)和威利(Wiley)收錄期刊數(shù)均>1000種。

3 國際出版機(jī)構(gòu)AI使用的出版政策現(xiàn)狀

3.1 出版機(jī)構(gòu)對(duì)AI身份問題已達(dá)成共識(shí)

生成式AI導(dǎo)致新型著作權(quán)爭(zhēng)議,如AIGC權(quán)利歸屬、侵權(quán)、AIGC版權(quán)保護(hù)等問題[22]。AIGC責(zé)任主體涉及內(nèi)容提供者、程序開發(fā)者、使用者、平臺(tái)運(yùn)營商[23]。各AI平臺(tái)對(duì)于生成內(nèi)容的歸屬權(quán)也有不同界定。根據(jù) Midjourney的條款,免費(fèi)用戶創(chuàng)造或制作的內(nèi)容的所有權(quán)利均歸平臺(tái),而OpenAI將輸出內(nèi)容的所有權(quán)利、所有權(quán)和利益(若有)全部轉(zhuǎn)讓給使用者[24]。

23家(100.0%)出版機(jī)構(gòu)都明確AI和AI工具不能成為作者和合著者。其中有兩家(8.7%)出版機(jī)構(gòu)包括愛思唯爾、多學(xué)科數(shù)字出版機(jī)構(gòu)(Multidisciplinary Digital Publishing Institute,MDPI),規(guī)定不能將AI作為作者引用。16家(69.6%)出版機(jī)構(gòu)認(rèn)為作者對(duì)稿件的內(nèi)容負(fù)有最終責(zé)任。5家(21.7%)出版機(jī)構(gòu)提醒作者,AI技術(shù)應(yīng)在人工監(jiān)督和控制下使用,需仔細(xì)審查AI生成內(nèi)容。目前,出版機(jī)構(gòu)明確AI不能成為著作權(quán)主體,且使用者對(duì)稿件內(nèi)容負(fù)有責(zé)任。在AIGC權(quán)利歸屬問題上,還有很多待解決的問題,如知識(shí)產(chǎn)權(quán)的認(rèn)定、版權(quán)歸屬、利益分配等。界定AI使用范圍對(duì)保護(hù)原創(chuàng)作品的完整性、界定版權(quán)歸屬、降低侵權(quán)風(fēng)險(xiǎn)、促進(jìn)合理使用等有重要意義。

3.2 出版機(jī)構(gòu)AI使用邊界政策存在差異

研究者和作者在AI使用中可能面臨一系列倫理和法律風(fēng)險(xiǎn),如隱私侵犯、著作權(quán)糾紛等。明確AI使用邊界對(duì)于學(xué)術(shù)誠信、知識(shí)產(chǎn)權(quán)保護(hù)等具有重要意義。此次調(diào)查中僅6家(26.1%)出版機(jī)構(gòu)明確AI使用邊界,且不同出版機(jī)構(gòu)間存在差異。因AI生成圖像引發(fā)新的版權(quán)問題和研究真實(shí)性問題,有3家(13.0%)出版機(jī)構(gòu),包括施普林格·自然、愛墨瑞得出版集團(tuán)(Emerald Group Publishing)、愛思唯爾,明確一般情況下不接受生成式AI生成的圖像和視頻。

1家(4.3%)機(jī)構(gòu)(愛墨瑞得出版集團(tuán))不允許使用生成式AI工具如大型語言模型撰寫文章的任何部分,包括生成摘要或文獻(xiàn)綜述,不允許使用AI工具或大型語言模型生成或報(bào)告結(jié)果或進(jìn)行統(tǒng)計(jì)數(shù)據(jù)的文本報(bào)告。兩家(8.7%)機(jī)構(gòu),包括德古意特出版社(Walter De Gruyter)、約翰·霍普金斯大學(xué)出版社(Johns Hopkins University Press),不接受任何實(shí)質(zhì)上由AI如大型語言模型撰寫的稿件。AI和AI輔助技術(shù)在寫作過程中,3家(13.0%)機(jī)構(gòu),包括愛思唯爾、愛墨瑞得出版集團(tuán)、智力出版公司(Intellect Ltd),聲明只能用于提高稿件的可讀性和語言表達(dá)。

其余出版機(jī)構(gòu)未特別界定AI使用范圍,但在要求作者進(jìn)行AI使用披露時(shí)列舉了一些使用內(nèi)容,見表1。從范圍上來看,這些出版機(jī)構(gòu)比上述6家出版機(jī)構(gòu)AI允許使用的范圍更廣,主要體現(xiàn)在允許圖片、觀點(diǎn)、摘要、表格、代碼等生成。

調(diào)查結(jié)果顯示,出版機(jī)構(gòu)在AI使用邊界上意見不一。少數(shù)機(jī)構(gòu)明確限制AI使用,尤其是視覺內(nèi)容和完全由AI撰寫的文章。而其他機(jī)構(gòu)對(duì)作者的AI使用說明較模糊,政策較為寬松。尤其AI工具在文本和數(shù)據(jù)分析中的應(yīng)用可能加劇剽竊的隱蔽性。

出版機(jī)構(gòu)界定AI使用范圍尚未達(dá)成共識(shí)的原因可能是AI技術(shù)的快速進(jìn)步帶來了層出不窮的新技術(shù)和新應(yīng)用,使得人們難以全面理解AI的廣泛應(yīng)用范圍和其潛在的深遠(yuǎn)影響,因此,目前出版機(jī)構(gòu)難以制定出既全面又明確的規(guī)定。同時(shí),國際協(xié)會(huì)/委員會(huì)未能跟上AI技術(shù)的快速發(fā)展,也未明確AI使用范圍,出版機(jī)構(gòu)尚不能在其指導(dǎo)下制定相關(guān)政策,顯示出一定的滯后性。

3.3 出版機(jī)構(gòu)AI披露政策存在分歧

ChatGPT介入學(xué)術(shù)論文創(chuàng)作涉及著作權(quán)的底層邏輯、學(xué)術(shù)誠信的本位邏輯、可信AI的頂層邏輯,三重邏輯都要求作者履行透明度義務(wù)[25]。目前,出版界已經(jīng)達(dá)成共識(shí),允許作者使用,但均要求作者進(jìn)行披露(100.0%,23/23)。但對(duì)如何披露、在文章中披露的位置及披露的內(nèi)容,出版機(jī)構(gòu)之間尚存差異。4家(17.4%)出版機(jī)構(gòu),包括約翰·本杰明斯出版公司(John Benjamins Publishing Co)、劍橋大學(xué)出版社(Cambridge University Press)、德孚醫(yī)藥出版社(Dove Medical Press)、泰勒弗朗西斯,未說明需要披露的位置。9家(39.1%)出版機(jī)構(gòu),包括約翰·霍普金斯大學(xué)出版社、施普林格·自然、IOS出版社(IOS Press)、德古意特出版社、電氣電子工程師學(xué)會(huì)出版社(The Institute of Electrical and Electronics Engineers)、美國計(jì)算機(jī)協(xié)會(huì)出版機(jī)構(gòu)(Association for Computing Machinery)、蒂墨醫(yī)學(xué)出版社(Thieme Me-dical Publishers)、威利及牛津大學(xué)出版社(Oxford University Press),未說明具體需要披露的內(nèi)容。

本瑟姆科學(xué)出版社(Bentham Science Publishers)要求在方法部分說明AI工具使用方法以及類型;愛思唯爾要求作者在方法中解釋AI工具使用方法,以及AI 的產(chǎn)品信息,如果在寫作過程中使用了AI工具,需要在正文和參考文獻(xiàn)之間設(shè)置獨(dú)立的部分披露工具名稱和使用原因;瑪麗·安·利伯特出版社(Mary Ann Liebert, Inc)要求在方法中提供軟件的名稱和版本、最初使用的日期以及啟動(dòng)AI響應(yīng)時(shí)所給的相關(guān)提示、信號(hào),在結(jié)果中應(yīng)討論AI使用結(jié)果的潛在偏差和局限性; 蒂墨出版集團(tuán)、威利、卡格爾出版社(Karger)和英國物理學(xué)會(huì)出版社(Institute of Physics Publishing)要求在方法或致謝部分進(jìn)行披露,此外,卡格爾出版社還要求提供補(bǔ)充材料;愛墨瑞得出版集團(tuán)要求在方法和致謝部分披露已創(chuàng)建或已修改的內(nèi)容;多學(xué)科數(shù)字出版機(jī)構(gòu)要求作者在材料和方法中披露AI工具的使用細(xì)節(jié),在致謝中披露AI工具詳細(xì)的產(chǎn)品信息;BMJ出版集團(tuán)要求在貢獻(xiàn)者部分披露AI技術(shù)的名稱、使用原因、完成任務(wù),在補(bǔ)充材料中說明原始輸入提示和輸出內(nèi)容。

此外,愛墨瑞得出版集團(tuán)和卡格爾出版社聲明,如果作者使用了AI工具,要求其像引用其他軟件一樣對(duì)AI進(jìn)行引用。約翰·霍普金斯大學(xué)出版社要求在文本、圖像、圖表或工作的其他部分使用生成式AI或大型語言模型,必須像使用任何外部來源一樣進(jìn)行引用。BMJ出版集團(tuán)、卡格爾出版社和世哲出版公司提到,如果沒有按照其要求充分披露AI的使用,可能會(huì)被拒稿或出版后再進(jìn)行更正等。

在稿件中披露AI工具使用不僅是對(duì)研究方法的補(bǔ)充,也是對(duì)學(xué)術(shù)誠信、透明度的承諾,可以幫助其他學(xué)者更好地理解AI工具的應(yīng)用,推動(dòng)AI技術(shù)在學(xué)術(shù)界的普及和應(yīng)用。同時(shí),也有助于避免因?yàn)閷?duì)AI工具的誤解或不了解而導(dǎo)致的錯(cuò)誤使用或?yàn)E用。出版機(jī)構(gòu)向研究者和作者聲明未充分披露導(dǎo)致的后果,對(duì)其有警示作用,不僅能夠促使他們?cè)谶M(jìn)行研究和創(chuàng)作時(shí)更加謹(jǐn)慎和負(fù)責(zé)任,還能夠引導(dǎo)他們充分認(rèn)識(shí)到AI技術(shù)潛在的風(fēng)險(xiǎn)和挑戰(zhàn)。

3.4 審稿專家AI使用政策待完善

本文調(diào)查對(duì)象中僅有13家(56.5%)出版機(jī)構(gòu)制定了審稿專家AI使用政策。11家(47.8%)出版機(jī)構(gòu)要求不能將稿件或其中任何部分上傳至生成式AI,其中愛思唯爾還要求審稿專家不能將評(píng)審報(bào)告上傳至生成式AI。愛思唯爾、多學(xué)科數(shù)字出版機(jī)構(gòu)要求審稿專家對(duì)評(píng)審報(bào)告內(nèi)容負(fù)責(zé)。如果在審稿中使用了AI技術(shù)和工具,僅3家機(jī)構(gòu)要求審稿專家在評(píng)審報(bào)告中進(jìn)行聲明,透明化處理;但所有出版機(jī)構(gòu)均未說明如果評(píng)審過程中超出AI使用邊界或未充分披露將造成的后果,見表2。

由于生成式AI通過公開數(shù)據(jù)進(jìn)行訓(xùn)練,使用其進(jìn)行審稿有諸多弊端。首先,保密原則是稿件評(píng)審的重要原則,過早透露稿件信息可能會(huì)侵犯作者的隱私權(quán),包括個(gè)人隱私和數(shù)據(jù)隱私;其次,可能會(huì)產(chǎn)生偏見內(nèi)容[26][27][28][29];

再次,缺乏透明度,導(dǎo)致評(píng)審結(jié)果缺乏可解釋性,而且不可避免會(huì)產(chǎn)生錯(cuò)誤信息。有研究者嘗試?yán)么笮驼Z言模型對(duì)預(yù)印版稿件進(jìn)行評(píng)審,發(fā)現(xiàn)聊天機(jī)器人提供虛假文獻(xiàn)[30]。還有研究者認(rèn)為大型語言模型缺乏人類評(píng)審的深度和洞察力,會(huì)提供一些看似有用的虛假評(píng)審報(bào)告,無法完全替代人類評(píng)審[31]。因此,2024版國際醫(yī)學(xué)期刊編輯委員會(huì)推薦[32]中新增“審稿指南必須包括AI使用的指導(dǎo)”。

4 AI出版?zhèn)惱斫ㄔO(shè)的啟示

我國先后出臺(tái)了《新一代人工智能治理原則:發(fā)展負(fù)責(zé)任的人工智能》(2019年)、《新一代人工智能倫理規(guī)范》(2021年)、《關(guān)于加強(qiáng)科技倫理治理的意見》(2022年)和《科技倫理審查辦法(試行)》(2023年),力圖通過AI與倫理的有機(jī)結(jié)合,引導(dǎo)AI走上“科技向善”的健康發(fā)展道路[33]。AI工具使用的出版?zhèn)惱硎悄壳俺霭鎮(zhèn)惱斫ㄔO(shè)中需要重點(diǎn)關(guān)注的內(nèi)容。為研究者、作者、審稿專家制定詳盡、透明的指導(dǎo)規(guī)范是出版機(jī)構(gòu)的重要職責(zé)。此次調(diào)查結(jié)果顯示,大部分出版機(jī)構(gòu)還未向研究者和作者明確AI工具的使用范圍,未說明未充分披露的后果,且同行評(píng)審過程中的AI使用政策待完善。目前,國內(nèi)只有少部分期刊制定了AI使用規(guī)范。因此,國內(nèi)出版機(jī)構(gòu)需盡快探討和建立一套完善的出版?zhèn)惱碚邅硪?guī)范AI在學(xué)術(shù)研究、寫作、審稿中的應(yīng)用。政策制定需平衡AI技術(shù)與著作權(quán)、出版?zhèn)惱碇g的關(guān)系,體現(xiàn)數(shù)據(jù)使用倫理性、研究透明度和可重復(fù)性、技術(shù)偏見與公平性、責(zé)任歸屬等。

4.1 明確AI工具的使用邊界

AI使用邊界在技術(shù)倫理學(xué)中占有重要地位。明確AI的使用范圍、使用條件和責(zé)任歸屬等,有助于確保AI技術(shù)的發(fā)展和應(yīng)用能夠符合倫理原則,促進(jìn)公平公正,明確責(zé)任歸屬,以防范AI濫用[34]。有研究提出,出版機(jī)構(gòu)應(yīng)該明確稿件中AI使用范圍,明確AIGC剽竊的界限[35]。

AI的穩(wěn)健進(jìn)步與科技倫理的引導(dǎo)之間存在顯著的正向聯(lián)系,通過加強(qiáng)技術(shù)責(zé)任制度的實(shí)際建設(shè),可以提升科技工作者對(duì)倫理準(zhǔn)則的執(zhí)行水平[36]。在ChatGPT出現(xiàn)初期,我國一些期刊對(duì)作者AI生成論文內(nèi)容制定了相關(guān)政策,如2023年2月,《暨南學(xué)報(bào)》《天津師范大學(xué)學(xué)報(bào)(基礎(chǔ)教育版)》發(fā)布《關(guān)于使用人工智能寫作工具的說明》,但并未對(duì)AI的使用邊界進(jìn)行說明。目前,愛思唯爾禁止使用生成式AI或AI輔助工具創(chuàng)建或更改稿件中的圖片,施普林格·自然禁止使用AI生成的圖片和視頻。2023年9月,中國科學(xué)技術(shù)信息研究所聯(lián)合愛思唯爾、施普林格·自然、威利發(fā)布的《學(xué)術(shù)出版中AIGC使用邊界指南》[37](以下簡(jiǎn)稱《指南》)中,關(guān)于圖表使用作了更明確的建議:AI可用于推薦合適的統(tǒng)計(jì)圖表類型、輔助調(diào)整圖表樣式、對(duì)圖表進(jìn)行格式化處理;但實(shí)驗(yàn)生成類圖像必須由真實(shí)開展的實(shí)驗(yàn)研究獲得,不可通過AI直接生成。

目前,國內(nèi)僅有極少數(shù)期刊發(fā)布了關(guān)于AI使用范圍的政策。在制定AI出版?zhèn)惱碚邥r(shí),須深思我國期刊出版特性與現(xiàn)狀。2024年1月,中華醫(yī)學(xué)會(huì)雜志社發(fā)布了《中華醫(yī)學(xué)會(huì)雜志社關(guān)于在論文寫作和評(píng)審過程中使用生成式人工智能技術(shù)的有關(guān)規(guī)定》[38](以下簡(jiǎn)稱《規(guī)定》),明確作者附條件使用AI的情況,包括:文獻(xiàn)檢索、選題、關(guān)鍵詞推薦等啟發(fā)式探索用途;統(tǒng)計(jì)分析;潤色、翻譯;推薦圖表類型、輔助制圖;參考文獻(xiàn)格式的規(guī)范化檢查、參考文獻(xiàn)與正文對(duì)應(yīng)的自動(dòng)化排序、自動(dòng)引用生成等方面。國內(nèi)醫(yī)學(xué)期刊可以參考《指南》和《規(guī)定》為作者和審稿者制定AI使用邊界。而AI技術(shù)的應(yīng)用范圍在不同學(xué)科領(lǐng)域可能表現(xiàn)出差異性,這要求其他領(lǐng)域期刊在參考《指南》制定相關(guān)出版政策時(shí),需要依據(jù)本行業(yè)、協(xié)會(huì)相關(guān)政策及學(xué)科特性,與法律、技術(shù)、倫理等多領(lǐng)域的專家共同研究和探討,以制定出一套科學(xué)、合理、可行的解決方案。同時(shí)需明確,AI政策應(yīng)該是動(dòng)態(tài)變化的,需要根據(jù)新形勢(shì)作出調(diào)整。

4.2 持續(xù)完善AI披露政策

在論文寫作中使用生成式AI具有客觀隱匿性和主觀隱匿性,客觀隱匿性指的是AI的“黑箱”問題,生成過程不可見;主觀隱蔽性是指使用者利用AI介入論文生成過程,其他人不知情,造成信息不對(duì)稱[39]。

透明度義務(wù)是學(xué)術(shù)誠信的基本要求。在稿件中對(duì)AI全面披露對(duì)于維護(hù)技術(shù)倫理和保護(hù)著作權(quán)至關(guān)重要,讓使用者、讀者能夠深入理解AI系統(tǒng)的運(yùn)作方式,包括其功能、限制、風(fēng)險(xiǎn)及影響;有助于編輯和審稿專家在審查和出版稿件時(shí)考慮這些技術(shù)的局限性和偏見[40];有助于構(gòu)建有效的監(jiān)督和審查機(jī)制,確保AI技術(shù)的發(fā)展與應(yīng)用符合倫理標(biāo)準(zhǔn)和社會(huì)期望;有助于了解作者和AI的貢獻(xiàn)內(nèi)容和貢獻(xiàn)程度,對(duì)著作權(quán)歸屬和侵權(quán)責(zé)任判定具有重要意義。關(guān)于如何披露AI,出版道德委員會(huì)要求在稿件的材料和方法(或類似部分)中披露AI工具的使用方法以及類型。2024版國際醫(yī)學(xué)期刊編輯委員會(huì)推薦[41]要求在投稿信和稿件中披露,如果AI用于輔助寫作,在致謝部分對(duì)此進(jìn)行說明;如果AI用于數(shù)據(jù)收集、分析或圖形生成,則在方法中進(jìn)行披露。世界醫(yī)學(xué)編輯協(xié)會(huì)要求作者完整地列出所使用聊天機(jī)器人的技術(shù)規(guī)格(包括名稱、版本、型號(hào)和來源)以及使用方法(包括查詢結(jié)構(gòu)和語法),并在投稿信和文章適當(dāng)位置進(jìn)行披露。但有研究者認(rèn)為在致謝中披露AI的使用不合理,因?yàn)樗鼪]有自由意志,因此,不能對(duì)其行為承擔(dān)道德或法律責(zé)任[42]。從此次調(diào)查結(jié)果看,不同國際出版機(jī)構(gòu)關(guān)于如何披露尚存差異。

在ChatGPT之前,已有大型語言模型用于研究和寫作,但出版機(jī)構(gòu)未要求進(jìn)行披露。生成式AI/大型語言模型(如ChatGPT)具有隱蔽性和混合性,促使重視學(xué)術(shù)質(zhì)量的出版機(jī)構(gòu)相繼出臺(tái)相關(guān)政策,以透明度義務(wù)確保高品質(zhì)學(xué)術(shù)自由[43]。目前,國內(nèi)出版機(jī)構(gòu)關(guān)于如何披露AI的研究較少,還需繼續(xù)探討并完善AI披露細(xì)節(jié),披露內(nèi)容應(yīng)盡可能詳盡、全面,包括公開AI的使用目的、使用時(shí)間、重要步驟、主要類型等[44]。此外,瑪麗·安·利伯特出版社建議在結(jié)果中討論AI使用的潛在偏見和局限性,卡格爾出版社、BMJ出版集團(tuán)要求將輸入指令和AI的原始輸出作為補(bǔ)充材料進(jìn)行提交,通過提供這些原始數(shù)據(jù),可以使研究過程更加透明。國內(nèi)出版機(jī)構(gòu)在制定AI披露形式時(shí),可以參考國際同行的做法。

4.3 加強(qiáng)對(duì)審稿專家AI使用關(guān)注及完善指導(dǎo)方針

在學(xué)術(shù)出版領(lǐng)域,隨著稿件數(shù)量不斷上升,同行評(píng)審專家承受的評(píng)審壓力亦相應(yīng)增大。有研究認(rèn)為可以使用AI技術(shù)協(xié)助審稿[45]。但出版道德委員會(huì)和世界醫(yī)學(xué)編輯協(xié)會(huì)等相關(guān)委員會(huì)顯然缺乏關(guān)于審稿專家是否應(yīng)使用基于AI的工具以及如果使用、在什么條件下使用等問題的指導(dǎo)方針。

本文調(diào)查發(fā)現(xiàn),僅有13家(56.5%)出版機(jī)構(gòu)制定了針對(duì)同行評(píng)議的AI使用政策,這一比例相對(duì)較低,表明對(duì)審稿專家AI使用的關(guān)注度不足。此外,這些出版機(jī)構(gòu)在其網(wǎng)站上描述的政策中,均未明確處理潛在違規(guī)行為的程序。對(duì)于審稿專家或編輯使用或疑似使用生成式AI的情況,缺乏透明度,處理方式及流程不明確,且不清楚是否由期刊倫理委員會(huì)或研究誠信團(tuán)隊(duì)負(fù)責(zé)。出版機(jī)構(gòu)是否具備檢測(cè)AI生成內(nèi)容的手段也未知。在同行評(píng)審過程中,對(duì)使用生成式AI的審稿專家是否采取制裁措施尚未明確。這種政策缺失對(duì)同行評(píng)審構(gòu)成風(fēng)險(xiǎn),可能影響各方信任,挑戰(zhàn)稿件決策,引發(fā)作者與期刊糾紛,進(jìn)而威脅同行評(píng)審系統(tǒng)的完整性、真實(shí)性。

國內(nèi)外出版機(jī)構(gòu)在強(qiáng)化審稿過程中AI應(yīng)用的監(jiān)管層面,應(yīng)采納一系列具體策略:首先,編寫一套詳盡的審稿專家AI使用指南,明確界定AI工具的應(yīng)用范疇、適用條件、操作流程及倫理準(zhǔn)則。其次,實(shí)施定期AI技能培訓(xùn)與教育項(xiàng)目,以提升審稿專家對(duì)AI技術(shù)的認(rèn)知水平及其在審稿實(shí)踐中的合理運(yùn)用;此外,審稿聲明中應(yīng)納入AI使用條款,要求審稿專家承諾并披露AI的應(yīng)用細(xì)節(jié);同時(shí),建立AI使用記錄系統(tǒng),以便追蹤審稿過程中的AI工具應(yīng)用情況;在審稿流程中增設(shè)監(jiān)督環(huán)節(jié),確保AI使用的合規(guī)性;建立反饋與評(píng)估機(jī)制,以便于從作者和編輯處收集對(duì)審稿專家AI使用的評(píng)價(jià),并根據(jù)反饋進(jìn)行周期性評(píng)估。最后,促進(jìn)跨機(jī)構(gòu)合作與交流,共享審稿專家AI使用的經(jīng)驗(yàn)與最佳實(shí)踐,以推動(dòng)行業(yè)標(biāo)準(zhǔn)的提升。

4.4 加強(qiáng)AIGC審查與治理制度建設(shè)

針對(duì)其他學(xué)術(shù)不端和出版?zhèn)惱韱栴},國際協(xié)會(huì)制定了相關(guān)政策,但目前還未對(duì)超出AI使用范圍和未充分披露AI制定相應(yīng)的審查和治理措施。AI生成的文本、圖像等具有高度的復(fù)雜性和不確定性,增加了檢測(cè)的難度;大型語言模型不斷迭代,但目前AIGC檢測(cè)軟件還未普及,因此要依賴于使用者負(fù)責(zé)任地使用及透明化使用過程。為了應(yīng)對(duì)這一問題,制定明確的處理措施至關(guān)重要,這樣編輯在遇到相關(guān)問題時(shí)可以有據(jù)可依。同時(shí),這也提醒研究者和作者在學(xué)術(shù)研究和寫作中合理使用AI技術(shù),遵循AI使用規(guī)范,維護(hù)學(xué)術(shù)誠信。

超出AI使用范圍和未充分披露是學(xué)術(shù)倫理失范的表現(xiàn)形式之一。國內(nèi)外出版機(jī)構(gòu)應(yīng)迅速建立和完善AI倫理審查制度。這樣的制度不僅能夠預(yù)防潛在的法律和責(zé)任問題,還能降低因技術(shù)應(yīng)用不當(dāng)而帶來的倫理風(fēng)險(xiǎn)。審核的重點(diǎn)應(yīng)包括數(shù)據(jù)的合法性、內(nèi)容的合規(guī)性、敏感數(shù)據(jù)的處理方式以及知識(shí)產(chǎn)權(quán)的保護(hù)問題等。

此外,為了形成更加全面和有效的治理體系,出版機(jī)構(gòu)在推進(jìn)AI技術(shù)在學(xué)術(shù)出版中的應(yīng)用時(shí),應(yīng)主動(dòng)與高等教育機(jī)構(gòu)、科研單位、項(xiàng)目資助機(jī)構(gòu)等多元主體建立緊密的合作關(guān)系。通過合作,各方可以共同探討和制定一套關(guān)于AI使用的治理規(guī)范,以引導(dǎo)和規(guī)范AI技術(shù)在學(xué)術(shù)出版領(lǐng)域的合理運(yùn)用。這種跨學(xué)科、跨領(lǐng)域的合作模式,將極大地提高AI技術(shù)在學(xué)術(shù)出版中應(yīng)用的透明度,確保其操作流程和結(jié)果的可追溯性,從而為AI技術(shù)的健康發(fā)展提供有力的制度保障。

5 結(jié) 語

本文采用嚴(yán)格的納入與排除標(biāo)準(zhǔn),僅從排名前70的國際出版機(jī)構(gòu)中選取23家,樣本量相對(duì)有限。但這些出版機(jī)構(gòu)均在國際上享有盛譽(yù),旗下?lián)碛斜姸嗥诳?,能夠代表高水平的出版?biāo)準(zhǔn)。本文對(duì)這些機(jī)構(gòu)的政策進(jìn)行了深入分析,并獲得了有意義的發(fā)現(xiàn)。同時(shí),注意到一些國際出版機(jī)構(gòu)及其期刊以社論、新聞、觀點(diǎn)文章等多種形式發(fā)布了關(guān)于AI出版的倫理政策。本文主要檢索了官方網(wǎng)站上正式發(fā)布的政策與倫理聲明,未專門搜尋相關(guān)文章,可能導(dǎo)致部分信息的遺漏或不全面。

隨著AI技術(shù)的飛速發(fā)展,AI在出版領(lǐng)域的應(yīng)用日益廣泛,AI出版?zhèn)惱硪仓饾u成為期刊倫理建設(shè)的核心組成部分。通過本文調(diào)查可以發(fā)現(xiàn),出版機(jī)構(gòu)在一些總的出版原則上與國際協(xié)會(huì)/委員會(huì)一致,如不承認(rèn)AI工具的作者身份、透明化披露AI使用及使用者對(duì)稿件內(nèi)容負(fù)全部責(zé)任。但目前關(guān)于AI的使用邊界還比較模糊,披露細(xì)節(jié)也存在差異。關(guān)于AI使用還有很多問題待解決,如AIGC的檢測(cè)、對(duì)剽竊的判定、AIGC版權(quán)歸屬,同時(shí)錯(cuò)誤虛假的AIGC給同行評(píng)審也帶來挑戰(zhàn)。在未來的學(xué)術(shù)出版實(shí)踐中,還會(huì)不斷涌現(xiàn)出新的AI出版?zhèn)惱韱栴},為了更好地應(yīng)對(duì)這些問題,需要從倫理、技術(shù)、法律等多個(gè)維度,規(guī)范AI在學(xué)術(shù)研究及出版中的應(yīng)用,明確使用者的主導(dǎo)地位;從協(xié)同治理理念出發(fā),聯(lián)合多方學(xué)術(shù)共同體及管理部門完善倫理規(guī)范,引導(dǎo)其沿著科技向善的方向穩(wěn)定推進(jìn),營造良好的學(xué)術(shù)生態(tài)。

注 釋

[1] Lambert J, Stevens M. ChatGPT and generative AI technology: a mixed bag of concerns and new opportunities [J]. Computers in the Schools, 2023:1-25

[2] Sedaghat S. Early applications of ChatGPT in medical practice, education and research [J]. Clinical Medicine(Lond) , 2023, 23(3): 278

[3] Rahimi F, Talebi Bezmin Abadi A. ChatGPT and publication ethics [J]. Archives of Medical Research, 2023, 54(3): 272

[4] ChatGPT helps radiologist churn out 16 papers in 4 months [EB/OL]. [2024-01-17]. https://healthimaging.com/topics/artificial-intelligence/chatgpt-helps-radiologist-churn-out-16-papers-4-months

[5][30] Donker T. The dangers of using large language models for peer review[J]. The Lancet Infectious Diseases, 2023, 23(7): 781

[6][31] Hosseini M, Horbach SPJM. Fighting reviewer fatigue or amplifying bias? Considerations and recommendations for use of ChatGPT and other large language models in scholarly peer review [J]. Research Square, 2023, rs.3.rs-2587766

[7] Ali MJ, Singh S. ChatGPT and scientific abstract writing: pitfalls and caution [J]. Graefes Archive for Clinical and Experimental Ophthalmology, 2023, 261(11): 3205

[8] 華劼. 合理使用制度運(yùn)用于人工智能創(chuàng)作的兩難及出路[J]. 電子知識(shí)產(chǎn)權(quán),2019(4):28-39

[9] 英倫閣. 人工智能在研究與出版業(yè)的應(yīng)用 [EB/OL]. [2024-01-16]. https://www.enago.cn/academy/ren-gong-zhi-neng-zai-yan-jiu-yu-chu-ban-ye-de-ying-yong

[10] Khalifa M, Albadawy M. Using artificial intelligence in academic writing and research: An essential productivity tool [J]. Computer Methods and Programs in Biomedicine Update, 2024( 5): 100145

[11][14] 任安麒. 數(shù)字出版領(lǐng)域智能語言模型的應(yīng)用、風(fēng)險(xiǎn)與治理:基于ChatGPT技術(shù)特征的分析 [J]. 出版科學(xué),2023,31(3):94-102

[12][17]宋時(shí)磊, 楊逸云. 應(yīng)用場(chǎng)景、風(fēng)險(xiǎn)與前景:ChatGPT類大語言模型時(shí)代的學(xué)術(shù)出版 [J]. 出版科學(xué),2023,31(5):76-84

[13] COPE. Discussion document:Artificial intelligence(AI)in decision making[EB/OL]. [2024-01-17]. https://publicationethics.org/sites/default/files/ai-in-decision-making-discussion-doc.pdf

[15][22] 方卿, 丁靖佳. 人工智能生成內(nèi)容(AIGC)的三個(gè)出版學(xué)議題 [J]. 出版科學(xué),2023,31(2):5-10

[16] Stokel-Walker C. ChatGPT listed as author on research papers:Many scientists disapprove[J]. Nature, 2023, 613(7945): 620-621

[18] COPE. COPE position statement (2023) In: Authorship and AI tools[EB/OL]. [2024-01-16]. https:// publicationethics.org/cope-position-statements/ai-author

[19][32][41] ICMJE. Recommendations for the conduct, reporting, editing, and publication of scholarly work in medical journals[EB/OL]. [2024-01-17]. https://icmje.org/recommendations

[20] Zielinski C, Winker MA, Aggarwal R, et al. Chatbots, Generative AI, and Scholarly Manuscripts. WAME Recommendations on Chatbots and Generative Artificial Intelligence in Relation to Scholarly Publications[EB/OL]. [2024-01-17]. https://wame.org/pdf/Chatbots-Generative-AI-and-Scholarly-Manuscripts.pdf

[21] Lund B D, Naheem K T. Can ChatGPT be an author? A study of artificial intelligence authorship policies in top academic journals [J]. Learned Publishing, 2024, 37(1): 13-21

[23] 范心悅. 從算法認(rèn)知看人工智能的責(zé)任主體問題[D]. 甘肅:蘭州大學(xué),2023:7

[24] OpenAI. Terms of use [EB/OL]. [2024-02-17]. https://openai.com/policies/terms-of-use

[25][39][43][44] 程睿. ChatGPT介入學(xué)術(shù)論文透明度義務(wù)的可視正義功能 [J]. 科學(xué)學(xué)研究,2023,41(12):2138-2146

[26] Fujimoto S, Takemoto K. Revisiting the political biases of ChatGPT [J]. Frontiers in Artificial Intelligence,2023(12):2138-2146

[27] Alawida M, Mejri S, Mehmood A, et al. A comprehensive study of ChatGPT: Advancements, limitations, and ethical considerations in natural language processing and cybersecurity[J]. Information, 2023, 14(8): 462

[28] Yuan WZ, Liu PF, Neubig G. Can we automate scientific reviewing [J].2021, arXiv:2102.00176

[29] Graf A, Bernardi RE. ChatGPT in research: Balancing ethics, transparency and advancement [J]. Neuroscience,2023, 515: 71

[33] 李志祥.倫理學(xué)視域下的人工智能發(fā)展 [EB/OL]. [2024-01-17]. https://news.gmw.cn/2024-02/19/content_37150949.htm

[34] 韓旭至. 生成式人工智能治理的邏輯更新與路徑優(yōu)化 [J]. 行政法學(xué)研究, 2023(6): 30-42

[35] 蔣雪穎, 劉欣. 生成式人工智能技術(shù)下的學(xué)術(shù)生產(chǎn)與出版:變革、失范與路徑 [J]. 數(shù)字圖書館論壇, 2023,19(5): 64-71

[36] 鄧若玉. 人工智能發(fā)展的科技倫理反思 [J]. 廣西社會(huì)科學(xué), 2020(10): 93-97

[37] 吉林大學(xué)學(xué)報(bào)工學(xué)版. 《學(xué)術(shù)出版中AIGC使用邊界指南》正式發(fā)布[OL].[2024-01-17]. https://mp.weixin.qq.com/s?biz=MzI2MjUzMDUwOQ==&mid=2247489029&idx=2&sn=ee1c3984ba809ee8a522e7e52360ad4a&chksm=ea48e2a7dd3f6bb1eeefc99a401efd33b230b7c98963a29a741b98026ca6ad48f98f4b389c4c&scene=27

[38]中華口腔醫(yī)學(xué)雜志. 中華醫(yī)學(xué)會(huì)雜志社關(guān)于在論文寫作和評(píng)審過程中使用生成式人工智能技術(shù)的有關(guān)規(guī)定[OL]. https://mp.weixin.qq.com/s?__biz=MzA5Nzc2MjE5NQ==&mid=2653558636&idx=1&sn=370aafb6456cb83191f104c612d88b95&chksm=8b455990bc32d0862170c5ded1d019c3c642e7e70bd148ca937c3618274047cd448c80fec9ec&scene=27

[40] Gaggioli A. Ethics: Disclose use of AI in scientific manuscripts [J]. Nature, 2023, 614(7948): 413

[42] Hosseini M, Resnik DB, Holmes K. The ethics of disclosing the use of artificial intelligence tools in writing scholarly manuscripts [J]. Research Ethics, 2023, 19(4):449-465

[45] Bauchner H, Rivara FP. Use of artificial intelligence and the future of peer review [J]. Health Affairs Scholar, 2024, 2(5): qxae058

(收稿日期:2024-02-20;修回日期:2024-09-04)