国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

學(xué)術(shù)研究中使用AIGC工具的風(fēng)險(xiǎn)審視與應(yīng)對(duì)策略研究

2024-10-07 00:00:00張艷麗管玉燕宛雪趙晶浩
知識(shí)管理論壇 2024年4期

摘要:[目的/意義]分析學(xué)術(shù)研究中使用AIGC工具可能存在的風(fēng)險(xiǎn),對(duì)規(guī)避風(fēng)險(xiǎn)的策略展開研究,為科研人員合規(guī)使用AIGC工具提供參考和借鑒。[方法/過(guò)程]梳理國(guó)內(nèi)外學(xué)術(shù)領(lǐng)域有關(guān)AIGC應(yīng)用的政策規(guī)定,歸納分析使用AIGC的主要風(fēng)險(xiǎn),結(jié)合科研人員的學(xué)術(shù)研究過(guò)程,提出規(guī)避風(fēng)險(xiǎn)的策略以及在不同階段使用AIGC的可行性建議。[結(jié)果/結(jié)論]科研人員使用AIGC工具面對(duì)的風(fēng)險(xiǎn)主要集中在輸入內(nèi)容的安全性、輸出結(jié)果的可靠性、學(xué)術(shù)倫理風(fēng)險(xiǎn)以及潛在法律風(fēng)險(xiǎn)??蒲腥藛T應(yīng)提高風(fēng)險(xiǎn)意識(shí),理解政策規(guī)定,明確不同研究階段和場(chǎng)景的使用邊界,規(guī)范使用行為,以確保AIGC工具在學(xué)術(shù)研究中發(fā)揮積極作用。

關(guān)鍵詞:AIGC;生成式人工智能;學(xué)術(shù)研究;風(fēng)險(xiǎn)分析;應(yīng)對(duì)策略

分類號(hào):TP18;G2;B82-057

引用格式:張艷麗, 管玉燕, 宛雪, 等. 學(xué)術(shù)研究中使用AIGC工具的風(fēng)險(xiǎn)審視與應(yīng)對(duì)策略研究[J/OL]. 知識(shí)管理論壇, 2024, 9(4): 341-352 [引用日期]. http://www.kmf.ac.cn/p/397/. (Citation: Zhang Yanli, Guan Yuyan, Wan Xue, et al. The Risk Review and Countermeasures of Using AIGC in Academic Research[J/OL]. Knowledge Management Forum, 2024, 9(4): 341-352 [cite date]. http://www.kmf.ac.cn/p/397/.)

1 研究背景/Research background

2022年末問(wèn)世的ChatGPT,改變傳統(tǒng)內(nèi)容生成方式,在人工智能領(lǐng)域產(chǎn)生轟動(dòng)性效應(yīng)。隨之涌現(xiàn)出大量人工智能生成內(nèi)容(artificial intelligence generated content, AIGC)工具的研發(fā)和應(yīng)用,為科學(xué)研究和學(xué)術(shù)出版領(lǐng)域提供新機(jī)遇,也提出新挑戰(zhàn)。對(duì)于廣大科研人員而言,AIGC工具正在成為科學(xué)工作和學(xué)術(shù)研究的助手,如輔助文獻(xiàn)調(diào)研和綜述,啟發(fā)選題思路,進(jìn)行數(shù)據(jù)分析和挖掘,從大量文獻(xiàn)中比較發(fā)現(xiàn)科學(xué)關(guān)聯(lián)和研究方向,可視化呈現(xiàn)研究結(jié)果等,為科研人員提供更便利、更高效、更具個(gè)性化的支持。然而,風(fēng)險(xiǎn)與發(fā)展并存。AIGC在助力科研人員完成科研任務(wù)的同時(shí)也帶來(lái)潛在風(fēng)險(xiǎn)和局限,如內(nèi)容可靠性、版權(quán)歸屬、隱私和數(shù)據(jù)泄露、法律和倫理問(wèn)題等。

這些由AIGC技術(shù)生成性特征帶來(lái)的應(yīng)用風(fēng)險(xiǎn),也引發(fā)研究人員對(duì)科研誠(chéng)信和學(xué)術(shù)出版的廣泛討論,由此帶來(lái)的法律、倫理等風(fēng)險(xiǎn)受到國(guó)際組織、政府機(jī)構(gòu)的密切關(guān)注。國(guó)內(nèi)外眾多政府部門、企事業(yè)單位,鑒于AIGC工具內(nèi)容生成對(duì)訓(xùn)練語(yǔ)料、提問(wèn)傾向性的高度依賴,生成結(jié)果無(wú)法確保準(zhǔn)確性等事實(shí),頒發(fā)多項(xiàng)政策予以管控。例如:在國(guó)內(nèi),國(guó)家網(wǎng)信辦、發(fā)改委、教育部、科技部、工信部、公安部和廣電總局七部門于2023年7月聯(lián)合發(fā)布《生成式人工智能服務(wù)管理暫行辦法》[1],該條例是全球范圍內(nèi)首個(gè)由國(guó)家層面制定的、關(guān)于AIGC的專門監(jiān)管規(guī)章,引起聯(lián)合國(guó)教科文組織等機(jī)構(gòu)的廣泛關(guān)注。中國(guó)科學(xué)技術(shù)信息研究所聯(lián)合愛(ài)思唯爾、施普林格·自然、約翰威立國(guó)際出版集團(tuán)于2023年9月發(fā)布《學(xué)術(shù)出版中AIGC使用邊界指南》[2],對(duì)AIGC用于學(xué)術(shù)出版的行為進(jìn)行規(guī)范,以防范AIGC不當(dāng)使用,引導(dǎo)相關(guān)利益主體就AIGC使用達(dá)成共識(shí)。國(guó)際上,2023年5月召開的G7領(lǐng)導(dǎo)人日本峰會(huì)著重探討生成式人工智能監(jiān)管問(wèn)題,計(jì)劃起草“負(fù)責(zé)任的AI”標(biāo)準(zhǔn)并于2023年底出臺(tái)對(duì)生成式人工智能的監(jiān)管措施[3]。歐盟的《人工智能法案》(European Union Artificial Intelligence Act)自2021年首次提出,直到2024年3月13日由歐洲議會(huì)投票通過(guò),這是全球人工智能領(lǐng)域監(jiān)管進(jìn)入新時(shí)代的標(biāo)志性事件[4-5]。

由此,科研人員需要對(duì)AIGC建立較為全面的認(rèn)知,了解應(yīng)用AIGC工具的風(fēng)險(xiǎn),確保負(fù)責(zé)任、安全且合乎倫理地使用AIGC工具,嚴(yán)格對(duì)待其生成內(nèi)容的準(zhǔn)確性和有效性,避免因不當(dāng)使用帶來(lái)難以預(yù)估的后果。

2 學(xué)術(shù)研究中使用AIGC工具的風(fēng)險(xiǎn)分析/Risk analysis of using AIGC tools in academic research

學(xué)術(shù)領(lǐng)域中研究者使用AIGC工具,主要是通過(guò)向AIGC工具輸入指令,AIGC工具根據(jù)指令輸出相應(yīng)的成果內(nèi)容,研究者將輸出的結(jié)果應(yīng)用到相關(guān)研究材料中,因此,其風(fēng)險(xiǎn)也主要集中在4個(gè)方面:輸入內(nèi)容的安全風(fēng)險(xiǎn)、輸出內(nèi)容的可靠性風(fēng)險(xiǎn)、學(xué)術(shù)倫理和道德風(fēng)險(xiǎn)、潛在的法律風(fēng)險(xiǎn)。

2.1 輸入內(nèi)容的安全風(fēng)險(xiǎn)

使用AIGC工具過(guò)程中,互動(dòng)內(nèi)容可能成為大型語(yǔ)言模型訓(xùn)練語(yǔ)料庫(kù)的一部分,很可能帶來(lái)敏感內(nèi)容泄露、研究數(shù)據(jù)篡改、機(jī)密信息濫用等安全問(wèn)題。AIGC開發(fā)者通常在其用戶使用協(xié)議中單方面聲明:用戶上傳的提示詞/內(nèi)容授予AIGC開發(fā)者使用。如騰訊混元模型《用戶使用協(xié)議》第五部分“知識(shí)產(chǎn)權(quán)”中的第三條明確表示:“您理解并且同意,除非您與我們另有約定,您上傳至本服務(wù)平臺(tái)的內(nèi)容(包括但不限于作為提示詞的文本或其他一切用于協(xié)助騰訊混元模型產(chǎn)生人工智能生成內(nèi)容的提示性內(nèi)容)即代表您不可撤銷地授予騰訊公司及其關(guān)聯(lián)方一項(xiàng)不可撤銷的、非排他的、無(wú)地域限制的、永久的、免費(fèi)的許可使用,以使我們得以對(duì)上傳內(nèi)容進(jìn)行存儲(chǔ)、使用、復(fù)制、修訂、編輯、發(fā)布、展示、翻譯、分發(fā)上述內(nèi)容或制作派生作品等商業(yè)或非商業(yè)使用,及可再許可第三方使用的權(quán)利,以及可以自身名義對(duì)第三方侵權(quán)行為取證及提起訴訟的權(quán)利”。在其他AIGC工具的用戶使用協(xié)議中也有類似描述,這類用戶使用協(xié)議給用戶帶來(lái)內(nèi)容泄露風(fēng)險(xiǎn)。

科研人員在使用AIGC工具時(shí)輸入的提示語(yǔ)可能與自身研究?jī)?nèi)容密切相關(guān),也可能上傳研究過(guò)程中的文檔獲得AIGC輔助分析或糾錯(cuò)潤(rùn)色等,這些提示語(yǔ)和相關(guān)文檔可能納入AIGC訓(xùn)練數(shù)據(jù),參與生成新的輸出內(nèi)容,被未經(jīng)授權(quán)的第三方獲取,導(dǎo)致正在研究的內(nèi)容、數(shù)據(jù)、成果等泄露,從而可能為科研人員帶來(lái)安全風(fēng)險(xiǎn)。

根據(jù)韓國(guó)媒體《經(jīng)濟(jì)學(xué)人》報(bào)道,三星公司于2023年3月批準(zhǔn)半導(dǎo)體業(yè)務(wù)部門引入ChatGPT,同時(shí)向員工發(fā)布“注意公司內(nèi)部信息安全,不要輸入私人內(nèi)容”的警示公告。然而,在此后不到20天的時(shí)間內(nèi),半導(dǎo)體業(yè)務(wù)部門就接連發(fā)生3起機(jī)密信息泄露事件,導(dǎo)致相關(guān)半導(dǎo)體設(shè)備測(cè)量資料和產(chǎn)品良率等機(jī)密數(shù)據(jù)被完整傳輸保存至ChatGPT學(xué)習(xí)數(shù)據(jù)庫(kù)。泄密事件發(fā)生后,三星公司迅速啟動(dòng)事故調(diào)查和應(yīng)急方案,火速出臺(tái)公司內(nèi)控新舉措。不僅將員工向ChatGPT提問(wèn)的上傳容量限定在1 024字節(jié)以內(nèi),而且聲明如遇緊急情形會(huì)考慮切斷公司內(nèi)網(wǎng)與ChatGPT的連接。2023年5月,三星公司進(jìn)一步收緊管理政策,要求員工不得在工作場(chǎng)所使用類似ChatGPT的生成式人工智能應(yīng)用[6]。

由此可見,用戶在使用AIGC工具過(guò)程中無(wú)法保障“知情同意”權(quán)益,在互動(dòng)提問(wèn)、信息收集、統(tǒng)計(jì)分析、存儲(chǔ)備份等環(huán)節(jié)均存在研究?jī)?nèi)容、隱私信息、敏感數(shù)據(jù)、商業(yè)秘密甚至是國(guó)家機(jī)密泄露的安全風(fēng)險(xiǎn)和隱患。

2.2 輸出內(nèi)容的可靠性風(fēng)險(xiǎn)

AIGC工具通常需要處理大量的數(shù)據(jù)和信息,在處理過(guò)程中采用AIGC進(jìn)行推理和決策。然而,這些過(guò)程涉及許多不確定性因素,如訓(xùn)練數(shù)據(jù)有偏差缺少多樣性、模型參數(shù)的不確定性、數(shù)據(jù)的時(shí)效性、算法的穩(wěn)定性和魯棒性、提示詞的傾向性等。這些因素均可導(dǎo)致AIGC工具生成內(nèi)容的不準(zhǔn)確和不可靠。另外,訓(xùn)練數(shù)據(jù)和算法模型也會(huì)造成在訓(xùn)練過(guò)程中可能引入偏見和歧視,導(dǎo)致不公平的輸出結(jié)果。AIGC模型繼承并延續(xù)其訓(xùn)練數(shù)據(jù)中存在的偏差,鑒于模型的不透明性質(zhì),這些偏差很難檢測(cè)和排除。

2023年2月,谷歌公司AI聊天機(jī)器人工具Bard的發(fā)布演示中,有用戶提問(wèn)“該如何告訴一個(gè)9歲孩子關(guān)于詹姆斯·韋伯空間望遠(yuǎn)鏡的發(fā)現(xiàn)”,Bard回答:詹姆斯·韋布空間望遠(yuǎn)鏡拍攝太陽(yáng)系以外行星的第一批照片。隨后,哈佛—史密森天體物理中心的專家格蘭特·特朗布萊指出,這并非事實(shí),2004年歐洲南方天文臺(tái)的甚大望遠(yuǎn)鏡(Very Large Telescope, VLT)拍攝第一張系外行星照片。Bard回答出錯(cuò)被發(fā)現(xiàn)后,隨之谷歌母公司Alphabet股價(jià)下跌超7%,市值蒸發(fā)約1 000億美元[7]。由此可見,AIGC工具輸出內(nèi)容的不可靠將帶來(lái)巨大風(fēng)險(xiǎn)。

本研究對(duì)多個(gè)AIGC工具進(jìn)行實(shí)驗(yàn)。對(duì)同一個(gè)模型多次提問(wèn),提示語(yǔ)略有差異時(shí)給出的答案也不完全相同,若不進(jìn)行驗(yàn)證,相關(guān)結(jié)果容易混淆。例如,筆者對(duì)同一模型分別提問(wèn):“2020年中國(guó)人口普查總?cè)藬?shù)是多少?”與“2020年中國(guó)人口普查全國(guó)總?cè)丝谑嵌嗌??”獲得的答案,分別是“2022年中國(guó)總?cè)丝跀?shù)為141 175萬(wàn)人,即14.117 5億人”與“2020年中國(guó)進(jìn)行的第七次全國(guó)人口普查結(jié)果顯示,全國(guó)總?cè)丝跒? 411 780 000人(14.117 8億人)”,結(jié)果略有差異。

2.3 學(xué)術(shù)倫理和道德風(fēng)險(xiǎn)

科學(xué)研究是人類知識(shí)生產(chǎn)的重要途徑,在實(shí)踐中形成一套約定俗成的道德規(guī)范和行為準(zhǔn)則,包括要求嚴(yán)謹(jǐn)求實(shí)的作風(fēng)和誠(chéng)實(shí)守信的行為。AIGC工具可能被用來(lái)生成偽造的實(shí)驗(yàn)數(shù)據(jù)或輸出不真實(shí)的結(jié)果等,容易違背道德規(guī)范和行為準(zhǔn)則,造成學(xué)術(shù)不端行為。

科學(xué)研究過(guò)程包括:科研選題、文獻(xiàn)閱讀和綜述、實(shí)踐調(diào)研論證、實(shí)驗(yàn)觀察驗(yàn)證、分析數(shù)據(jù)得出結(jié)論、論文撰寫等,每個(gè)過(guò)程都需要十分嚴(yán)謹(jǐn)。近些年來(lái),人工智能技術(shù)突飛猛進(jìn),在為社會(huì)各個(gè)領(lǐng)域提供便捷的同時(shí),也帶來(lái)“學(xué)術(shù)造假”的“低成本”現(xiàn)象。缺失道德規(guī)范和行為準(zhǔn)則的科研人員將研究過(guò)程演變?yōu)椋合駻IGC工具提問(wèn),直接生成論文,再由AIGC工具修改,完成論文。在這個(gè)過(guò)程中,一旦科研人員缺乏對(duì)整體內(nèi)容的基礎(chǔ)研究和理解,缺少對(duì)AIGC工具生成內(nèi)容的嚴(yán)格把關(guān)和確認(rèn),大量不可靠的學(xué)術(shù)論文就會(huì)出現(xiàn),這不僅存在學(xué)術(shù)倫理與道德規(guī)范方面的風(fēng)險(xiǎn),對(duì)于整個(gè)學(xué)術(shù)領(lǐng)域與社會(huì)發(fā)展來(lái)說(shuō)均是一場(chǎng)災(zāi)難。

2024年2月,科學(xué)網(wǎng)轉(zhuǎn)發(fā)文章《發(fā)表3天被撤稿!中國(guó)作者用AI生成論文插圖,每幅都荒謬》。被撤論文的作者在發(fā)表于開放獲取期刊《細(xì)胞與發(fā)育生物學(xué)前沿》(Fron.Cell Dev. Biol)論文中不負(fù)責(zé)任地采用由AI繪圖工具M(jìn)idjourney生成的三組圖片,這些圖片夸張、荒謬、違背事實(shí)真相,在解剖學(xué)和科學(xué)上都是不正確的,插圖中還出現(xiàn)生造的、不具備任何意義的字母排列標(biāo)簽。該論文在線發(fā)表3天即被撤稿,編輯部表示“該文章不符合本刊的編輯和科學(xué)嚴(yán)謹(jǐn)性標(biāo)準(zhǔn),因此予以撤稿”[8-9]。這是一個(gè)違背科學(xué)研究應(yīng)具備嚴(yán)謹(jǐn)求實(shí)作風(fēng)和誠(chéng)實(shí)守信原則、無(wú)視研究成果應(yīng)具有真實(shí)性和可靠性基礎(chǔ)的典型例子。該事件引發(fā)一輪對(duì)“人工智能技術(shù)以及學(xué)術(shù)論文科學(xué)性”的討論,也令人擔(dān)憂未來(lái)AIGC工具生成的、更多更逼真的學(xué)術(shù)圖片將會(huì)以假亂真,這將對(duì)科研論文的可信度和科學(xué)性產(chǎn)生負(fù)面影響。

2.4 潛在法律風(fēng)險(xiǎn)

科研人員使用AIGC工具輸出內(nèi)容,首當(dāng)其沖面對(duì)的是版權(quán)風(fēng)險(xiǎn),同時(shí)還存在潛在的其他法律風(fēng)險(xiǎn)。

(1)輸出內(nèi)容的版權(quán)風(fēng)險(xiǎn)分為兩個(gè)方面:一是AIGC模型的形成和完善依賴于大量的數(shù)據(jù)訓(xùn)練,這些數(shù)據(jù)可能包含受版權(quán)法保護(hù)的內(nèi)容,存在訓(xùn)練數(shù)據(jù)的版權(quán)侵權(quán)風(fēng)險(xiǎn)。當(dāng)下,多數(shù)AI公司對(duì)訓(xùn)練數(shù)據(jù)集的來(lái)源秘而不宣,缺乏透明度。2022年3月非營(yíng)利組織LAION(全名Large-scale Artificial Intelligence Open Network)發(fā)布的LAION-5B包含58.5億個(gè)圖像文本,彭博社曾報(bào)道其來(lái)源包括從亞馬遜網(wǎng)、Shopify等公司獲取的視覺(jué)數(shù)據(jù),還有YouTube縮略圖、各類新聞網(wǎng)站上的抓取內(nèi)容等。2023年1月,英美發(fā)生兩起AIGC版權(quán)侵權(quán)案,均與被告使用LAION數(shù)據(jù)集中的未授權(quán)數(shù)據(jù)有關(guān)。許多知名AI公司未經(jīng)授權(quán),就將這些數(shù)據(jù)用于訓(xùn)練各種大模型,如谷歌Imagen、Stable Diffusion等[10]。二是使用AIGC工具生成內(nèi)容的版權(quán)歸屬問(wèn)題。現(xiàn)階段,AIGC的版權(quán)歸屬各個(gè)國(guó)家均沒(méi)有明確規(guī)定,其在理論和實(shí)踐上存在五種可能性:歸屬AI(非人)、歸屬AI開發(fā)者、歸屬AI使用者、歸屬AI開發(fā)者和使用者共享、不授予版權(quán)而采用其他方式保護(hù)。2023年1月,Nature期刊公開聲明,任何大型語(yǔ)言模型工具都不會(huì)被接受作為研究論文的署名作者。這是因?yàn)槿魏巫髡叩臍w屬權(quán)都伴隨著對(duì)工作的責(zé)任,而AI工具無(wú)法承擔(dān)這種責(zé)任[11]。

AIGC的版權(quán)風(fēng)險(xiǎn)給學(xué)術(shù)研究領(lǐng)域帶來(lái)巨大沖擊,也推動(dòng)AIGC開發(fā)者做出響應(yīng)。2023年11月,Open AI在開發(fā)者大會(huì)上推出“Copyright Shield”(版權(quán)盾)服務(wù),為AI大模型的版權(quán)問(wèn)題提供新思路。這項(xiàng)服務(wù)實(shí)質(zhì)上是一種賠償條款,當(dāng)企業(yè)級(jí)用戶使用ChatGPT面臨版權(quán)侵權(quán)法律指控時(shí),Open AI會(huì)為用戶提供素材來(lái)源、內(nèi)容生成過(guò)程等證據(jù),同時(shí)承擔(dān)判定侵權(quán)后的賠償金(這一承諾主要針對(duì)ChatGPT機(jī)構(gòu)用戶和開發(fā)者平臺(tái)的使用者,對(duì)普通用戶不提供賠償)。這個(gè)功能旨在緩解用戶對(duì)于生成式人工智能存在潛在版權(quán)風(fēng)險(xiǎn)的擔(dān)憂。類似的版權(quán)包賠模式并非Open AI獨(dú)有,其他公司如谷歌、微軟、亞馬遜、Getty Images、Shutterstock、Adobe等也向企業(yè)級(jí)用戶承諾支付大模型使用所涉版權(quán)糾紛的訴訟費(fèi)用。這類侵權(quán)包賠模式在前期訓(xùn)練數(shù)據(jù)合規(guī)的情況下具備可行性,也體現(xiàn)AIGC開發(fā)者對(duì)于AI技術(shù)應(yīng)用中版權(quán)風(fēng)險(xiǎn)的廣泛關(guān)切,以及對(duì)用戶合法權(quán)益的重視。

(2)使用輸出內(nèi)容潛在的其他法律風(fēng)險(xiǎn)包括隱私泄露、商業(yè)秘密和國(guó)家安全風(fēng)險(xiǎn)。

AIGC工具未經(jīng)同意使用個(gè)人數(shù)據(jù)或未能妥善保護(hù)這些數(shù)據(jù),就可能泄露用戶隱私信息,違反數(shù)據(jù)保護(hù)法規(guī),侵犯公民個(gè)人信息自決權(quán)。

2023年3月,ChatGPT發(fā)生用戶的個(gè)人數(shù)據(jù)泄露事件,開源組件Redis中的競(jìng)爭(zhēng)條件漏洞(race condition vulnerability)導(dǎo)致用戶的聊天歷史中顯示其他用戶的信息內(nèi)容,包括用戶的姓名、電子郵件地址、付款地址、信用卡號(hào)后4位,以及信用卡有效期等個(gè)人信息均被泄露。這個(gè)漏洞使得大約1.2%的ChatGPT Plus訂閱用戶的個(gè)人敏感數(shù)據(jù)被直接暴露。ChatGPT發(fā)布聲明,向用戶和社區(qū)致歉,并表示將緊急維護(hù)ChatGPT。

AIGC工具生成的虛假內(nèi)容可能造成國(guó)家安全風(fēng)險(xiǎn)。2023年以來(lái),AIGC驅(qū)動(dòng)圖像生成器制作的虛假圖像和視頻在社交媒體上廣泛流傳,如美國(guó)前總統(tǒng)特朗普和俄羅斯總統(tǒng)普京被捕的照片,以及烏克蘭總統(tǒng)澤連斯基宣布投降的視頻,這些虛假新聞傳播混淆公眾對(duì)事實(shí)的判斷,也可能引發(fā)對(duì)全球政治形勢(shì)的誤判并給國(guó)家安全帶來(lái)威脅。

若AIGC輸出內(nèi)容中存在個(gè)人隱私數(shù)據(jù)、商業(yè)秘密和國(guó)家安全的信息,科研人員一旦采用,相關(guān)權(quán)利主體進(jìn)行追責(zé),會(huì)給科研人員帶來(lái)相應(yīng)的法律風(fēng)險(xiǎn)。

3 學(xué)術(shù)出版領(lǐng)域AIGC使用政策及規(guī)定分析/Analysis of AIGC usage policies and regulations in the academic publishing field

AIGC被廣泛應(yīng)用以來(lái),國(guó)內(nèi)外學(xué)術(shù)出版領(lǐng)域相繼發(fā)布政策聲明。

國(guó)際上,Nature[11]、Science[12]、The Lancet[13]等多家頂級(jí)權(quán)威期刊在2023年陸續(xù)更新投稿指南或發(fā)布政策,規(guī)定AIGC使用細(xì)則。國(guó)外大多數(shù)學(xué)術(shù)期刊沒(méi)有明文規(guī)定禁止使用AIGC,但均聲明須基于學(xué)術(shù)誠(chéng)信和研究透明的原則,在有限制條件的情況下使用。Elsevier[14]、Taylor & Francis[15]等多家知名出版社及著名預(yù)印本平臺(tái)arXiv[16]等學(xué)術(shù)組織也陸續(xù)出臺(tái)AIGC使用條件、限制、相關(guān)倡議等官方聲明。

在國(guó)內(nèi),我國(guó)政府不僅及時(shí)出臺(tái)專門監(jiān)管規(guī)章《生成式人工智能服務(wù)管理暫行辦法》,而且初步形成一套監(jiān)管規(guī)范體系,已發(fā)布多項(xiàng)法律、行政法規(guī)等規(guī)范性文件,涉及科技發(fā)展、網(wǎng)絡(luò)安全、個(gè)人信息保護(hù)、互聯(lián)網(wǎng)信息等方面,構(gòu)成人工智能領(lǐng)域多層級(jí)、多角度的規(guī)范治理體系[17]。學(xué)術(shù)期刊《暨南學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》《文獻(xiàn)與數(shù)據(jù)學(xué)報(bào)》《中國(guó)科技期刊研究》《智庫(kù)理論與實(shí)踐》《圖書情報(bào)工作》《中華醫(yī)學(xué)會(huì)雜志》等也陸續(xù)發(fā)布有關(guān)AI的政策聲明或有關(guān)規(guī)定。

趨勢(shì)調(diào)研表明,越來(lái)越多學(xué)術(shù)期刊、出版機(jī)構(gòu)以及學(xué)術(shù)聯(lián)盟相繼發(fā)布政策聲明或使用規(guī)定,界定AIGC在學(xué)術(shù)領(lǐng)域的使用邊界,規(guī)范學(xué)術(shù)共同體的使用行為,以確保學(xué)術(shù)研究/成果的可信度與可靠性。不同機(jī)構(gòu)、組織針對(duì)AIGC應(yīng)用所制定的政策或規(guī)定不盡相同,但在主要問(wèn)題和原則上基本達(dá)成共識(shí)。主要包括如下幾點(diǎn):

(1)透明度和問(wèn)責(zé)制。所有學(xué)術(shù)出版領(lǐng)域(包括科研人員、作者、同行評(píng)議人和出版方)都應(yīng)該了解并明確披露AIGC的使用情況,明確AIGC的應(yīng)用責(zé)任,包括底層數(shù)據(jù)集、數(shù)據(jù)來(lái)源和數(shù)據(jù)處理方法的透明度,以及知識(shí)產(chǎn)權(quán)和版權(quán)的歸屬和責(zé)任。

(2)遵守法律和倫理標(biāo)準(zhǔn)。AIGC的應(yīng)用要遵守相應(yīng)的法律法規(guī)和倫理標(biāo)準(zhǔn),包括數(shù)據(jù)隱私和版權(quán)問(wèn)題。

(3)確保研究質(zhì)量和誠(chéng)信。確保AIGC的應(yīng)用建立在信任基礎(chǔ)上,通過(guò)透明標(biāo)注和聲明等手段表明對(duì)AIGC生成內(nèi)容的使用,保證學(xué)術(shù)研究的質(zhì)量和誠(chéng)信不受AIGC技術(shù)應(yīng)用的影響。

(4)公平使用。確保AIGC的應(yīng)用秉持公平原則,避免偏見,評(píng)估潛在的偏差來(lái)源,并建立反饋機(jī)制監(jiān)測(cè)和審查可能的不公平現(xiàn)象。

(5)AIGC沒(méi)有署名權(quán)。論文作者必須是能夠?qū)φ撐恼鎸?shí)性、完整性、科學(xué)性等負(fù)責(zé)的自然人,AIGC不能作為論文作者。

(6)使用標(biāo)注聲明。使用AIGC工具的作者須在方法、致謝或者其他適當(dāng)部分說(shuō)明使用情況,包括:AIGC開發(fā)者、AIGC工具名稱和版本、使用時(shí)間、使用過(guò)程、完整提示詞等。

(7)論文主要內(nèi)容不能源于AIGC工具。作者不能將AIGC工具生成的內(nèi)容作為一手來(lái)源資料進(jìn)行引用。如論文主要內(nèi)容是利用AIGC工具生成的,一旦被發(fā)現(xiàn),將以學(xué)術(shù)不端行為處理。

(8)視覺(jué)內(nèi)容不能源于AIGC工具。不接受作者在文章中完全或部分使用AIGC工具生成圖像、圖形、視頻和其他多媒體內(nèi)容。

(9)參考文獻(xiàn)驗(yàn)證。經(jīng)AIGC工具提供的參考文獻(xiàn)須經(jīng)人工驗(yàn)證其真實(shí)性和時(shí)效性,參考文獻(xiàn)中不應(yīng)包含將AIGC列為作者的論文。

不同機(jī)構(gòu)、組織針對(duì)AIGC使用政策和規(guī)定的細(xì)則有所不同,差別主要體現(xiàn)在限制使用范圍和使用程度上。這些原則和共識(shí)體現(xiàn)出學(xué)術(shù)出版界對(duì)于AIGC技術(shù)應(yīng)用的謹(jǐn)慎態(tài)度和對(duì)學(xué)術(shù)誠(chéng)信的重視,也體現(xiàn)出學(xué)術(shù)出版界希望基于規(guī)范和政策的制定,從而進(jìn)一步促進(jìn)AIGC技術(shù)的健康發(fā)展和負(fù)責(zé)任地應(yīng)用。

4 學(xué)術(shù)研究中AIGC工具使用風(fēng)險(xiǎn)規(guī)避策略/Risk avoidance strategies for AIGC tools usage in academic research

基于對(duì)學(xué)術(shù)領(lǐng)域使用AIGC工具的風(fēng)險(xiǎn)分析和對(duì)國(guó)內(nèi)外學(xué)術(shù)出版領(lǐng)域發(fā)布的AIGC使用條件、限制與相關(guān)倡議等官方聲明的調(diào)研,筆者提出在學(xué)術(shù)研究中使用AIGC工具的應(yīng)用策略與注意事項(xiàng),以幫助科研人員在研究過(guò)程中結(jié)合自身情況,規(guī)范使用AIGC工具,從行為層面規(guī)避AIGC帶來(lái)的風(fēng)險(xiǎn)。

4.1 提高風(fēng)險(xiǎn)防范意識(shí)

4.1.1 輸入內(nèi)容的安全風(fēng)險(xiǎn)防范

科研人員在選擇使用AIGC工具時(shí)需仔細(xì)研讀其用戶協(xié)議與隱私政策,選擇可接受可信任的模型。若所研究?jī)?nèi)容涉密,則應(yīng)禁止使用AIGC工具開展相關(guān)工作;若所研究?jī)?nèi)容還在成果保護(hù)期,則避免上傳到AIGC工具中,避免使用個(gè)人隱私信息、涉密信息進(jìn)行提問(wèn)。

對(duì)可信任AIGC工具的評(píng)估包括:①經(jīng)過(guò)各層級(jí)管理部門的登記備案和風(fēng)險(xiǎn)評(píng)估,一旦出現(xiàn)問(wèn)題,便于溯源追責(zé);②確認(rèn)AIGC模型訓(xùn)練數(shù)據(jù)具有可靠合法的來(lái)源并獲得正式授權(quán),避免侵權(quán)糾紛;③確認(rèn)AIGC工具對(duì)各類數(shù)據(jù)的采集、保管、使用及刪除均有精細(xì)化的合規(guī)設(shè)置;④確認(rèn)AIGC服務(wù)提供者掌握隱私保護(hù)計(jì)算技術(shù),采取防止用戶信息泄露的技術(shù)措施;⑤確認(rèn)AIGC工具對(duì)生成內(nèi)容具有審查過(guò)濾機(jī)制,具有從產(chǎn)品側(cè)對(duì)敏感內(nèi)容屏蔽和阻斷虛假信息、偏見歧視、違法和違背公序等信息的技術(shù)手段,確保生成內(nèi)容符合相關(guān)法律法規(guī)的要求。

4.1.2 輸出內(nèi)容的可靠性驗(yàn)證

學(xué)術(shù)研究是一個(gè)嚴(yán)肅的過(guò)程,AIGC工具使用者需要對(duì)研究?jī)?nèi)容的真實(shí)性、可靠性負(fù)直接責(zé)任。AIGC模型無(wú)法根據(jù)現(xiàn)實(shí)世界觀察、科學(xué)規(guī)律和方法、人類社會(huì)的價(jià)值觀進(jìn)行實(shí)時(shí)調(diào)整,因而AIGC工具所生成的內(nèi)容在邏輯、科學(xué)、時(shí)效性方面都存在不確定性,容易生成一些不符合科學(xué)規(guī)律、現(xiàn)實(shí)生活中不存在的、被稱之為“幻覺(jué)”的內(nèi)容,因此難以直接實(shí)現(xiàn)真正可靠的學(xué)術(shù)創(chuàng)新。使用者需要對(duì)AIGC工具生成的內(nèi)容采取批判態(tài)度,不能盲目信任和直接采用,使用前需要逐字逐句進(jìn)行驗(yàn)證和把關(guān),需要審核這些內(nèi)容是否包括偽造內(nèi)容、不準(zhǔn)確信息、錯(cuò)誤的數(shù)據(jù)、無(wú)依據(jù)的結(jié)論或偏頗的觀點(diǎn)等。

4.1.3 恪守學(xué)術(shù)道德,嚴(yán)守誠(chéng)信底線

科研人員須在恪守學(xué)術(shù)倫理和道德的情況下,誠(chéng)實(shí)可信、負(fù)責(zé)任地使用AIGC工具,避免在研究過(guò)程中依賴和沉迷于AIGC生成的內(nèi)容。隨著AIGC的廣泛應(yīng)用,其生成內(nèi)容缺乏透明度和可解釋性的問(wèn)題越來(lái)越多,經(jīng)常生成貌似正確而實(shí)質(zhì)錯(cuò)誤的內(nèi)容,這些內(nèi)容很可能對(duì)人類的認(rèn)知造成干擾,如引導(dǎo)人們?nèi)ベ|(zhì)疑真實(shí)的信息,甚至背棄學(xué)術(shù)誠(chéng)信的原則??蒲腥藛T需要對(duì)此有高度警惕和預(yù)先防范。

科技部監(jiān)督司在2023年12月發(fā)布的《負(fù)責(zé)任研究行為規(guī)范指引》中提出科學(xué)研究實(shí)踐中應(yīng)普遍遵循的科學(xué)道德準(zhǔn)則和學(xué)術(shù)研究規(guī)范,也對(duì)生成式人工智能的使用作出明確要求,如“不得使用生成式人工智能直接生成申報(bào)材料”“應(yīng)遵循相關(guān)法律法規(guī)及學(xué)術(shù)規(guī)范,依規(guī)合理使用生成式人工智能處理文字、數(shù)據(jù)或?qū)W術(shù)圖像,防范偽造、篡改數(shù)據(jù)等風(fēng)險(xiǎn)”“不得直接使用未經(jīng)核實(shí)的由生成式人工智能生成的參考文獻(xiàn)”“生成式人工智能不得列為成果共同完成人。應(yīng)在研究方法或附錄等相關(guān)位置披露使用生成式人工智能的主要方式和細(xì)節(jié)”“在評(píng)議活動(dòng)中使用生成式人工智能的,應(yīng)事先征得評(píng)議活動(dòng)組織者同意,操作中應(yīng)防止泄漏評(píng)議內(nèi)容,如發(fā)生信息泄漏應(yīng)及時(shí)采取必要補(bǔ)救措施”[18]。同日,國(guó)家自然科學(xué)基金委也發(fā)布《科研誠(chéng)信規(guī)范手冊(cè)》,對(duì)生成式人工智能在研究過(guò)程中的使用做出明確要求,相關(guān)條款與《負(fù)責(zé)任研究行為規(guī)范指引》基本一致[19]。

因此,學(xué)術(shù)領(lǐng)域工作者,在使用AIGC工具時(shí)須保持初心,不能觸碰學(xué)術(shù)倫理與道德規(guī)范底線。

4.1.4 公開透明標(biāo)注,規(guī)避法律風(fēng)險(xiǎn)

AIGC的出現(xiàn)正在迅速改變科學(xué)、藝術(shù)和文學(xué)作品的創(chuàng)作、傳播和消費(fèi)方式,為了規(guī)避相關(guān)法律風(fēng)險(xiǎn),使用者必須負(fù)責(zé)地使用AIGC工具生成內(nèi)容,公開透明標(biāo)注,并清楚使用風(fēng)險(xiǎn),承擔(dān)所有責(zé)任。

一方面,現(xiàn)行的版權(quán)政策規(guī)定,未經(jīng)版權(quán)所有者的許可而以任何方式復(fù)制、分發(fā)或使用受版權(quán)保護(hù)的作品均構(gòu)成對(duì)版權(quán)的侵權(quán),并可能導(dǎo)致法律后果。在目前AIGC工具生成內(nèi)容版權(quán)歸屬不明確的情況下,科研人員直接采用AIGC工具所生成內(nèi)容與當(dāng)前版權(quán)政策存在沖突,有一定的版權(quán)風(fēng)險(xiǎn)。所以,不建議使用者直接將AIGC生成內(nèi)容作為自己的最終成果,而是將AIGC作為實(shí)現(xiàn)目標(biāo)的工具,要驗(yàn)證AIGC生成的內(nèi)容,并盡可能地增加自己的創(chuàng)新思路和實(shí)質(zhì)投入。

另一方面,使用AIGC工具時(shí),使用者不僅要嚴(yán)格把關(guān)和審核其生成的內(nèi)容,以確保信息的真實(shí)性和準(zhǔn)確性,而且要對(duì)內(nèi)容進(jìn)行詳盡的溯源和明確標(biāo)注,以確保內(nèi)容的可靠性、合規(guī)性和合法性,規(guī)避潛在的法律風(fēng)險(xiǎn)。

4.2 遵循AIGC工具使用原則

在AIGC技術(shù)快速發(fā)展且缺乏監(jiān)管的情況下,堅(jiān)持原則既是對(duì)使用者的要求,也是對(duì)使用者的保護(hù)。根據(jù)業(yè)界發(fā)布的各項(xiàng)政策法規(guī)與大眾共識(shí),筆者將使用AIGC工具應(yīng)遵循原則總結(jié)如下:

(1)誠(chéng)信原則。使用者應(yīng)保持良好的誠(chéng)信意識(shí),恪守學(xué)術(shù)道德,堅(jiān)守學(xué)術(shù)誠(chéng)信,自覺(jué)遵守學(xué)術(shù)研究與出版規(guī)范。

(2)透明原則。使用者在學(xué)術(shù)成果形成和撰寫過(guò)程中無(wú)論哪個(gè)環(huán)節(jié)、何種程度使用AIGC,均須清晰地進(jìn)行聲明和標(biāo)注,以便管理機(jī)構(gòu)進(jìn)行查證和評(píng)估。學(xué)術(shù)出版機(jī)構(gòu)應(yīng)履行或制定相關(guān)的出版規(guī)范,引導(dǎo)使用者正確、規(guī)范地使用AIGC,從而保障學(xué)術(shù)出版物的質(zhì)量和公信力。

(3)適度原則。使用者應(yīng)根據(jù)實(shí)際需求和目的,合理、適度地應(yīng)用AIGC工具,避免過(guò)度依賴或不恰當(dāng)使用。

(4)保密原則。使用者應(yīng)有學(xué)術(shù)成果保密意識(shí),在成果形成和撰寫過(guò)程中使用AIGC工具導(dǎo)致自有涉密成果泄露,責(zé)任應(yīng)由使用者承擔(dān)。

4.3 學(xué)術(shù)研究過(guò)程中使用AIGC工具的注意事項(xiàng)

根據(jù)對(duì)AIGC工具的特點(diǎn)、使用風(fēng)險(xiǎn)與政策的分析,筆者結(jié)合科研人員學(xué)術(shù)研究過(guò)程的特點(diǎn),對(duì)于學(xué)術(shù)研究中不同階段能否使用該工具以及使用時(shí)的注意事項(xiàng),給出明確的參考意見,以輔助科研人員進(jìn)行風(fēng)險(xiǎn)判斷與規(guī)避。

4.3.1 不應(yīng)使用AIGC工具的場(chǎng)景

Science期刊主編H. H. Thorp在該刊2023年1月發(fā)表的一篇社論中指出,ChatGPT采用“從人類反饋中強(qiáng)化學(xué)習(xí)”技術(shù)來(lái)訓(xùn)練語(yǔ)言模型,使其具有很強(qiáng)的對(duì)話性。盡管如此,正如工具開發(fā)者所述,“ChatGPT有時(shí)會(huì)寫出看似合理但不正確或荒謬的答案”。比如,引用一項(xiàng)不存在的科學(xué)研究導(dǎo)致最后結(jié)論發(fā)生偏差,這對(duì)于追求準(zhǔn)確性的科學(xué)研究來(lái)說(shuō)是致命性的[12]。國(guó)內(nèi)《中華醫(yī)學(xué)會(huì)雜志》規(guī)定,生成式人工智能(Generative Artificial Intelligence,GenAI)不能用于整篇論文或論文重要部分的撰寫(如研究方法、結(jié)果和對(duì)結(jié)果的解釋分析等)。所有屬于科學(xué)貢獻(xiàn)或智力勞動(dòng)范疇的內(nèi)容均應(yīng)由作者完成,如論文主要內(nèi)容使用GenAI完成,編輯部將按照學(xué)術(shù)不端行為進(jìn)行處理[20]。因此,科研人員需要樹立規(guī)范使用AIGC工具的意識(shí),規(guī)避使用不當(dāng)帶來(lái)的學(xué)術(shù)誠(chéng)信、涉嫌偽造、篡改數(shù)據(jù)等風(fēng)險(xiǎn)。學(xué)術(shù)研究中不應(yīng)使用AIGC工具的場(chǎng)景如表1所示:

4.3.2 不建議直接使用AIGC工具生成內(nèi)容的場(chǎng)景

隨著AI技術(shù)的快速發(fā)展,AIGC工具缺乏透明度和可解釋性帶來(lái)的問(wèn)題日益凸顯,其黑匣子的特征不僅會(huì)導(dǎo)致產(chǎn)生意想不到的或不想要的結(jié)果,也會(huì)編造一些現(xiàn)實(shí)生活中不存在的東西。生成式人工智能開發(fā)者承認(rèn)這一點(diǎn),在ChatGPT公共接口的底部聲明:“ChatGPT可能會(huì)產(chǎn)生關(guān)于人、地點(diǎn)或事實(shí)的不準(zhǔn)確信息”[21]??蒲腥藛T尤其需要認(rèn)識(shí)到,AIGC工具并不理解它所生成的內(nèi)容,可能會(huì)經(jīng)常生成不準(zhǔn)確的陳述,直接采用AIGC工具生成的研究大綱、領(lǐng)域知識(shí)、專家觀點(diǎn)等均須承擔(dān)相關(guān)風(fēng)險(xiǎn)。因此,科研人員需要對(duì)AIGC工具所生成的內(nèi)容采取謹(jǐn)慎參考和審核批判的態(tài)度。學(xué)術(shù)研究中不建議直接使用AIGC工具生成內(nèi)容的場(chǎng)景如表2所示:

4.3.3 可適當(dāng)使用AIGC工具的場(chǎng)景

科技部監(jiān)督司在2023年12月發(fā)布的《負(fù)責(zé)任研究行為規(guī)范指引》中指出“應(yīng)嚴(yán)格遵守相關(guān)安全保密、經(jīng)費(fèi)使用、資源和數(shù)據(jù)共享、知識(shí)產(chǎn)權(quán)歸屬等規(guī)定。依規(guī)合理使用生成式人工智能參與研究實(shí)施”[18]。2023年11月,Science期刊更新編輯政策,聲明“只要在研究方法部分對(duì)AI輔助技術(shù)(如大型語(yǔ)言模型、聊天機(jī)器人和圖像生成工具)的使用進(jìn)行合適的披露,在研究中使用這些工具是可以接受的”[12]。由此,科研人員在學(xué)術(shù)研究和成果發(fā)表的各個(gè)階段,包括論文選題、研究設(shè)計(jì)與開展以及論文撰寫過(guò)程中,可適當(dāng)使用AIGC工具。學(xué)術(shù)研究中可適當(dāng)使用AIGC工具的場(chǎng)景如表3所示:

4.4 使用AIGC的引用標(biāo)注與聲明

4.4.1 使用AIGC的引用標(biāo)注

在國(guó)際上,APA格式和MLA格式是兩種頗具影響的用于學(xué)術(shù)論文寫作的引用格式。

APA格式由美國(guó)心理學(xué)會(huì)(American Psychological Association, APA)制定。APA認(rèn)為其他讀者無(wú)法檢索ChatGPT“聊天”的結(jié)果,而且AIGC的主要貢獻(xiàn)來(lái)自于算法,所以AIGC工具的制作者應(yīng)當(dāng)被標(biāo)注為作者,引用者不需要在參考文獻(xiàn)表中列出AIGC的具體內(nèi)容,但可以將交互記錄作為附錄[22]。APA給出AIGC引用格式的示例如下:

OpenAI.(2023).ChatGPT(Mar 14 version)[Large language model]. https://chat.openai.com/chat

MLA格式由美國(guó)現(xiàn)代語(yǔ)言協(xié)會(huì)(Modern Language Association, MLA)制定。MLA格式指南建議作者在參考文獻(xiàn)中引用ChatGPT內(nèi)容時(shí),應(yīng)包括完整檢索提示句,以及“ChatGPT”、版本號(hào)、“OpenAI”、使用ChatGPT的日期和網(wǎng)頁(yè)鏈接URL[23]。MLA給出AIGC引用格式的示例如下:

“In 200 words, describe the symbolism of the green light in The Great Gatsby” follow-up prompt to list sources. ChatGPT, 13 Feb. version, OpenAI, 9 Mar. 2023, chat.openai.com/chat.

2023年12月,科技部監(jiān)督司發(fā)布的《負(fù)責(zé)任研究行為規(guī)范指引》中指出,“使用生成式人工智能生成的內(nèi)容,特別是涉及事實(shí)和觀點(diǎn)等關(guān)鍵內(nèi)容的,應(yīng)明確標(biāo)注并說(shuō)明其生成過(guò)程,確保真實(shí)準(zhǔn)確和尊重他人知識(shí)產(chǎn)權(quán)”[18]。

由于國(guó)內(nèi)對(duì)AIGC生成內(nèi)容尚未明確其引用格式,筆者參照《信息與文獻(xiàn) 參考文獻(xiàn)著錄規(guī)則(GB/T 7714-2015)》[24]提供以下兩種引用格式的參考建議:

(1)參考文獻(xiàn)中引用。將AIGC工具的開發(fā)者作為主要責(zé)任者,AIGC工具作為主題名,簡(jiǎn)要描述AIGC交互內(nèi)容作為其他題目信息,文獻(xiàn)類型標(biāo)識(shí)為[CP]:計(jì)算機(jī)程序(computer program),文獻(xiàn)載體標(biāo)識(shí)為[OL]:聯(lián)機(jī)網(wǎng)絡(luò)(online),更新或修改日期為AIGC工具的版本更新時(shí)間,引用日期注明內(nèi)容生成時(shí)間,并注明訪問(wèn)路徑。推薦如下參考文獻(xiàn)格式:

[序號(hào)]主要責(zé)任者. 題名: 其他題目信息[文獻(xiàn)類型標(biāo)識(shí)/文獻(xiàn)載體標(biāo)識(shí)].出版年(更新或修改日期)[引用日期].獲取或訪問(wèn)路徑.

示例如下:

[1]同方知網(wǎng).知網(wǎng)AI智能寫作:請(qǐng)闡述放射源事故急性外照射的計(jì)算方法并詳細(xì)解釋[CP/OL].(2023-05-16)[2023-11-17].https://aidoc.cnki.net/.

(2)參考文獻(xiàn)+附錄引用。如果使用AIGC工具的交互內(nèi)容或提示語(yǔ)過(guò)長(zhǎng)(或者有多項(xiàng)交互內(nèi)容或提示語(yǔ)),無(wú)法在參考文獻(xiàn)中詳細(xì)展示,可以將交互記錄(包括提示語(yǔ)和結(jié)果等)移至文后的附錄中。參考文獻(xiàn)列表中的引用可以不再標(biāo)注與AIGC工具的交互內(nèi)容或提示語(yǔ)。示例如下:

[1]百度.文心一言[CP/OL].(2024-01-19)[2024-01-24]. https://yiyan.baidu.com/.

[2]北京智譜華章科技有限公司.智譜清言[CP/OL].[2024-01-25]. https://chatglm.cn/main/detail.

詳細(xì)的AIGC交互內(nèi)容或提示語(yǔ)展示在附錄中,示例如下:

[1]近十年中國(guó)南水北調(diào)規(guī)模的曲線圖.(百度.文心一言[CP/OL].[2024-01-24])

[2]近十年中國(guó)南水北調(diào)工程的投資概況.(百度.文心一言[CP/OL].[2024-01-24])

[3]中國(guó)、美國(guó)、印度、歐盟近十年的人口規(guī)模數(shù)據(jù).(北京智譜華章科技有限公司.智譜清言[CP/OL].[2024-01-25])

[4]中國(guó)、美國(guó)、印度、歐盟近十年的糧食生產(chǎn)規(guī)模概況.(北京智譜華章科技有限公司.智譜清言[CP/OL].[2024-01-25])

4.4.2 使用AIGC工具的聲明

基于學(xué)術(shù)誠(chéng)信原則,在研究過(guò)程的任何環(huán)節(jié)使用AIGC工具,均須在方法部分、附錄部分或者其他適當(dāng)部分公開、透明、詳細(xì)地做出使用聲明。使用聲明內(nèi)容包括:使用AIGC工具解決研究中什么問(wèn)題;使用AIGC工具產(chǎn)生的想法或結(jié)論;由AIGC工具生成內(nèi)容所占全文比例;作者對(duì)AIGC工具生成的內(nèi)容承擔(dān)全部責(zé)任;等等。示例如下:

“在本研究中,作者在研究設(shè)計(jì)章節(jié)采用ChatGPT作為輔助工具,進(jìn)行基于學(xué)術(shù)文獻(xiàn)特征的數(shù)據(jù)清洗、文本分類和信息抽取的相關(guān)工作;得出學(xué)術(shù)文獻(xiàn)可以通過(guò)ChatGPT實(shí)現(xiàn)自動(dòng)分類,為大規(guī)模地按學(xué)科知識(shí)揭示文獻(xiàn)提供更好的支持結(jié)論;ChatGPT生成內(nèi)容約300字,在全文內(nèi)容中的占比約為3%;本人對(duì)使用ChatGPT生成的內(nèi)容承擔(dān)全部責(zé)任。 ”

5 結(jié)語(yǔ)/Conclusions

任何一項(xiàng)新技術(shù)的出現(xiàn),對(duì)于社會(huì)的發(fā)展均是一把雙刃劍。AIGC技術(shù)的應(yīng)用可推動(dòng)學(xué)術(shù)研究的創(chuàng)新與發(fā)展,促進(jìn)學(xué)術(shù)生產(chǎn)的質(zhì)量與效率大幅提升。同時(shí),鑒于這項(xiàng)技術(shù)的原理與局限性,也帶來(lái)一系列的應(yīng)用風(fēng)險(xiǎn)。面對(duì)技術(shù)的進(jìn)步,科研人員需要在了解AIGC風(fēng)險(xiǎn)的基礎(chǔ)上積極探索規(guī)范使用之道。筆者通過(guò)分析學(xué)術(shù)研究中使用AIGC工具的風(fēng)險(xiǎn),對(duì)相關(guān)政策聲明和規(guī)定進(jìn)行梳理,提出使用AIGC工具的風(fēng)險(xiǎn)規(guī)避策略。一方面,這些應(yīng)對(duì)策略可助力科研人員更好地理解AIGC政策聲明和相關(guān)規(guī)定,自覺(jué)規(guī)范使用行為,規(guī)避使用風(fēng)險(xiǎn),促進(jìn)AIGC工具在學(xué)術(shù)研究中的合法合規(guī)的使用;另一方面,也為立法、教育、技術(shù)和產(chǎn)業(yè)協(xié)同等多層面尋求AIGC應(yīng)用落地的解決方案提供參考依據(jù)。

參考文獻(xiàn)/References:

國(guó)家網(wǎng)信辦, 國(guó)家發(fā)展改革委, 教育部, 等. 生成式人工智能服務(wù)管理暫行辦法[EB/OL]. [2023-12-20]. https://www.gov.cn/zhengce/zhengceku/202307/content_6891752.html. (Cyberspace Administration of China, National Development and Reform Commission, Ministry of Education, et al. Interim Measures for the Management of Generative Artificial Intelligence Services[EB/OL]. [2023-12-20]. https://www.gov.cn/zhengce/zhengceku/202307/content_6891752.html.)

中國(guó)科學(xué)技術(shù)信息研究所, 愛(ài)思唯爾, 施普林格·自然, 等. 學(xué)術(shù)出版中AIGC使用邊界指南[EB/OL]. [2023-12-20]. https://www.istic.ac.cn/html/1/284/338/1701698014446298352.html. (Institute of Scientific and Technical Information of China, ELSEVIER, SPRINGER NATURE, et al. Guideline on the Boundaries of AIGC Usage in Academic Publishing[EB/OL]. [2023-12-20]. https://www.istic.ac.cn/html/1/284/338/1701698014446298352.html.)

和軍, 楊慧. ChatGPT類生成式人工智能監(jiān)管的國(guó)際比較與借鑒[J]. 湖南科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版), 2023, 26(6): 119-128. (HE J, YANG H. International comparison and reference on ChatGPT-like Generative Artificial Intelligence Regulation[J]. Journal of Hunan University of Science and Technology (social science edition), 2023, 26(6): 119-128.)

European Parliament. Artificial Intelligence Act[EB/OL]. [2023-12-20]. https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.pdf.

閆宏秀, 宋勝男. 雙重脆弱性與適度信任:從ChatGPT到Sora[J/OL]. 新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)[2024-04-21]. https://doi.org/10.14100/j.cnki.65-1039/g4.20240408.001. (YAN H X, SONG S N. Dual vulnerability and moderate trust: from ChatGPT to Sora [J/OL]. Journal of Xinjiang Normal University (philosophy and social sciences edition) [2024-04-21]. https://doi.org/10.14100/j.cnki.65-1039/g4.20240408.001.)

李艷. 三星ChatGPT泄密事件及啟示 [J]. 保密工作, 2023(9): 65-68. (LI Y. Samsung due to ChatGPT leakage incident and its inspiration [J]. Confidentiality, 2023(9): 65-68.)

ZHAO R, LI X, CHIA Y K, et al. Can ChatGPT-like generative models guarantee factual accuracy? on the mistakes of new generation search engines[EB/OL]. [2024-02-26]. https://arxiv.org/abs/2304.11076.

孫滔.發(fā)表3天被撤稿!中國(guó)作者用AI生成論文插圖, 每幅都荒謬[EB/OL]. [2024-02-27]. https://news.sciencenet.cn/htmlnews/2024/2/517714.shtm. (SUN T. Published for 3 days and was withdrawn! Chinese authors use AI to generate paper iEKYs2BWeVCsUmZo2pn1ydg==llustrations, and each one is absurd[EB/OL]. [2024-02-27]. https://news.sciencenet.cn/htmlnews/2024/2/517714.shtm.)

ELISABETH B. The rat with the big balls and the enormous penis – how Frontiers published a paper with botched AI-generated images[EB/OL]. [2024-02-27]. https://scienceintegritydigest.com/2024/02/15/the-rat-with-the-big-balls-and-enormous-penis-how-frontiers-published-a-paper-with-botched-ai-generated-images/.

種曉明. AIGC賦能出版業(yè)背景下版權(quán)監(jiān)管新路徑研究[J]. 科技與出版, 2023(8): 96-104. (ZHONG X M. A study on the new path of copyright supervision under the background of AIGC empowering the publishing industry[J]. Science-technology & publication, 2023(8): 96-104.)

Nature. Why Nature will not allow the use of generative AI in images and video[EB/OL]. [2023-12-20]. https://www.nature.com/articles/d41586-023-01546-4.

THORP H H. ChatGPT is fun, but not an author[J]. Science, 2023, 379(6630): 313.

The lancet. Information for authors[EB/OL]. [2023-12-20]. https://www.thelancet.com/pb/assets/raw/Lancet/authors/tl-info-for-authors.pdf.

Elservier. The use of generative AI and AI-assisted technologies in writing for Elsevier[EB/OL]. [2023-12-25]. https://www.elsevier.com/about/policies-and-standards/the-use-of-generative-ai-and-ai-assisted-technologies-in-writing-for-elsevier.

Taylor & Francis Group. Taylor & Francis editorial policies on authorship[EB/OL]. [2023-12-25]. https://authorservices.taylorandfrancis.com/editorial-policies/defining-authorship-research-paper/.

ame5. arXiv announces new policy on ChatGPT and similar tools[EB/OL]. [2023-12-25]. https://blog.arxiv.org/2023/01/31/arxiv-announces-new-policy-on-chatgpt-and-similar-tools/.

王威.《布萊奇利宣言》:人工智能國(guó)際合作監(jiān)管的新起點(diǎn)[J]. 服務(wù)外包, 2023(12): 46-52. (WANG W. Bletchley Declaration: a new starting point for international cooperation and regulation of artificial intelligence[J]. China outsourcing, 2023(12): 46-52.)

科技部監(jiān)督司.負(fù)責(zé)任研究行為規(guī)范指引(2023)[EB/OL]. [2023-12-22]. https://www.most.gov.cn/kjbgz/202312/t20231221_189240.html. (Supervision Department of the Ministry of Science and Technology. Guidelines for responsible research code of conduct (2023)[EB/OL]. [2023-12-22]. https://www.most.gov.cn/kjbgz/202312/t20231221_189240.html.)

國(guó)家自然科學(xué)基金委員會(huì).科研誠(chéng)信規(guī)范手冊(cè)[EB/OL]. [2023-12-22]. https://www.nsfc.gov.cn/publish/portal0/tab442/info91294.html. (National Natural Science Fundation of China. Handbook of scientific research integrity standards[EB/OL]. [2023-12-22]. https://www.nsfc.gov.cn/publish/portal0/tab442/info91294.html.)

胡彬.人工智能可否被用來(lái)寫醫(yī)學(xué)論文[N]. 健康報(bào), 2024-01-17(5). (HU B. Can AI be used to write medical papers[N]. Health, 2024-01-17(5).)

Silvia Vaccino-Salvadore.Exploring the Ethical Dimensions of using ChatGPT in language learning and beyond[J]. Languages, 2023, 8(3): 191.

MCADOO T. How to cite ChatGPT[EB/OL]. [2024-01-29]. https://apastyle.apa.org/blog/how-to-cite-chatgpt.

MLA style center. How do I cite generative AI in MLA style?[EB/OL]. [2023-12-25]. https://style.mla.org/citing-generative-ai/.

全國(guó)信息與文獻(xiàn)標(biāo)準(zhǔn)化技術(shù)委員會(huì).信息與文獻(xiàn) 參考文獻(xiàn)著錄規(guī)則: GB/T 7714-2015 [S]. 北京: 中國(guó)標(biāo)準(zhǔn)出版社, 2015. (Information and Documentation. Information and documentation—rules for bibliographic references and citations to information resources: GB/T 7714-2015[S]. Beijing: Standard Press of China, 2015.)

作者貢獻(xiàn)說(shuō)明/Author contributions:

張艷麗:確定研究思路,撰寫論文初稿,修改論文與定稿;

管玉燕:相關(guān)政策資料收集整理,修改論文和校對(duì)格式;

宛 雪:調(diào)研、分析AIGC工具,進(jìn)行數(shù)據(jù)分析和解釋,校對(duì)論文;

趙晶浩:調(diào)研、論證AIGC工具生成原理和存在風(fēng)險(xiǎn)。

The Risk Review and Countermeasures of Using AIGC in Academic Research

Zhang Yanli Guan Yuyan Wan Xue Zhao Jinghao

Tongfang Knowledge Network Digital Publishing Technology Co., Ltd.(Beijing), Beijing 100192

Abstract: [Purpose/Significance] This study aims to analyze the potential risks of using AIGC tools during academic research, study the strategies to avoid these risks and provide references and guidance for researchers so that they can use AIGC tools in compliance with rules and laws. [Method/Process] This study sorted out the policies and regulations related to the application of AIGC in academic fields at home and abroad, summarized and analyzed the main risks of using AIGC. Then, combined with the researchers’ academic research process, risk avoidance strategies and feasible suggestions for using AIGC at different stages were proposed. [Result/Conclusion] The risks of using AIGC tools for researchers mainly focus on the security of input content, the reliability of output results, academic ethical risks, and potential legal risks. Researchers should enhance their risk-awareness, understand the policy regulations, know the usage boundaries for different research stages and scenarios very well, and regulate their usage behavior to ensure that AIGC tools play a positive role in academic research.

Keywords: AIGC Generative AI academic research risk analysis countermeasure

Author(s): Zhang Yanli, master, E-mail: zyl11604@cnki.net; Guan Yuyan, master; Wan Xue, master; Zhao Jinghao, master.

Received: 2024-05-12 Published: 2024-07-22

德江县| 曲阳县| 丰城市| 韩城市| 湖北省| 玉林市| 界首市| 隆尧县| 天台县| 海南省| 津南区| 车险| 泰来县| 新化县| 威远县| 蕲春县| 武鸣县| 安顺市| 禹城市| 巫溪县| 奉节县| 固镇县| 台州市| 历史| 无极县| 咸宁市| 呼图壁县| 赣榆县| 离岛区| 乐平市| 甘德县| 连平县| 贞丰县| 行唐县| 肇源县| 卫辉市| 航空| 海林市| 晋中市| 太保市| 西宁市|