■楊亞紅 孫 巖 余黨會
海軍軍醫(yī)大學教研保障中心出版社《海軍軍醫(yī)大學學報》編輯部,上海市楊浦區(qū)翔殷路800號 200433
2023年,以ChatGPT為代表的人工智能(Artificial Intelligence,AI)生成式預(yù)訓練Transformer(Generative Pre-trained Transformer,GPT)模型憑借其突破性的文本生成方式和強大的語言表達能力,在學術(shù)出版行業(yè)中引起熱議。已有許多研究人員使用GPT模型處理數(shù)據(jù)、撰寫論文、修改論文,如Adesso[1]使用ChatGPT撰寫了一篇論文,文中指出GPT可以利用內(nèi)置的數(shù)學和統(tǒng)計能力來模擬和分析物理定律和現(xiàn)象,甚至為了測試其自身的語言能力,還作了一首關(guān)于自身的打油詩。此外,研究者使用GPT-3生成了可直接使用的學術(shù)論文,認為GPT-3是一個很有潛力的學術(shù)寫作工具[2]。
在當前的出版模式下,未經(jīng)審查即出版作品的情況越來越普遍,提示出版界沒有足夠的能力處理正在產(chǎn)生的數(shù)量龐大的科學作品,AI或許能夠通過尋找審稿人、創(chuàng)建自動評價、自動分析已出版作品等方式,提高出版作品的質(zhì)量和效率,并快速識別出沒有履行責任的出版組織[3]。近年來,出版單位逐漸借助GPT模型進行選題分析、出版決策、同行評審、抄襲與偽造數(shù)據(jù)等學術(shù)不端行為的甄別及文字編輯等[3-4]。
文獻[2]指出,GPT-3可能無法產(chǎn)生新想法或觀點,建議研究人員使用GPT模型時密切監(jiān)測寫作過程,以減輕潛在的負面后果。生成式AI模型輸出作品(以下簡稱“AI作品”)還可能對科學研究的透明度和可信度等造成危害,隨之而來的侵權(quán)問題、倫理道德問題、社會風險等日益嚴重[5-7]。
2023年,我國通過的《生成式人工智能服務(wù)管理暫行辦法》提出,采取有效措施鼓勵生成式AI創(chuàng)新發(fā)展,對生成式AI服務(wù)實行包容審慎和分類分級監(jiān)管[8]。因此,未來AI技術(shù)在學術(shù)論文創(chuàng)作中的應(yīng)用會越來越多,而學術(shù)出版單位將如何應(yīng)對以及如何履行社會責任值得思考。本研究通過調(diào)研國內(nèi)外AI作品相關(guān)文獻資料,討論AI作品有關(guān)責任主體(包括作者、AI模型開發(fā)者、出版單位等)面臨的法律、倫理道德與社會責任和風險問題,并初步提出應(yīng)對與管理策略,以促進生成式AI在學術(shù)出版行業(yè)的合理應(yīng)用和健康發(fā)展。
不少公開發(fā)表的AI作品如實驗小說1TheRoad[9],以及科研論文預(yù)印本“Can GPT-3 write an academic paper on itself, with minimal human input?”“Open artificial intelligence platforms in nursing education: Tools for academic progress or abuse?”等[2,10]將AI或GPT列為作者。盡管部分科研論文在正式發(fā)表時均將GPT從作者列表中刪除,但是仍引起了人們對AI作品著作權(quán)歸屬的思考。
AI作品是計算機大型語言模型通過在大量數(shù)據(jù)中“學習”和“訓練”后再生產(chǎn)和再創(chuàng)作的“組合”作品,其體現(xiàn)的觀點來源于他人已經(jīng)生產(chǎn)或創(chuàng)作形成的文獻資料,并無“獨創(chuàng)性”。全世界多個國家的著作權(quán)法均規(guī)定,享有著作權(quán)的作品須有獨創(chuàng)性[11-13]。作者作為著作權(quán)人之一,是完成作品創(chuàng)作且能夠為其作品承擔直接責任的個體或組織[14]?!吨腥A人民共和國著作權(quán)法》規(guī)定著作權(quán)屬于作者,而作者僅有以下2種情況:(1)創(chuàng)作作品的自然人;(2)創(chuàng)作作品并承擔責任的法人或者非法人組織。此外,AI具有明顯的工具屬性,無法成為真正的法律主體、承擔相應(yīng)的權(quán)利和義務(wù)[15]。因此,從法律角度,AI不能成為著作權(quán)人。
國際高水平學術(shù)期刊Science和Nature均不贊同將AI列為作者:Science主編Thorp[16]認為,科研成果發(fā)表過程中AI模型或許發(fā)揮了重要作用,但它僅是研究者為提出假設(shè)、設(shè)計實驗和解釋結(jié)果而使用的工具,最終的研究發(fā)現(xiàn)必須來自并通過人類頭腦的奇妙表達;Nature主編Magdalena Skipper也認為,作者身份決定了其對作品的責任,很顯然AI模型并不適合成為作者[17]。因此,從學術(shù)研究角度,AI也不能被列為作者。
既然AI不能成為作者,那么在作品創(chuàng)作中還能使用GPT等AI模型嗎?若使用了AI,又該如何在論文中定義AI的貢獻?針對這一問題,Science特別強調(diào),不能在論文中使用由GPT等AI模型生成的文本,包括各類插圖,如果違反將構(gòu)成科研學術(shù)不端[16]。然而,2023年2月3日,荷蘭阿姆斯特丹大學的多名教授在Nature聯(lián)名發(fā)表文章,認為在學術(shù)出版中禁止GPT等AI模型是行不通的,當前重要的是抓住機遇和管理風險[18]。Nature也明確規(guī)定,論文創(chuàng)作時作者可以借助GPT等大型語言模型,但是關(guān)于論文是如何形成的以及使用了什么工具均需要透明;同時規(guī)定,如果在論文創(chuàng)作過程中使用過GPT等大型語言模型,作者需要在“方法”或“致謝”等部分說明具體的使用情況[17,19]。出版Cell和TheLancet等國際高水平學術(shù)期刊的出版商Elsevier認同Nature的做法,但同時提出AI模型生成的文本不能代替原本應(yīng)該由作者完成的關(guān)鍵工作,如解釋數(shù)據(jù)和獲得科學結(jié)論[20]。
綜上所述,在AI作品中,無人監(jiān)督的GPT等AI模型僅決定了研究內(nèi)容的大數(shù)據(jù)傾向,真正的研究成果與觀點應(yīng)當完全由人類的思維決定[3]。對于AI作品,AI不能成為著作權(quán)人,在論文發(fā)表時AI也不能被列為作者。在論文創(chuàng)作過程中是否允許使用AI模型,目前多數(shù)出版單位的觀點是支持使用AI模型。
GPT生成的文本和插圖是基于互聯(lián)網(wǎng)上海量數(shù)據(jù)產(chǎn)生的,不是由程序員指定的,GPT行為方式的確切原因及生產(chǎn)機制對其開發(fā)者來說都是未知的,何況是GPT的使用者,這導致其輸出結(jié)果具有不確定性和不完整性[21-22]。正是如此,借助GPT等AI模型創(chuàng)作的作品侵權(quán)風險很高,不僅侵犯他人的著作權(quán),還可能侵犯他人的人格權(quán),甚至造成市場壟斷或不正當競爭行為。首先,GPT可能會直接復制現(xiàn)有的學術(shù)論文或其他相關(guān)材料,這種行為違反了著作權(quán)法,侵犯了原創(chuàng)作者的著作權(quán)[23]。其次,GPT可能會以某研究者的名義生成論文,生成的論文可能包含了該研究者的觀點和研究成果,而該研究者實際并未參與其中,這種情況會導致虛假研究成果,給該研究者的名譽帶來傷害,從而侵犯其姓名權(quán)、名譽權(quán)、榮譽權(quán)等人格權(quán),甚至將該研究者的個人簡介等信息寫入論文,侵犯其隱私權(quán)[24];相關(guān)作品可能會在市場中流通,導致原創(chuàng)作品的市場價值下降,對原創(chuàng)作者和出版單位著作權(quán)中的經(jīng)濟權(quán)利造成不良影響。此外,GPT還可能通過合成、改寫、重組等方式將多篇論文的內(nèi)容組合在一起,導致多人或多個組織的權(quán)益同時受到侵犯。最后,GPT如果通過研究分析其他出版單位的選題或價格策略等信息,并披露、利用這些信息,可能會導致市場壟斷和不正當競爭行為,影響出版市場的公平競爭和消費者權(quán)益[25]。
AI作品發(fā)表時,著作權(quán)人及相關(guān)的出版單位可能存在侵權(quán)問題。對于侵權(quán)問題,ChatGPT的開發(fā)者OpenAI特別聲明,其不為任何使用ChatGPT可能發(fā)生的知識產(chǎn)權(quán)侵權(quán)行為承擔法律責任[26]。AI語言模型文心一言也在用戶協(xié)議中聲明,用戶在使用文心一言時若侵犯他人的知識產(chǎn)權(quán)、肖像權(quán)、名譽權(quán)等,由用戶承擔侵權(quán)風險和責任。出版單位是將AI作品推向市場的中介,出版的AI作品如果存在侵權(quán)行為,若事先未明確合同責任范圍,出版單位需要承擔相應(yīng)的法律責任。因此,對于GPT等AI模型生成的作品,著作權(quán)人和出版單位都應(yīng)堅持人工驗證與內(nèi)容審查,以避免因使用AI模型而造成的潛在侵權(quán)行為。
如果AI作品侵犯了他人的著作權(quán)、人格權(quán)等權(quán)益,首先需要確定侵權(quán)責任的歸屬。這可能涉及AI模型的開發(fā)者、訓練數(shù)據(jù)的提供者、AI模型的使用者等。
1.3.1 加強開發(fā)者監(jiān)管
GPT等生成式AI模型的相關(guān)法律法規(guī)還不完善,我國《生成式人工智能服務(wù)管理暫行辦法》[8]及歐盟《人工智能責任指令》(AILiabilityDirective)[27]、《人工智能法案》(TheAIAct)[28]都沒有對AI模型在訓練期間是否使用個人數(shù)據(jù)和信息作出規(guī)定,因此在未來一段時期內(nèi),AI作品引發(fā)的法律問題將是相關(guān)著作權(quán)主體面臨的挑戰(zhàn)。為了降低潛在的侵權(quán)風險,生成式AI模型的開發(fā)者需要完善技術(shù)監(jiān)管機制,制定相關(guān)的技術(shù)服務(wù)標準,加強GPT生成文本和插圖的來源追溯與驗證,以降低盜用他人原創(chuàng)作品的可能性;應(yīng)當建立有效的投訴處理機制,若出現(xiàn)使用者侵權(quán)投訴事件,必須及時響應(yīng)并進行調(diào)查和核實,然后根據(jù)情況采取合理的補救措施,如聯(lián)系訓練數(shù)據(jù)原創(chuàng)作者獲取授權(quán)或刪除、修改相關(guān)內(nèi)容。除開發(fā)者自我監(jiān)管外,《生成式人工智能服務(wù)管理暫行辦法》還規(guī)定,國家互聯(lián)網(wǎng)信息辦公室、國家發(fā)展和改革委員會、教育部、科學技術(shù)部、工業(yè)和信息化部、公安部、國家廣播電視總局等部門應(yīng)當依據(jù)各自職責依法加強對生成式AI服務(wù)的監(jiān)督管理,以促進生成式AI健康發(fā)展和規(guī)范應(yīng)用,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權(quán)益[8]。
1.3.2 加強訓練數(shù)據(jù)授權(quán)管理
作為一種新興技術(shù),生成式AI引發(fā)了多起嚴重的法律與安全問題,例如意大利曾發(fā)布消息,ChatGPT開發(fā)者OpenAI違反了意大利相關(guān)的隱私規(guī)則和數(shù)據(jù)保護法,導致用戶數(shù)據(jù)丟失且未向用戶告知[29]。意大利、德國、法國、西班牙等國家的數(shù)據(jù)保護監(jiān)管機構(gòu)對AI模型如ChatGPT的使用表達擔憂或發(fā)起調(diào)查。生成式AI模型確實為人們的生活帶來了方便,但也帶來了真正的風險,為了建立日益安全的AI系統(tǒng),訓練數(shù)據(jù)的授權(quán)管理必須嚴格。當前,生產(chǎn)式AI模型的訓練數(shù)據(jù)主要來源于公共語料庫、社交媒體、學科數(shù)據(jù)庫等平臺,這些數(shù)據(jù)提供平臺應(yīng)建立更嚴格的數(shù)據(jù)管理機制,采用必要的措施以確保只有經(jīng)過授權(quán)的人員才能使用數(shù)據(jù);AI模型開發(fā)者在獲取訓練數(shù)據(jù)時,也應(yīng)當審查相關(guān)數(shù)據(jù)的授權(quán)情況,明確是否為限制訪問或未公開的資料,還必須明確是否為保密資料,確保訓練數(shù)據(jù)合法、合規(guī)及避免泄密。數(shù)據(jù)提供者還應(yīng)制定敏感個人信息的使用原則,如使用這些信息必須進行匿名化和去標識化處理等;AI模型開發(fā)者也要完善產(chǎn)業(yè)鏈中敏感個人信息的保護要求,規(guī)范AI模型合法使用這些信息。
1.3.3 用戶風險防范
用戶應(yīng)提高自身的安全意識,謹慎使用GPT等AI模型。作者創(chuàng)作時若使用GPT,須始終堅持人工驗證,對重要的觀點進行溯源并引用原創(chuàng)資料,對插圖進行仔細核實并確保獲得原創(chuàng)作者授權(quán)。對于AI作品,出版單位需要設(shè)置規(guī)范且合理的人工驗證步驟,要求作者明確哪些內(nèi)容使用了GPT和如何使用,甚至要求作者提供插圖的產(chǎn)生過程及相關(guān)授權(quán)說明性文件[18]。出版單位收到AI作品時,需仔細核查論文中所有引用材料、案例、文獻的來源,以保證科研信息透明、可信和出版單位的合法權(quán)益。為充分保護用戶權(quán)益,各國立法部門正逐步完善AI作品相關(guān)法律法規(guī),我國《生成式人工智能服務(wù)管理暫行辦法》[8]和歐盟《人工智能法案》[28]都對AI模型開發(fā)者的訓練數(shù)據(jù)來源、規(guī)模、算法機制及透明度和風險評估等提出了要求,OpenAI、谷歌和微軟等AI模型的開發(fā)商需要聲明是否使用受版權(quán)保護的材料來訓練模型。隨著法律法規(guī)的完善,用戶對AI模型生成的文本進行研究觀點、原創(chuàng)資料溯源將越來越容易。
AI作品可能觸及一系列倫理失范問題,如倫理權(quán)利問題、倫理困境、倫理沖突、倫理風險等。論文評審工具StatReviewer的開發(fā)者之一deVoss[3]認為,GPT等AI模型自動化創(chuàng)作的過程充滿了倫理困境,GPT生成的作品會傳遞什么價值觀需要人類保持警惕。首先,AI是否可以擁有與自然人同等的倫理權(quán)利和地位?我國學者藍江[30]認為:就目前來看答案是否定的,由于波拉尼悖論的限制,AI無法真正做到實踐倫理學的完備層次;將倫理規(guī)范和道德律令植入到AI模型中,也會遭遇到例外狀態(tài)下的波拉尼悖論。JournalofHealthcareManagement編輯Ford[31]嘗試使用GPT-3模型回答編輯針對投稿論文提出的問題,他對GPT-3考慮人類狀況的能力評分較低(F級)。這些結(jié)果表明,目前AI無法達到與自然人相等的倫理地位。其次,借助AI模型也可能產(chǎn)生含有虛假研究成果、誤導性信息等不良信息的作品,其產(chǎn)生的有害結(jié)果責任歸咎于誰?是AI模型的開發(fā)者、數(shù)據(jù)提供者,還是用戶?這是一個復雜的倫理問題,相信隨著AI相關(guān)倫理準則的完善,其答案將逐步明確。
GPT等生成式AI模型的創(chuàng)作機制可能導致倫理沖突。首先,生成式AI模型在創(chuàng)作時需要對大量數(shù)據(jù)進行訓練和改進,這涉及個人隱私與數(shù)據(jù)的保護問題,而用戶也擔心他們的個人信息會被濫用,如用于廣告或政治目的。其次,GPT等AI模型因受到訓練數(shù)據(jù)提供者價值觀和偏見的影響,生成的作品可能帶有相應(yīng)的偏見和歧視,甚至會放大性別歧視和種族主義等社會文化偏見[19]。如果AI模型生成的帶有偏見和不良信息的文本被讀者傳播,將會對社會安全、經(jīng)濟、文化、政治等產(chǎn)生嚴重影響[32]。
AI作品導致的倫理風險也不容忽視。AI作品是AI模型通過學習和模仿已有資料生成的新作品,其信息來源于他人的原創(chuàng)作品,這也說明AI作品缺乏真正的創(chuàng)造性和原創(chuàng)性,其可能影響學術(shù)出版行業(yè)的創(chuàng)造力和創(chuàng)新性。人類的創(chuàng)造力是社會進步的重要動力,AI模型的使用可能會對人類的創(chuàng)造力產(chǎn)生不良影響。研究者如果過分依賴GPT等AI模型,將可能導致自身的創(chuàng)造力衰退和創(chuàng)新能力減弱。北京大學新聞與傳播學院胡泳教授認為,AI原本應(yīng)該極大地幫助人類提升創(chuàng)造力,但非常吊詭的是,由于可以依賴生成AI,人類的創(chuàng)造力或許會進入一個低谷[33]。有鑒于此,人們應(yīng)當主動利用生成式AI幫助其發(fā)揮潛力,而不是被動地使用AI作品,因為生成式AI不能替代人類的智慧和洞察力,GPT等AI模型的研發(fā)始終依賴于人類開發(fā)者輸入的訓練數(shù)據(jù)。
目前,生成式AI在論文創(chuàng)作與出版過程中的應(yīng)用越來越多,從而引發(fā)一系列倫理道德問題。為了解決AI可能導致的倫理道德問題,需要建立相應(yīng)的倫理評估框架。
2.2.1 堅持人工驗證
Else[34]研究表明,ChatGPT生成的文章繞過了傳統(tǒng)的剽竊檢測方法。因此,對于AI作品,作者需要對內(nèi)容進行真實性和可信度驗證,并保存相關(guān)驗證資料,投稿時提交給出版單位審查。出版單位必須堅持只向公眾傳播經(jīng)過人工驗證的AI作品,并制定實施在學術(shù)論文中使用AI的嚴格審查制度[35]。
2.2.2 完善AI倫理道德規(guī)范
2021年9月25日,我國發(fā)布了《新一代人工智能倫理規(guī)范》,該規(guī)范充分考慮了社會各界有關(guān)隱私、偏見、歧視、公平等倫理關(guān)切,出版單位與作者使用AI時應(yīng)遵循相關(guān)倫理指引[36]。出版單位、AI模型開發(fā)者、政府部門等機構(gòu)應(yīng)共同構(gòu)建GPT等AI模型參與創(chuàng)作的作品的學術(shù)誠信與出版?zhèn)惱硪?guī)范,從標準、政策、法律法規(guī)等維度完善AI學術(shù)倫理的約束、問責和反饋機制,并明確禁止使用AI模型生成含有激進、極端及歧視性內(nèi)容的作品[37]。
2.2.3 注重創(chuàng)造力培養(yǎng),鼓勵原創(chuàng)性輸出
通過教育和培訓等方式,促使科研人員理性認識和正確使用GPT等AI模型,避免科研人員過分依賴AI。通過采取獎勵機制或創(chuàng)作支持等措施來激勵原創(chuàng)性輸出,鼓勵科研人員在學術(shù)論文創(chuàng)作中發(fā)揮其自身的創(chuàng)造力和創(chuàng)新能力。
AI作品應(yīng)該負有傳播健康信息和價值觀的社會責任。生成式AI作品在出版領(lǐng)域的社會接受度是一個相對較新的問題,不同讀者和社會群體的態(tài)度各異,國際高水平學術(shù)期刊Nature和Science即對AI作品保持不同態(tài)度[16-17]。部分讀者對AI作品持開放態(tài)度,認為這是一種新鮮有趣的閱讀體驗。也有讀者考慮到AI模型會產(chǎn)出含有“以事實形式呈現(xiàn)錯誤信息”[38]的作品,這可能會對學術(shù)界的科研誠信造成負面影響,因此對AI作品保持拒絕的態(tài)度,一些組織機構(gòu)已經(jīng)禁止使用生成式AI工具ChatGPT撰寫論文[39]。總之,公眾對AI作品的接受度受很多因素影響,但隨著時間的推移和技術(shù)的發(fā)展,公眾對于這種新型創(chuàng)作方式的接受度可能會提高,關(guān)鍵在于AI作品能否充分考慮倫理、法律和社會價值觀,以及滿足讀者的期望與需求。
盡管AI作品為作品創(chuàng)作和出版模式帶來許多創(chuàng)新,但其存在的社會問題必須予以重視。GPT等AI模型具有的技術(shù)性和工具性優(yōu)勢,有可能被有不良動機的人利用,他們利用生成式AI產(chǎn)生虛假信息、文字和圖像,制造虛假新聞、謠言、虛假廣告等,進行欺詐、造假等不正當行為[38],這將對社會公平造成負面影響。如果生成式AI系統(tǒng)被黑客入侵,獲取敏感數(shù)據(jù)或篡改模型的行為,或?qū)⑸婷軆?nèi)容產(chǎn)出,這會給社會和出版單位、研究機構(gòu)造成威脅,產(chǎn)生嚴重的負面社會影響[25]。因此,在使用GPT等生成式AI模型的過程中,需要保持警惕和理性。
AI模型生成的虛假信息和偏好性內(nèi)容可能會對科學研究權(quán)威性和社會公信力造成影響。GPT等AI模型只能作為輔助工具在科學研究中發(fā)揮作用,所以科研部門需加強AI模型的應(yīng)用監(jiān)督,確??茖W研究觀點的原創(chuàng)性與真實性。出版單位應(yīng)采用更嚴格的審稿流程,對學術(shù)論文進行仔細審查,以保護科學研究的權(quán)威性與可靠性。AI模型可以提供定制化的服務(wù)體驗,其生成的偏好性內(nèi)容盡管可以滿足研究者的需求,但其社會信任度仍受質(zhì)疑,相關(guān)職能部門應(yīng)當積極開展公眾教育和宣傳,向廣大讀者普及AI模型的局限性,呼吁公眾理性認識AI創(chuàng)作。合理使用生成式AI、促使其健康發(fā)展或?qū)a(chǎn)生顯著的社會效益,如它可以幫助研究者更快速地獲取文獻資料、解決問題、提高科研工作效率等,還可以為出版單位、讀者等提供更加智能化、高效化的服務(wù)平臺,從而推動社會的進步和發(fā)展。
未來人與機器之間的關(guān)系更加密切,出版單位在使用AI生成的作品時需承擔相應(yīng)的社會責任。出版單位將通過AI技術(shù)與人類實踐相結(jié)合的出版模式發(fā)揮其社會職能作用:(1)出版單位制定AI作品相關(guān)的審查標準和流程,以避免不當、違法或誤導性信息的傳播;(2)出版單位向讀者指出其出版作品中AI生成的內(nèi)容,使讀者在閱讀過程中對內(nèi)容有更加客觀的認識;(3)出版單位借助AI技術(shù)了解讀者喜好與反饋和市場需求等信息,輔助選題策劃,實現(xiàn)個性化出版,提升讀者的滿意度[4];(4)編輯人員借助AI技術(shù)進行學術(shù)論文的編輯和校對,如糾正語法和拼寫錯誤等,提高編輯的工作質(zhì)量和效率;(5)出版單位通過AI技術(shù)使數(shù)字化出版平臺更加智能化,實現(xiàn)出版內(nèi)容的即時更新與定制化傳遞,使科研成果的傳播更加迅速與精準;(6)通過虛擬現(xiàn)實、增強現(xiàn)實技術(shù)設(shè)立虛擬編輯角色,在出版流程中個性化指導作者、審稿人完成投審稿操作,并創(chuàng)造沉浸式閱讀環(huán)境或為圖書智能添加音頻、視頻等多媒體元素,使讀者獲取更豐富的閱讀體驗[40]。
AI作品的出現(xiàn)必將引導科研創(chuàng)作和出版產(chǎn)業(yè)發(fā)生變革,這涉及一系列法律法規(guī)、倫理準則問題。無論是法律角度還是學術(shù)研究角度,AI均不能成為AI作品的作者。多數(shù)出版單位認為可以在學術(shù)論文創(chuàng)作過程中使用AI,但必須在正文適當部分說明是否使用以及如何使用AI。AI作品由于其自動化的生成過程,存在嚴重的著作權(quán)、人格權(quán)等侵權(quán)風險,出現(xiàn)倫理困境、倫理沖突等倫理道德失范行為的可能性也較高。為了避免這些法律與倫理問題,未來GPT等AI模型的開發(fā)者必須建立更完善的技術(shù)監(jiān)管機制,相關(guān)部門應(yīng)當依法加強對生成式AI服務(wù)的監(jiān)督管理,出版單位與作者也應(yīng)重視AI作品的人工驗證與內(nèi)容審查,從而共同促進生成式AI的健康發(fā)展和規(guī)范應(yīng)用,保護用戶和相關(guān)法人的合法權(quán)益。
不同讀者和社會群體對AI作品的態(tài)度各異,AI作品的社會接受度受到讀者閱讀體驗與需求、倫理、社會價值觀等因素影響。AI作品可能引發(fā)社會不公、不良社會影響等社會問題,也可能對學術(shù)權(quán)威性和社會公信力造成威脅。這需要我們在使用GPT等生成式AI模型時保持警惕和理性,只有合理使用生成式AI才可能對社會產(chǎn)生益處。出版單位也應(yīng)當承擔相應(yīng)的社會責任,未來或通過AI技術(shù)與人類實踐相結(jié)合的出版模式發(fā)揮其社會職能作用。
需要特別強調(diào)的是,人類的創(chuàng)造力是社會發(fā)展、技術(shù)進步的基礎(chǔ)。無論AI技術(shù)發(fā)展到何種程度,科學研究的原創(chuàng)性不容忽視,而且人類也始終是AI產(chǎn)品的責任主體。出版行業(yè)應(yīng)始終堅持人工驗證與內(nèi)容審查,鼓勵原創(chuàng)性輸出,維持科研秩序,促進科研成果優(yōu)質(zhì)出版。