王樹義,張慶薇
2022年11月30日,OpenAI發(fā)布名為ChatGPT的模型研究預(yù)覽版,它可以用對話的方式與用戶進行交互。ChatGPT模型使用人類反饋的強化學(xué)習(xí)(Reinforcement Learning from Human Feedback,RLHF)進行訓(xùn)練[1]。訓(xùn)練方法與OpenAI早前發(fā)布的InstructGPT類似,但數(shù)據(jù)收集設(shè)置略有不同,OpenAI使用有監(jiān)督的微調(diào)方法,基于GPT-3.5系列的模型訓(xùn)練了一個初始模型,并且用人工AI訓(xùn)練師對話形式,混合InstructGPT數(shù)據(jù)集撰寫對話格式的回應(yīng)。對于備選答案,由人工AI訓(xùn)練師排名提供增強學(xué)習(xí)的獎勵[2]。ChatGPT自發(fā)布以來,非常受歡迎,僅5天就吸引超過100萬用戶[3],上市第一個月就擁有5,700萬活躍用戶[4],估計發(fā)布后兩個月內(nèi)的月活躍用戶達到1億[5]。ChatGPT的廣泛普及使得OpenAI的價值增長到了290億美元[6]。
ChatGPT的火爆伴隨著一系列對它的討論。人們津津樂道于它通過圖靈測試[7],在明尼蘇達大學(xué)通過法律考試,并在加州大學(xué)伯克利分校的另一場考試中獲得優(yōu)異成績[8]。人們嘗試用它寫簡歷和求職信,解釋復(fù)雜的話題,提供戀愛建議[9]。在廣泛的使用中,用戶們逐漸發(fā)現(xiàn)ChatGPT的許多問題,如對話容量限制、成為抄襲和作弊利器、存在偏見、歧視以及準(zhǔn)確性等問題[10]。盡管大眾對ChatGPT的討論非常激烈和豐富多彩,但作為科研人員,更應(yīng)該嚴(yán)肅審視:ChatGPT以及相似模型和服務(wù)的出現(xiàn)會給學(xué)界帶來什么樣的變化?在變化出現(xiàn)的時候,該如何抓住機遇并避免負面影響,從而獲得科研競爭優(yōu)勢?本文通過例證來嘗試初步回答上述問題。
NLG(Neural Language Generation,自然語言生成)是指從非語言表示生成人類可以理解的文本的技術(shù),應(yīng)用廣泛,包括機器翻譯、對話系統(tǒng)、文本摘要等[11]。目前主要的NLG模型包括Transformer、GPT-1/2/3、BERT、XLM、BART、Codex等。其中,Transformer模型基于Attention機制,在質(zhì)量和用時上都比之前的模型有所提升[12];GPT模型是使用大量數(shù)據(jù)訓(xùn)練好的基于Transformer結(jié)構(gòu)的生成型預(yù)訓(xùn)練變換器模型,能在常識推理、問題回答、語義蘊含的語言場景中取得改進[13];BERT引入MLM和NSP訓(xùn)練方法,能融合上下文[14];XLM模型通過訓(xùn)練跨語言信息,可以用在訓(xùn)練語料少的語言上學(xué)習(xí)到的信息[15]。2020年OpenAI發(fā)布的GPT-3模型參數(shù)達到1,750億個,通過與模型的文本互動來指定任務(wù),性能強大[16]。2021年OpenAI發(fā)布基于GPT-3的Codex模型,能從自然語言文件串中產(chǎn)生功能正確的代碼[17]。2022年OpenAI發(fā)布基于GPT-3的InstructGPT模型,加入了人類評價及反饋數(shù)據(jù),能遵循人類指令,并可以泛化到?jīng)]有見過的任務(wù)[1]。ChatGPT是InstructGPT模型的兄弟模型,可以遵循提示中的指令并提供詳細的響應(yīng),回答遵循人類價值觀[2]。
AIGC(AI Generated Content)是指利用人工智能技術(shù)來生成內(nèi)容的技術(shù),包括文本到文本的語言模型、文本到圖像的生成模型、從圖像生成文本等。其中,谷歌發(fā)布的LaMDA是基于Transformer的用于對話的語言模型,利用外部知識源進行對話,達到接近人類水平的對話質(zhì)量[18];MetaAI推出的PEER是可以模擬人類寫作過程的文本生成模型[19];OpenAI發(fā)布的Codex和Deep Mind的AlphaCode是用于從文本生成代碼的生成模型[17,20]。在圖像生成方面,GauGAN2和DALL·E 2分別是可以生成風(fēng)景圖像和從自然語言的描述生成現(xiàn)實圖像的生成模型,基于GAN和CLIP模型,使用對比學(xué)習(xí)訓(xùn)練[21-22];Midjourney和Stable Diffusion是從文本到圖像的AI生成模型,而谷歌的Muse則實現(xiàn)了最先進的文本轉(zhuǎn)換為圖像的生成性能[23]。另外,F(xiàn)lamingo是一個視覺語言模型,能將圖像、視頻和文本作為提示輸出相關(guān)語言[24];VisualGPT是OpenAI推出的從圖像到文本的生成模型[25]。
人工智能內(nèi)容產(chǎn)生過程,難以避免遇到各種問題,如偏見和歧視。由于訓(xùn)練數(shù)據(jù)集可能存在偏見和歧視,ChatGPT可能會學(xué)習(xí)到這些偏見或歧視,因此需要采用多種方法對數(shù)據(jù)進行篩選和清洗,或使用公平性算法來糾正模型偏差??傮w而言,ChatGPT的公平性取決于它的訓(xùn)練數(shù)據(jù)集以及使用它時的上下文和提問方式[16]。另外,還有算力挑戰(zhàn),ChatGPT依賴大量算力來訓(xùn)練海量文本數(shù)據(jù),以此學(xué)習(xí)語言模式和知識。算力需求日益增長,致使這一領(lǐng)域存在著技術(shù)壟斷,會對算力持續(xù)提升、大數(shù)據(jù)的訓(xùn)練等進一步行動產(chǎn)生影響。OpenAI為了應(yīng)對ChatGPT的高需求,采取排隊系統(tǒng)和流量整形等措施[26]。
筆者梳理相關(guān)成果,尚未發(fā)現(xiàn)詳細分析與論述ChatGPT對科研工作者影響的研究論文。因此,本文從ChatGPT給科研工作者帶來的機遇與挑戰(zhàn)兩個方面作為切入點,展開論述。
ChatGPT是一種AI工程化的成功實踐。AI工程化專注于開發(fā)工具、系統(tǒng)和流程,使得人工智能能夠應(yīng)用于現(xiàn)實世界的領(lǐng)域[27]。它使得普通人可以應(yīng)用最新的自然語言生成與對話技術(shù),完成很多曾經(jīng)需要技術(shù)門檻才能完成的工作。
數(shù)據(jù)科學(xué)研究范式已經(jīng)深刻影響了許多學(xué)科。許多研究需要通過不同形式來掌握足夠的數(shù)據(jù)支持。通常研究數(shù)據(jù)獲取的途徑主要有3種:開放數(shù)據(jù)集、API調(diào)用和爬蟲(Web Scrapper)。Python語言是信息管理學(xué)科中進行數(shù)據(jù)分析最常用的編程語言。以前用戶必須掌握Python語言的基礎(chǔ)語法,了解Python環(huán)境的使用,才能編寫程序進行API調(diào)用或利用爬蟲搜集數(shù)據(jù)。而有了ChatGPT,用戶可以通過自然語言對話形式,給出要求,人工智能會直接給出源代碼,并復(fù)制到實驗環(huán)境,從而獲取所需數(shù)據(jù)。圖1演示了研究者打算爬取某個網(wǎng)頁上的信息,于是可以通過瀏覽器的Inspector功能查找對應(yīng)的區(qū)域,此處找到的是類別sdyw_ul。
圖1 通過瀏覽器定位爬取范圍
有了對應(yīng)的爬取位置,用戶就可以在ChatGPT里直接提出要求:“我想獲得sdyw_ul類下的鏈接和標(biāo)題。”(I want to get the links and titles under the class“sdyw_ul”)。然后ChatGPT自動編寫程序,結(jié)果如圖2所示。
圖2 ChatGPT自動編程爬蟲
如果用戶對程序運行結(jié)果不滿意,可以通過進一步對話交流,讓ChatGPT對程序源代碼進行修改。例如,可以通過對話讓ChatGPT把數(shù)據(jù)輸出的方式改成CSV文件。ChatGPT更新代碼,返回結(jié)果如圖3所示。
圖3 ChatGPT爬蟲編程修改輸出格式
因為ChatGPT擁有對多輪對話的記憶力,所以每次只需要提出進一步的要求,就能不斷讓ChatGPT編寫符合用戶目標(biāo)的程序,從而完成預(yù)期目標(biāo)。最終,用戶可以僅通過自然語言交互和拷貝ChatGPT生成結(jié)果代碼并運行的方式,把該網(wǎng)站上全部感興趣的內(nèi)容,存入Excel文件,如圖4所示。
圖4 ChatGPT生成爬蟲的最終運行結(jié)果
ChatGPT輔助編程不只體現(xiàn)在數(shù)據(jù)采集環(huán)節(jié)。ChatGPT的基礎(chǔ)模型是“GPT-3.5”,底層基礎(chǔ)模型是在大量代碼上訓(xùn)練的結(jié)果,稱為“code-davinci-002”[28]。因此,ChatGPT見識過大量產(chǎn)生于2021年第四季度之前的代碼段,且對代碼上下文補全有較強的能力。在此之前的數(shù)據(jù)分析甚至是機器學(xué)習(xí)模型訓(xùn)練工作,都可以通過自然語言對話方式交給ChatGPT來進行。例如,在下面的例子里,用戶嘗試讓ChatGPT采用LDA對一系列英文新聞文本做出主題挖掘,提出的自然語言指令和ChatGPT的應(yīng)答如圖5所示。用戶只需將ChatGPT給出的代碼復(fù)制運行,對應(yīng)生成的LDA主題聚類可視化結(jié)果如圖6所示。如圖可見,原本需要一定的編程基礎(chǔ)才能完成的機器學(xué)習(xí)乃至數(shù)據(jù)可視化任務(wù),都可以通過和ChatGPT自然語言對話方式來完成。如果用戶覺得結(jié)果有不滿意的地方,可以隨時跟ChatGPT交互,從而做出訂正。例如,原本的代碼中,ChatGPT默認為筆者采用中文停用詞,并且還使用jieba軟件包進行分詞,可以要求ChatGPT改用英語停用詞進行處理,ChatGPT會立即根據(jù)新的要求變動,給出更新后的代碼,如圖7所示。
圖5 ChatGPT編寫LDA主題挖掘代碼
圖6 ChatGPT輔助編程生成LDA主題聚類可視化結(jié)果
圖7 要求ChatGPT改用英文停用詞表
在這個例子中,ChatGPT改用nltk軟件包,使用內(nèi)置的英文停用詞表,可以做出更加符合要求的結(jié)果。不僅如此,在大部分ChatGPT生成的代碼中,不僅會有詳細的注釋,代碼完成后,ChatGPT還會給出相應(yīng)的解釋。例如,在這個更新的代碼中,筆者使用NLTK包中的“stopwords”語料庫來獲得“stopwords.w ords(‘english’)”方法,還使用‘word_tokenize’方法來對文本進行標(biāo)記(原文為:in this updated code,we use the‘stopwords’corpus from the NLTK package to get the‘stopw ords.words(‘english’)’method.we also use the‘word_tokenize’method to tokenize the text.)。這對于了解代碼實際的功用,并且在其上進行修改迭代甚至是查找錯誤,都非常有幫助。對于想學(xué)習(xí)編程的入門級研究人員,也會起到顯著的幫助作用。
做研究需要閱讀文獻。在信息資源管理學(xué)科,期刊數(shù)量眾多,而且外文期刊所占比例很大,每年都涌現(xiàn)出很多新文章需要閱讀。及時對文章重點進行把握,有利于在科研進度上保持領(lǐng)先。但是,眾多的文獻閱讀、消化、理解,尤其是外文文獻閱讀,也對本領(lǐng)域的研究者構(gòu)成了較大的挑戰(zhàn)。有了ChatGPT,研究者可以將外文論文中的內(nèi)容直接輸入進來,然后利用提問形式,要求ChatGPT自動提煉重點內(nèi)容。以描述ChatGPT同類模型InstrctGPT的論文Training language models to follow instructions with human feedback[1]中的3.5節(jié)“Models”為例,輸入其中主體部分到ChatGPT,給出的提示詞是“請用中文從下面資料中提煉出至少三個重點”,輸入內(nèi)容如圖8所示,圖9是ChatGPT給出的答案??梢奀hatGPT可以正確理解用戶的要求,并且對內(nèi)容進行了正確的自動總結(jié)。
圖8 ChatGPT自動提煉重點輸入部分
圖9 ChatGPT自動提煉重點輸出部分
在模型學(xué)習(xí)訓(xùn)練集材料中,ChatGPT已經(jīng)接觸過不少專有名詞,所以甚至可以不進行任何輸入,直接讓ChatGPT幫助解釋一些專有名詞。例如,圖10里答案中出現(xiàn)“深度強化學(xué)習(xí)”,可以讓ChatGPT嘗試講解其含義,輸入的提示詞為“什么是‘深度強化學(xué)習(xí)’,在上述文稿里面的作用是什么?”,圖10是ChatGPT給出的回答。
可以對圖10中出現(xiàn)的新專有名詞繼續(xù)提問。例如,“賭徒困境”是什么?ChatGPT的回答如圖11所示。如果對ChatGPT總結(jié)的內(nèi)容不放心,還可以讓ChatGPT找到與專有名詞對應(yīng)的原文文本。圖12為ChatGPT自動找出的“賭徒困境”原始文本。通過ChatGPT展示原文的文本,研究者可以加以印證,證明ChatGPT總結(jié)沒有偏離原文的敘述。
圖10 解釋深度強化學(xué)習(xí)
圖11 ChatGPT解釋賭徒困境
圖12 查找專有名詞對應(yīng)的原始文本
另外,用戶還可以對文本提出問題,ChatGPT會盡全力嘗試解答。例如,示例論文這樣的講述模型訓(xùn)練方法的作品,研究者可能更感興趣一種模型獲取反饋與提升改進的流程,并且用它和其他同類模型進行比對,所以可以問出一個非常綜合性的問題:“模型是如何獲得反饋和改進,達到訓(xùn)練目標(biāo)的?”圖13是ChatGPT的回答??梢钥吹?,ChatGPT對文本語義理解非常準(zhǔn)確,而且還用中文進行了流暢自然的翻譯。特別地,對于文中出現(xiàn)的專有名詞,如“SFT”,都用英文全稱和縮寫加以注明。
圖13 ChatGPT對閱讀材料的綜合性問題解答
因為ChatGPT具有多輪對話的記憶功能,用戶甚至可以將多篇論文的主體部分分別輸入,然后加以比對。這樣一來,讀論文的工作就從“讀一篇”變成“讀一片”,ChatGPT的匯總可以快速提示研究者某一領(lǐng)域多篇重要文獻的特點與異同,有助于研究者快速了解領(lǐng)域的發(fā)展與演化過程。在從前,一個研究團隊用若干天才能做出的文獻梳理工作,ChatGPT可以在很短時間內(nèi)高效率完成。
寫作是溝通科研工作成果的過程,必不可少。但以往在寫作環(huán)節(jié),科研工作者往往需要花費很大的心力。因為不僅要詳細描述和展示科研成果,也要充分考量行文的風(fēng)格、措辭、舉例等。特別是多人合作寫文章,往往還要第一作者最終統(tǒng)合稿件的不同部分,重新用統(tǒng)一的風(fēng)格撰寫全文。ChatGPT的基礎(chǔ)就是大語言模型,最善于學(xué)習(xí)語言風(fēng)格。研究者可以在草稿里擺出主要的事實而不需要考慮語序、語法等因素,由ChatGPT來幫助寫作、潤色。用戶可以將自己之前寫作的文章輸入ChatGPT中,然后如圖14要求ChatGPT提取文章的風(fēng)格,之后對新的文本,可以調(diào)用存儲的文章風(fēng)格(本例中為“paper style”)進行風(fēng)格轉(zhuǎn)化與改寫。例如,圖15中演示的例子是本文第一作者對第二作者提供材料的風(fēng)格改寫,ChatGPT對文本的語義加以保留,但是在表現(xiàn)形式上進行了調(diào)整變化。統(tǒng)一的風(fēng)格樣式可以提升讀者閱讀的流暢性。
圖14 ChatGPT學(xué)習(xí)文本風(fēng)格并存儲
圖15 ChatGPT以存儲的風(fēng)格改寫文本示例
在寫作過程中,ChatGPT也能幫助作者擴展思路,聯(lián)想到合適的例子。例如,當(dāng)寫作過程中發(fā)現(xiàn)當(dāng)前使用的例子作為證據(jù)并不足夠充分和貼切,需要找到更好的例證,在過去,如果用戶需要找到相關(guān)信息,那就必須進入搜索引擎輸入關(guān)鍵詞,然后在海量的結(jié)果中篩選適合的內(nèi)容;然而現(xiàn)在用戶只需告訴ChatGPT“補充例子,論證上面的論斷”,就可以得到相關(guān)的信息,如圖16所示。雖然圖16 ChatGPT提供的例子可能無法直接原文使用,但它至少對作者會有啟發(fā)。例如,人臉識別已成為“日用品”,用戶幾乎每天都要使用這種方式驗證付款,但作者或許沒有第一時間想到將其作為“AI工程化”的例子。如果用戶認為圖16提供的例子不夠好,可以接著要求ChatGPT提供其他例子,ChatGPT返回的結(jié)果如圖17所示。這樣一來,原本在寫作中常見而瑣碎的技術(shù)性問題就被ChatGPT的人工智能功能解決,顯著提升寫作效率。
圖16 ChatGPT補充例子證明論斷
圖17 要求ChatGPT繼續(xù)補充例證
上文討論了ChatGPT給研究者帶來的機遇。通過輔助編程、輔助閱讀與輔助寫作,為研究者賦能,大幅提升研究工作效率,縮短研究產(chǎn)生成果的時間周期。但是,ChatGPT的出現(xiàn)也給研究者帶來挑戰(zhàn)和困擾,如果使用不當(dāng),甚至?xí)o研究過程帶來災(zāi)難性的后果。下文從回答的真實性、數(shù)據(jù)污染,以及隱私和數(shù)據(jù)安全角度分別論述。
ChatGPT的基礎(chǔ)是一個生成式語言模型,它根據(jù)概率分布關(guān)系生成最符合要求的語言,但無法保證生成內(nèi)容的真實性和準(zhǔn)確性。
一些研究者在使用ChatGPT時沒有意識到這一點,他們驚訝于ChatGPT回答問題的精準(zhǔn)性,并直接采納其答案。對于前文列舉的編程功能,這個問題并不嚴(yán)重,因為程序編碼是否準(zhǔn)確有客觀的評價標(biāo)準(zhǔn);但對于閱讀和寫作輔助功能,則可能會因缺乏足夠的檢驗依據(jù)而導(dǎo)致研究者采納錯誤的答案。以前文展示過的ChatGPT舉例功能來說,作者曾要求ChatGPT對“人工智能工程化”舉出例證,結(jié)果收到的是圖18這樣的回答,回答中的疏漏非常明顯:DALLE究竟是由Facebook還是OpenAI推出?ChatGPT給出的兩個例子自相矛盾。不難發(fā)現(xiàn),即便對答案的真實性缺乏把握,ChatGPT回答時語氣卻非常自信。如果研究者在使用ChatGPT生成答案時不進行取舍,將其作為內(nèi)容的組成部分,發(fā)表論文或者出版書籍后,難免遇到尷尬情況。因此在選用ChatGPT的答案時,研究者應(yīng)該保持審慎的態(tài)度。
圖18 ChatGPT的錯誤回答
ChatGPT的廣泛使用使得很多未經(jīng)思考或驗證的內(nèi)容大量產(chǎn)生。據(jù)Intelligent.com報道,被調(diào)查的大學(xué)生中,至少有三分之一采用ChatGPT來撰寫作業(yè)的答案[29]。ChatGPT更是被廣泛應(yīng)用于問答網(wǎng)站的答案生產(chǎn),且大量充斥于社交媒體。虛假信息除直接影響受眾之外,這些海量產(chǎn)生的低質(zhì)量信息也會造成互聯(lián)網(wǎng)數(shù)據(jù)的污染。這就意味著未來的人工智能模型,在從互聯(lián)網(wǎng)獲取大規(guī)模公開語料時,會吸納大量ChatGPT生成內(nèi)容。如果不能加以甄別,這些數(shù)據(jù)將深刻影響未來模型訓(xùn)練數(shù)據(jù)的質(zhì)量。人工智能需要從人類產(chǎn)生的文本學(xué)習(xí)語言的規(guī)律。如此多的人工生成數(shù)據(jù)涌入訓(xùn)練集,不僅不會對模型能力帶來提升,還可能混入更多噪聲,導(dǎo)致回答問題的準(zhǔn)確度降低。這會反過來影響人類的信息獲取與知識傳承。OpenAI指出,ChatGPT的不正當(dāng)使用會對教育者、家長、記者、虛假信息研究人員和其他群體產(chǎn)生影響。為此,OpenAI官方在2023年1月推出ChatGPT生成文本的檢測分類器[30]。使用的演示效果(采用官網(wǎng)自帶的人工輸入文本)如圖19所示。
圖19 OpenAI官方推出的ChatGPT檢測分類器
然而這種分類器還存在著非常多的問題。OpenAI官方建議不要將其作為主要決策工具,而應(yīng)作為確定文本來源的輔助手段。對短文本(少于1,000個字符),OpenAI提供的ChatGPT分類器不可靠。即使是較長文本,有時也會被分類器錯誤標(biāo)記。甚至人工編寫的文本也時常會被分類器錯誤地標(biāo)記為由AI編寫,而且檢測器對于錯誤的檢測結(jié)果非常自信。OpenAI建議僅將分類器用于英文文本,在其他語言上分類器表現(xiàn)要差得多。對于代碼,該分類器也不可靠。另外,它無法可靠地識別有規(guī)律的可預(yù)測的文本。官方給出的例子是“包含前1000個質(zhì)數(shù)列表是由AI還是人類編寫的,因為正確答案總是相同的”。AI編寫的文本通過編輯可以規(guī)避分類器識別。OpenAI提供的分類器能夠應(yīng)對一定程度的改寫,但對于改寫較多的情況則不能準(zhǔn)確識別。
ChatGPT帶來的另外一個挑戰(zhàn),就是隱私與數(shù)據(jù)安全問題。
當(dāng)用戶第一次注冊并開啟ChatGPT時,會看到有關(guān)數(shù)據(jù)收集和隱私保護的提示:“對話可能會被人工智能培訓(xùn)師審查,以改善系統(tǒng)。請不要在對話中分享任何敏感信息?!痹谟脩糇郧疤崾居脩舨灰斎腚[私信息。
許多人將ChatGPT視為成熟的產(chǎn)品來使用,并認為它保護用戶隱私是理所當(dāng)然的事情。然而事實并非如此。ChatGPT模型建立在GPT3.5版本之上,使用了人工參與的增強學(xué)習(xí)。每個“研究預(yù)覽版”的ChatGPT用戶都是OpenAI的免費測試員。
如果用戶輸入的內(nèi)容包含敏感信息,如銀行卡號,則可能會對用戶的財務(wù)和金融安全造成影響。而如果輸入手機號、住址等信息,則可能會帶來人身安全的隱患。
對研究者來說,在輸入原創(chuàng)性想法時也要三思而行。盡管ChatGPT并沒有主動剽竊用戶想法的意圖,但用戶輸入的內(nèi)容都會對模型造成影響。如果恰巧有其他用戶對同一研究方向感興趣,前面研究者輸入的想法可能會作為答案的一部分啟發(fā)后者。另外,根據(jù)OpenAI官方提示,ChatGPT人工訓(xùn)練員(AI trainers)也有可能查看對話信息,以改進模型。
從學(xué)術(shù)整體進步的角度來看,這種信息加速傳播共享有利于研究進展速度。但對研究者個體來說,其利益可能會受到潛在的威脅。
綜上所述,ChatGPT的挑戰(zhàn)主要分為回答真實性、數(shù)據(jù)污染與隱私和安全等方面。面對ChatGPT帶來的挑戰(zhàn),研究者可以通過以下對策盡量避免潛在的損失。
第一,針對回答的真實性問題,建議研究者時刻警醒,不要輕易相信ChatGPT提供的答案。即便對看似合理的答案內(nèi)容,在正式采納和使用前,也需要找到源頭信息進行驗證。
第二,針對數(shù)據(jù)污染問題,建議研究者采用OpenAI官方提供的ChatGPT生成文本檢測工具對重要來源數(shù)據(jù)進行抽樣檢測。在構(gòu)建大規(guī)模研究數(shù)據(jù)集時,盡量避免采用開放式問答社區(qū)2022年12月之后的回答,以避免噪聲混入。
第三,對于隱私和安全問題,建議研究者與ChatGPT對話過程中,避免暴露個人隱私與所在機構(gòu)的敏感信息。對于研究意圖和想法,如果無法繞開,盡量分散在不同對話中進行任務(wù)處理,避免被人工訓(xùn)練員在同一對話中大量獲取相關(guān)信息。
OpenAI的對話機器人模型ChatGPT對科研工作者的外部環(huán)境造成了顯著變化,為提高編程、閱讀和寫作效率帶來了機遇,但也帶來了回答真實性、數(shù)據(jù)污染和隱私安全等挑戰(zhàn)。為了敏感地抓住ChatGPT的特點,創(chuàng)造競爭優(yōu)勢,科研工作者需要認真思考并采取行動。通過本文的討論,讀者可以看到ChatGPT對科研工作的賦能意義十分明顯,合理利用能夠大幅提升工作效率。而針對ChatGPT給科研工作者帶來的挑戰(zhàn),本文提出了對策,如在使用ChatGPT生成的答案時需要進行謹(jǐn)慎評估,同時需要利用技術(shù)和方法來應(yīng)對數(shù)據(jù)污染和隱私安全問題??傊?,科研工作者也需要不斷學(xué)習(xí)和更新自己的技能,以更好地適應(yīng)這個新的科研環(huán)境。
ChatGPT出現(xiàn)時間不久且快速迭代,也有許多競品宣布會相繼在近期推出。本文受到當(dāng)前寫作時間點的客觀局限,無法對近期和遠期即將出現(xiàn)的產(chǎn)品或服務(wù)趨勢做出準(zhǔn)確預(yù)測。本文寫作時,尚未發(fā)現(xiàn)與ChatGPT實力相當(dāng)?shù)恼嬲偲罚虼搜芯繉ο蟊容^單一,只涉及ChatGPT自身。團隊后續(xù)會在新的同類產(chǎn)品出現(xiàn)后加以深入對比研究,為科研工作者提供更加符合本土化需求的分析結(jié)果與建議。