文/阿諾·盧瓦(Arno Louw)
ChatGPT 及其文本生成人工智能在南非大學(xué)和世界各地引起了軒然大波。人們普遍認為,學(xué)生可能會濫用人工智能來撰寫書面作業(yè),教師則難以驗證作業(yè)的真實性。然而,作為協(xié)同評估者,ChatGPT 實際上可以進一步確保學(xué)術(shù)誠信。
ChatGPT 是OpenAI 研發(fā)的大型語言模型,使用深度學(xué)習(xí)算法來生成類似人工的文本以回應(yīng)提示或問題。雖然先進的人工智能語言生成器對學(xué)術(shù)和專業(yè)寫作很有用,但如果學(xué)生不小心或惡意地使用這些工具,可能引發(fā)學(xué)術(shù)誠信問題。令人擔(dān)憂的是,ChatGPT 可能會顛覆傳統(tǒng)的評估方法,因為它可以生成高質(zhì)量的書面作業(yè),而這些作業(yè)很難被識別為是機器創(chuàng)作的,從而更難以確保學(xué)術(shù)誠信。隨著預(yù)測文本和語言生成器復(fù)雜性的增加,教育機構(gòu)領(lǐng)導(dǎo)必須保持警惕,要采取策略以防止出現(xiàn)學(xué)術(shù)不端行為。那么,如何有效利用ChatGPT 來改進學(xué)術(shù)評估呢?
預(yù)測文本技術(shù)已廣泛應(yīng)用于各種設(shè)備和應(yīng)用程序,它利用機器學(xué)習(xí)來推薦常用的單詞和短語,以加快文本輸入的過程。OpenAI 最初是一家專注于強化學(xué)習(xí)研究和元學(xué)習(xí)機器人的非營利組織,于2019 年發(fā)布了GPT-2,后于2020 年發(fā)布了GPT-3,并于2023 年3 月發(fā)布了GPT-4。這些語言模型展示了前所未有的自然語言處理能力。GPT-3 擁有超過1750 億個機器學(xué)習(xí)參數(shù),可以生成各種格式的文本并執(zhí)行復(fù)雜的任務(wù)。
“有效利用ChatGPT,能夠進一步改進學(xué)術(shù)評估并維護學(xué)術(shù)誠信”
盡管越來越先進,但預(yù)測文本軟件仍然容易出錯。模仿人腦結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)是一種機器學(xué)習(xí)模型。GPT-3 使用的架構(gòu)通過注意力機制概括序列,從而避免了以前循環(huán)神經(jīng)網(wǎng)絡(luò)架構(gòu)的順序局限性。ChatGPT 采用深度學(xué)習(xí)算法生成與人工寫作極為相似的文本,這樣的人工智能語言生成器為學(xué)術(shù)和專業(yè)寫作帶來了潛在的好處。ChatGPT 是一種備受期待的寫作和語言交流的工具,有可能徹底改變我們交流和學(xué)習(xí)的方式。
然而,人們擔(dān)心ChatGPT 可能會通過生成高質(zhì)量的文本挑戰(zhàn)傳統(tǒng)的評估方法,從而使學(xué)術(shù)工作的真實性受到質(zhì)疑。這種擔(dān)憂是基于這樣一種假設(shè):學(xué)術(shù)評估在過去幾十年中保持不變,只強調(diào)寫作風(fēng)格和學(xué)術(shù)趨勢,而忽視了經(jīng)過驗證的研究和邏輯對支持論點的重要性。若是因此而忽視ChatGPT,就忽略了該技術(shù)在教育環(huán)境中的潛在優(yōu)勢和應(yīng)用。為了確保學(xué)術(shù)作品的真實性,一種有效策略是調(diào)查一篇學(xué)術(shù)文章是否與另一篇已知作者的文章有相同作者。在這種情況下,ChatGPT 可以成為一個有用的工具。
當(dāng)被要求列出十種確定學(xué)術(shù)文本真實性的方法時,ChatGPT 提供了一系列方式,包括抄襲檢測、風(fēng)格分析、主題分析、時限分析、句法分析、詞匯分析、抄襲對比、語法分析、內(nèi)容分析和語義分析。此外,ChatGPT 提出了一套評估標準,包括論點清晰度、原創(chuàng)性和抄襲、語言熟練程度、凝聚力和連貫性以及是否符合學(xué)術(shù)規(guī)范等。每個標準都可以用1 到5 的等級來評估,通過計算總分,可以確定論文的整體質(zhì)量。
雖然ChatGPT 是幫助確定真實性的重要工具,但它應(yīng)該與其他評估方法相結(jié)合,以確保學(xué)術(shù)誠信。教育工作者也是學(xué)術(shù)評估者,他們有責(zé)任維護學(xué)術(shù)誠信。技術(shù)使學(xué)術(shù)評估更加高效和有效,但人類智慧在確保評估的公平性和準確性方面仍然至關(guān)重要。因此,評估者在評估學(xué)術(shù)工作的質(zhì)量和有效性時應(yīng)保持警惕。
相似性檢查器是一種工具,用于將提交的文本與已知內(nèi)容進行比較,以檢測抄襲情況。許多機構(gòu)已經(jīng)制定了包括相似性檢查在內(nèi)的政策和協(xié)議。然而,相似性報告不應(yīng)作為確定抄襲的唯一標準,因為它們有時會產(chǎn)生爭議。ChatGPT 也可以充當(dāng)相似性檢查器。作為一種語言模型,ChatGPT 能夠超越精確的文本匹配,發(fā)現(xiàn)內(nèi)容的相似性,從而有效識別潛在抄襲。它能夠?qū)ξ谋具M行更深層次的分析和評估,這增強了其作為高效和準確的相似性檢查器的能力,為教育機構(gòu)維護學(xué)術(shù)誠信提供了有價值的見解。
語法檢查器是功能強大的寫作助手,可以檢查文章的拼寫、語法、標點符號、風(fēng)格和語氣。它們可以幫助識別句子結(jié)構(gòu)和語法錯誤,并提出修改建議,以提高文章的清晰度和可讀性。語法檢查器是校對和提高整體寫作質(zhì)量的絕佳工具。作為一種可以對各種查詢生成類似于人類回復(fù)的語言模型,ChatGPT 能夠就各種主題(從基礎(chǔ)知識到復(fù)雜想法)提供見解。它可以幫助你進行頭腦風(fēng)暴、研究和構(gòu)思。ChatGPT 還可以指導(dǎo)文章內(nèi)容,建議替代方法,并提供例子來幫助闡明觀點。在檢查學(xué)術(shù)論文時,ChatGPT 和語法檢查器都很有幫助,但它們的作用和優(yōu)勢各不相同。語法檢查器可以幫忙找出可能影響文章清晰度和連貫性的錯誤。而ChatGPT 可以提供見解和建議,幫助你發(fā)展和完善論點。將ChatGPT 作為檢查抄襲和語法的額外工具進行協(xié)同使用,可以助力學(xué)術(shù)評估。
將相似性和語法檢查器、ChatGPT 與人工評審員的能力結(jié)合使用,可以更徹底地審查文本的真實性。首先,ChatGPT 可以高效掃描大量文本,識別潛在相似之處,提供改進寫作風(fēng)格的建議,并標出可能存在問題的地方。其次,ChatGPT 具備深入分析語言的能力,能夠檢測意義和意圖的相似性,從而對文本進行更細致的評估。此外,ChatGPT 可以提供關(guān)于寫作質(zhì)量、語法和連貫性的寶貴反饋,從而加快整體評估過程。人工評審員則將其專業(yè)技能、知識和對主題的理解引入評估,他們能夠整合ChatGPT 和其他相似性檢查器提供的信息,解釋結(jié)果,并對學(xué)術(shù)工作的質(zhì)量和原創(chuàng)性做出明智的判斷。人工評審員可以識別逐字復(fù)制或近似轉(zhuǎn)述之外的抄襲情況,利用他們的批判性思維來檢測ChatGPT 可能遺漏的更微妙的抄襲形式。此外,他們還能評估作品所用資源的相關(guān)性和適當(dāng)性,以及文章的整體連貫性和凝聚力。
將人類智慧與諸如ChatGPT 等人工智能相結(jié)合,可以對學(xué)術(shù)工作進行更全面、更準確的評估。雖然技術(shù)工具可以加快相似性檢查并提供有價值的見解,但人工評審員可以運用批判性思維、專業(yè)知識和道德判斷,以確保評估公平透明,同時維護學(xué)術(shù)誠信。在學(xué)術(shù)環(huán)境中,ChatGPT 和類似的人工智能技術(shù)共同構(gòu)成了一種協(xié)作的實用方式,來維護學(xué)術(shù)誠信。
可以通過創(chuàng)造性的教學(xué)法和互動來充分利用ChatGPT 改進評估流程。例如,從視頻生成的文本中提取文字并使用ChatGPT 設(shè)計實驗,就是一種評估學(xué)生對學(xué)習(xí)內(nèi)容理解程度的實用策略。另一個例子是要求學(xué)生重新閱讀和修改他們的作業(yè),添加引用注釋和參考文獻并明確指出論點的來源。這種機制可以從學(xué)習(xí)的第一年開始引入,以確保學(xué)生了解正確的引用規(guī)范。此外,在書面作業(yè)中添加幻燈片摘要也可以加強理解和邏輯性。對于持續(xù)評估來說,更好的做法是通過一系列作業(yè)完成最終作業(yè),并提供明確的預(yù)期說明。應(yīng)在處理學(xué)術(shù)不端行為和充分利用ChatGPT的功能這二者中尋求平衡。
ChatGPT 還能發(fā)現(xiàn)寫作中可以改進的地方。傳統(tǒng)的相似性檢查器可能只專注于檢測文本相似度,但ChatGPT 可以分析寫作的整體質(zhì)量,并就寫作質(zhì)量、語法和連貫性提供反饋。它能對寫作風(fēng)格、措辭和句子結(jié)構(gòu)提出改進建議,有助于提高文章的清晰度,能極大幫助希望提高寫作技能和學(xué)術(shù)成果質(zhì)量的學(xué)生。這對于寫作母語非英語的學(xué)生和希望對學(xué)生的寫作提供更全面反饋的教師來說也尤為有用。
此外,ChatGPT 還能提供改進文本清晰度和連貫性的建議,這對于要求高精度和清晰度的學(xué)術(shù)寫作很有價值。它還可以分析文章的結(jié)構(gòu)和組織,幫助作者改進思路和結(jié)構(gòu)。ChatGPT 生成類人回復(fù)的能力還能促進互動式學(xué)習(xí)體驗。學(xué)生可以把它視為寫作伙伴,激發(fā)創(chuàng)造力并促進原創(chuàng)性。ChatGPT 不僅可以標記潛在的問題,還可以充當(dāng)合著者,鼓勵學(xué)生在提交之前重新閱讀和完善自己的作品。
ChatGPT 可以在寫作質(zhì)量、抄襲和真實性方面提供更詳盡和全面的反饋,從而徹底改變學(xué)術(shù)作品的評估方式。但值得注意的是,應(yīng)將ChatGPT 與道德準則和問責(zé)措施結(jié)合,以確保其得到負責(zé)任和公平的使用。
盡管ChatGPT、相似性檢查器和語法檢查器等技術(shù)和工具不斷進步,但在確保學(xué)術(shù)論文和作業(yè)評估的準確性和公平性方面,人類智慧仍然發(fā)揮著關(guān)鍵作用。技術(shù)工具在理解人類感知語言的細微差別和復(fù)雜性方面存在局限性,而人工評審員能對這些工具提供的信息進行語境分析和解讀,這對于對書面工作的質(zhì)量做出明智判斷至關(guān)重要。此外,要識別這些工具可能遺漏的剽竊情況,人類智慧也是必要的。
我使用了兩種策略來驗證ChatGPT 的評估真實性。第一種策略是要求ChatGPT將學(xué)生提交的書面作業(yè)與已知由該學(xué)生撰寫的另一篇文章進行比較。第二種策略則是要求ChatGPT 將學(xué)生提交的作業(yè)與已知由他人撰寫的另一篇文章進行比較。在每種情況下,ChatGPT 都會分析被審查文件的寫作風(fēng)格,并就兩者由同一個人撰寫的可能性提供反饋,同時提供支持分析的具體證據(jù)。
這個策略是詢問ChatGPT 兩個文本是否為同一個作者所寫。學(xué)生需要在完成正式作業(yè)之前提交一份書面作業(yè)。傳記文本就是此類書面文本的一個例子。若發(fā)現(xiàn)后來提交的作業(yè)有可疑之處,教師可以使用ChatGPT將作業(yè)文本與傳記文本進行比較。當(dāng)我進行這個實驗時,ChatGPT 給出了以下回答:
這兩段很可能是同一個人寫的。這兩段討論了同一個機構(gòu)——約翰內(nèi)斯堡大學(xué)(UJ),并涉及教育和技術(shù)。此外,第一段提到了作者在約翰內(nèi)斯堡大學(xué)學(xué)術(shù)技術(shù)中心(CAT)的工作,而第二段描述了信息和通信技術(shù)(ICTs)對約翰內(nèi)斯堡大學(xué)評估工作的影響。另外,第一段還提到了作者的名字【作者】,并介紹了他在CAT 擔(dān)任教學(xué)和電子學(xué)習(xí)高級專家的情況。這些細節(jié)表明,這兩段的作者很可能是同一個人。
為了進一步測試,我提交了第三個文本,并讓ChatGPT 將其與另外兩篇文章進行比較。
ChatGPT 的回答如下:
這有可能是【作者】寫的。它討論了約翰內(nèi)斯堡大學(xué)如何利用信息和通信技術(shù)來提升學(xué)生的參與度,這與【作者】在約翰內(nèi)斯堡大學(xué)學(xué)術(shù)技術(shù)中心擔(dān)任教學(xué)顧問(教學(xué)設(shè)計)的專業(yè)領(lǐng)域相關(guān)。本段還使用了與前幾段類似的術(shù)語,如“信息和通信技術(shù)”和“在線調(diào)查”。然而,如果沒有進一步的信息,就無法確定【作者】是該段落的作者。
在第二個實驗中,我在網(wǎng)上搜索了關(guān)于學(xué)生作業(yè)中某個特定主題的文章,選擇了一些由可信作者撰寫的文本,并復(fù)制粘貼到ChatGPT 中。然后,我又粘貼了一名學(xué)生就該主題創(chuàng)作的文章,并讓ChatGPT比較兩篇文章的寫作風(fēng)格。同樣,評審員也可以將學(xué)生的寫作與其他學(xué)生的寫作進行比較,以發(fā)現(xiàn)可疑的相似之處。
結(jié)果如下:
這兩段不太可能是同一作者所寫。第一段討論了學(xué)生需要完成的具體練習(xí),以比較他們的寫作風(fēng)格,這與教學(xué)設(shè)計和學(xué)習(xí)有關(guān),而第二段討論了信息和通信技術(shù)對學(xué)生的好處,這與教育和技術(shù)有關(guān)。此外,第一段使用了與電子投稿有關(guān)的技術(shù)語言和術(shù)語,而第二段使用了更籠統(tǒng)的語言,沒有提到任何具體的技術(shù)或方法。這些差異表明,這些段落是由不同的作者撰寫的,他們擁有不同的專業(yè)領(lǐng)域和寫作風(fēng)格。
作為人工智能語言模型,在沒有進一步信息的情況下,我無法確認文本的作者身份。根據(jù)該段的內(nèi)容以及它討論的話題與【作者】的專業(yè)領(lǐng)域相關(guān),他或她有可能是該段作者。然而,要確定文章的真正作者,還需要進一步的調(diào)查。
這些實驗結(jié)果都表明了ChatGPT 可以得出可接受的結(jié)論和比較結(jié)果,有助于在評估過程中協(xié)助驗證并確保學(xué)術(shù)文件的誠信。因此,最后一個關(guān)于真實性的問題應(yīng)該是是否需要人工評審員。
ChatGPT 可以成為促進原創(chuàng)性和提高學(xué)術(shù)寫作整體質(zhì)量的重要工具。但是,只有道德和公正地使用它,才能更好地確保學(xué)術(shù)評估的誠信。學(xué)術(shù)機構(gòu)在接受ChatGPT 的同時也要采取措施降低其相關(guān)風(fēng)險。建議采用評估策略以提高抄襲檢測的準確性,例如添加參考文獻,并對寫作質(zhì)量進行更全面的分析。通過使用ChatGPT作為合著者,學(xué)生可以從中受益,從而提高其學(xué)術(shù)書面作品的完整性和真實性。
然而,值得注意的是,人類智慧在識別相似性檢查器可能遺漏的抄襲情況中仍然發(fā)揮著至關(guān)重要的作用。人工評審員可以利用他們在評估主題方面的知識和專業(yè)技能來檢測涉及文本改寫或使用同義詞的抄襲情況。此外,雖然語法檢查器可以識別錯誤并提出修改建議,但最終判斷應(yīng)由人工評審員根據(jù)文本的上下文和預(yù)期含義來做出。
雖然ChatGPT 和其他人工智能技術(shù)有助于評估和提高學(xué)術(shù)寫作,但它們應(yīng)該作為輔助寫作工具與人類智慧一同使用,如此可確保評估過程公平和透明。學(xué)生和學(xué)術(shù)機構(gòu)有責(zé)任維護和促進學(xué)術(shù)誠信。通過道德和公正地使用ChatGPT,學(xué)術(shù)機構(gòu)可以提高學(xué)術(shù)寫作的質(zhì)量,確保學(xué)術(shù)誠信。