陳嗣榮 馮敬益
摘要:通過與人工智能語言模型ChatGPT進行對話,總結(jié)出提示詞在對話過程中的使用技巧,包括告訴人工智能扮演的角色、提示詞模板、在提問過程中追問細(xì)節(jié)、提問時增加關(guān)鍵詞等。利用以上提問技巧,使得ChatGPT的回答更有質(zhì)量。
關(guān)鍵詞:人工智能;提示詞模板;對話
中圖分類號:TP311? ? ? ? 文獻標(biāo)識碼:A
文章編號:1009-3044(2023)34-0013-03
開放科學(xué)(資源服務(wù))標(biāo)識碼(OSID)
1 研究背景和意義
ChatGPT是一個由OpenAI公司開發(fā)的人工智能語言模型[1]。它的作用是回答各種各樣的問題,幫助人們解決問題和獲取信息。隨著ChatGPT的出現(xiàn),人工智能(Artificial Intelligence,簡稱AI) 走入了人們的視野。提示在人工智能領(lǐng)域中的含義是指示AI進行某些行為的過程。提示詞模板設(shè)計并不單單用在跟ChatGPT的聊天中,也用于設(shè)計出更好用的,并且能夠重復(fù)利用的人工智能提示詞,用于跟各種各樣的機器學(xué)習(xí)模型進行交互。本研究意義是根據(jù)不同的使用場景,設(shè)計出相應(yīng)的提示詞。如果沒有使用正確的提示詞,ChatGPT的回答通常跟人們的需求相差甚遠(yuǎn)。如果能夠編寫出結(jié)構(gòu)合理、AI易懂的提示詞,就可以讓ChatGPT的回答更為準(zhǔn)確,可以增加用戶的體驗,使用戶可以更加快速地得到結(jié)果,也可以降低初學(xué)者的學(xué)習(xí)成本,使他們不需要太多的學(xué)習(xí)就可以跟AI進行對話。
2 相關(guān)工作綜述
2.1 提示詞基礎(chǔ)知識
在布置一個任務(wù)的時候,需要使用到一些詞語來對執(zhí)行任務(wù)的人進行引導(dǎo)或指示他怎么做,這些詞語就叫提示詞,它可以讓執(zhí)行者對任務(wù)要求和內(nèi)容把握更為到位。一個良好的提示詞可能包含以下四個元素:指令、背景、輸入數(shù)據(jù)和輸出指令。指令,這是人們希望AI完成的一個具體任務(wù)是什么。例如,根據(jù)如下表格信息,制作一張折線統(tǒng)計圖。背景,這指外部的信息或者是額外的上下文,利用這些信息可以引導(dǎo)設(shè)計的模型做出更好的回應(yīng)。例如,最近一年的收入財務(wù)報表。輸入數(shù)據(jù),是指人們想要問的具體問題,通過問題得到想要的回答。例如,最近半年的營收趨勢是怎樣的。輸出指令,指定輸出的AI回答的類型或是結(jié)構(gòu)。例如,要求AI的回答是詳細(xì)的,并且能夠舉出相關(guān)的例子。
如何讓一個簡單的接話茬能力讓ChatGPT看起來能夠解決各種各樣的任務(wù)呢?因為人類大部分的任務(wù)都是以語言為載體的。當(dāng)人們前面說了一些話,它把接下來的話說對了,任務(wù)就完成了。ChatGPT作為一個大語言模型,目的就是“把話說對”,而把話說對這件事情可以在不知不覺中幫助人們完成各種任務(wù)。
2.2 NLP基礎(chǔ)知識
自然語言處理(NLP) 屬于計算機科學(xué)的其中一個領(lǐng)域[2-4],它可以使機器能夠閱讀和理解人類的各種語言[2,5],把語句里的細(xì)節(jié)進行分離并辨識,就像人類相互理解對方說的話一樣,自然語言處理包含自然語言理解和自然語音處理兩個部分。NLP可以處理一些非結(jié)構(gòu)化的文本,如“把地拖干凈”“把雞肉和白菜添加到我的購物清單中”這樣的命令,同時可以轉(zhuǎn)換非結(jié)構(gòu)化文本和結(jié)構(gòu)化文本。把非結(jié)構(gòu)化的文本變成結(jié)構(gòu)化文本,這個過程叫自然語言理解,例如在上面的那個例子中,購物清單可以看成一個列表,雞肉和白菜可以看成是列表里面的子元素。把結(jié)構(gòu)文本變成非結(jié)構(gòu)化文本,這個過程叫自然語言生成。例如,把課程表的格式去掉,只保留語文、數(shù)學(xué)等科目名稱。
在處理的過程中,NLP把句子分解成單詞,然后進行標(biāo)記。有時候一些英語單詞是有共同的詞干的,也把它進行一些特定的標(biāo)記,這樣就能短時間掌握比較多的單詞。還可以通過詞形還原掌握更多的單詞。詞形還原是將一個給定的標(biāo)記,通過字典的定義來學(xué)習(xí)它的含義,并推導(dǎo)出它的根或詞元。如better和good,better是從good衍生出來的,所以better的詞根就是good,都把它作為同一個標(biāo)記。
2.3 提示詞模板在人工智能對話的應(yīng)用
從用戶的角度看,ChatGPT的形式就是一個對話機器人,準(zhǔn)確地說是“續(xù)寫”機器人。從技術(shù)上來講,ChatGPT它從來都不是一個專門為問答和對話設(shè)計的系統(tǒng)。ChatGPT是一個語言模型,語言模型就是刻畫語言最基本的規(guī)律。那么如何去建立語言模型呢?可以只做一件事情:掌握詞匯間的組合規(guī)律,而掌握這種規(guī)律最直接的表現(xiàn)就是讓語言學(xué)會“續(xù)寫”,類似于人類的“接話茬”。當(dāng)給出前N個詞匯的時候,如果一個模型能夠告訴人們第“N+1”個詞匯大概率會是什么,就認(rèn)為該模型掌握了語言的基本規(guī)律。ChatGPT就是這樣一個語言模型。雖然ChatGPT看起來能完成各種任務(wù),但它本質(zhì)上只做這一件事情:續(xù)寫,告訴你第“N+1”個詞是什么。
2.4 提示詞模板在其他領(lǐng)域的應(yīng)用
除了如ChatGPT這樣的大型語言模型外,AI繪畫同樣也是需要提示詞進行創(chuàng)作。利用提示詞,可以創(chuàng)作各種各樣風(fēng)格的卡通頭像,也可以進行各種插畫的繪制,也可以幫模特實現(xiàn)“一鍵換裝”,節(jié)約公司的運營成本。
3 向AI提問的方法與技巧
3.1 告訴AI你是誰
在進行一段對話前,首先讓AI進行角色定位,通過告訴AI它現(xiàn)在要扮演的角色,可以回答我哪些方面的問題,這樣會使得它的回答更為專業(yè)。例如,人們跟AI對話的第一句是:“你現(xiàn)在扮演一位教授本科學(xué)段的計算機老師,明白角色請回復(fù)明白。”這樣AI就會以一位計算機老師的身份跟人們進行對話,如圖1所示。
3.2 設(shè)置個性化的提示詞模板
提示詞模板包含了格式模板、文案模板、個人信息模板等。
當(dāng)你希望AI的回答結(jié)果是按你預(yù)想的格式進行回答的時候,可以采用格式模板。預(yù)先給AI一個相關(guān)格式的例子,例如輸入以下內(nèi)容:
問題:廣東的省會是哪里?
答案:【廣州】
問題:湖南的省會是哪里?
AI會回答以下內(nèi)容:
“湖南的省會是【長沙】?!?/p>
在上面的這個例子里,“【】”號就是設(shè)定的格式。
3.3 對細(xì)節(jié)進行追問
在跟AI進行對話的過程中,AI對人們的提問會作出一個基礎(chǔ)的回答,但是這些答案并不一定是想要的答案,這個時候就要跟AI進行充分的溝通,例如提示它:“在你回答這個問題之前,可以繼續(xù)問我一些跟這個回答相關(guān)的問題”。如果對AI的回答不滿意,可以跟它提出不滿意的地方,例如回答不夠詳細(xì),用的詞過于深奧等,讓它修正它的答案,通過這樣一步一步地引導(dǎo),AI就會生成人們想要獲取的滿意答案。如果在對話的過程中,AI回答的答案跑偏了,人們也要及時對提的問題作出修正,例如我需要AI幫我提取一篇文章的大綱,AI回答的時候會有點發(fā)散,這時就增加一個條件,讓它按照我給出的原文去進行提取,這樣它的提取結(jié)果就會比較精確。
3.4 提問時增加關(guān)鍵詞
在對AI進行提問的過程中,如果要使提問更有針對性,需要在提問的過程中增加一些關(guān)鍵詞。例如想要AI告訴怎么完成這個過程,需要提示它,把實施的步驟羅列出來。對于一些比較專業(yè)的問題,AI一般只會對它進行名詞解析,作為外行人很難去理解這些專業(yè)的名詞解析。例如,筆者詢問AI:C語言、Python語言、易語言這三種語言之間的關(guān)系,AI的回答作為計算機專業(yè)的人員會比較容易理解,因為在以前學(xué)習(xí)的過程中已經(jīng)學(xué)習(xí)了相關(guān)的知識,如圖2所示。但是對于非計算機專業(yè)的人員,就會感到生澀難解,這時給出我們的另外的提示:“請轉(zhuǎn)換成5歲孩子都能明白的解釋,帶上足夠有趣的案例讓我理解?!边@樣AI就會嘗試用用戶要求的條件再次去回答這個問題,如圖3所示。
3.5 任務(wù)分解,用列表把需求拆分成子任務(wù)
任務(wù)可以設(shè)定AI要實現(xiàn)的具體目標(biāo),讓AI清楚地理解任務(wù)對于設(shè)計有效提示詞至關(guān)重要。任務(wù)描述應(yīng)具體、簡潔,避免歧義或模糊,清晰的任務(wù)描述有助于AI更好地理解它應(yīng)該做什么并提高生成內(nèi)容的質(zhì)量,是設(shè)計提示詞時要考慮的關(guān)鍵因素。在生成了總?cè)蝿?wù)之后,用列表的方式把總?cè)蝿?wù)細(xì)化成一個一個的子任務(wù)。拆分成子任務(wù)后,對每一個子任務(wù)都清楚描述它的細(xì)節(jié),必要的時候,要對任務(wù)增加一些限制的條件,這樣AI才會對人們布置的任務(wù)有更深刻的認(rèn)識。
3.6 提問中體現(xiàn)特殊性
提問的特殊性是指提示詞的詳細(xì)程度和精確度,對于設(shè)計提示詞至關(guān)重要,因為它可以提高生成內(nèi)容的質(zhì)量和相關(guān)性。一般來說,提示詞越具體,AI就越有可能生成有針對性和準(zhǔn)確的回答。模糊或籠統(tǒng)的提示詞可能會導(dǎo)致來自AI的題外話、不相關(guān)或不一致的回復(fù)。例如,如果提問的內(nèi)容是寫一首詩,AI寫的詩歌可能并不是人們想要的,但把提問改為“寫一首七言絕句,內(nèi)容是跟春天有關(guān),詩的開頭都要帶‘春’字?!边@樣AI就能按人們所要求的生成詩歌。
3.7 提示詞的迭代
迭代是重復(fù)執(zhí)行一系列操作的過程,每次執(zhí)行都會根據(jù)之前的執(zhí)行結(jié)果進行調(diào)整,是快速設(shè)計過程的關(guān)鍵部分。提示詞模板設(shè)計是一個迭代的過程,可能需要多次嘗試才能創(chuàng)建有效的提示。迭代通過設(shè)計、測試和測評的循環(huán)來提煉和改進提示詞,每次迭代都應(yīng)該以先前試驗的結(jié)果為前置條件,目的在于解決遇到的任何限制。例如,當(dāng)人們修改了提示詞以提供更具體的說明或增加額外的上下文后發(fā)現(xiàn)AI的回答變得模糊或它產(chǎn)生了偏離主題的回復(fù),采用迭代方法可以持續(xù)改進和優(yōu)化生成的內(nèi)容。在設(shè)計有效、高質(zhì)和與結(jié)果一致的提示詞時,迭代是重要的考慮因素。
4 ChatGPT面臨的挑戰(zhàn)
4.1 ChatGPT的技術(shù)挑戰(zhàn)
第一,它是不穩(wěn)定和不可解釋的。但這個缺陷不是ChatGPT所獨有的,而是整個深度學(xué)習(xí)模型所具有的,“涌現(xiàn)效應(yīng)”導(dǎo)致這一問題更加嚴(yán)重。特別在一些敏感的領(lǐng)域,這一問題更加凸顯。例如在自動駕駛領(lǐng)域,機器的事故率已經(jīng)低于人類司機,但為何大家還不愿意完全相信自動駕駛呢?因為自動駕駛雖然事故率低,但是它的事故是不可解釋的。
第二,知識更新。讓ChatGPT臨時接受新的知識比較困難,很多知識在不同的領(lǐng)域是不一樣的。人們經(jīng)常會遇到在特定的場景需要特定的知識的情況,而對于ChatGPT而言,它很難做到。
第三,事實性錯誤。事實性錯誤是指信息不符合客觀事實,而ChatGPT是無法直接了解客觀事實的,他只能了解語言。
第四,輸出的同質(zhì)性。ChatGPT所做出的回答往往是人類的主流觀點。因為它是一個概率模型,它會以大概率的答案去回答它的任務(wù)。例如,它為什么回答中國的首都是北京,因為它學(xué)的語料當(dāng)中大部分人都是這么說的。它的這種特點實際上有可能加劇信息繭房現(xiàn)象。
此外,還有復(fù)雜目標(biāo)導(dǎo)向、模型效率和模型優(yōu)化等問題,不再贅述。
4.2 ChatGPT的科學(xué)問題
第一,語言不再是人類的專屬。ChatGPT可以生成語言。那么這個意味著什么呢?基本上可以預(yù)見,在未來的幾年當(dāng)中,互聯(lián)網(wǎng)上大部分的信息將不再是人類撰寫的。事實上,現(xiàn)在Twitter中30%以上的活躍用戶都是機器人,在微博中也有大量的水軍機器人。
第二,ChatGPT是否能夠創(chuàng)造新的知識,還是只將訓(xùn)練語料中的知識換一種更精練和高質(zhì)量的方式進行表達?如果是后者的話,那么人類對于ChatGPT的使用會造成知識的收斂,降低人類知識的創(chuàng)造效率。如果ChatGPT本身是能夠創(chuàng)造新知識的,那它則會大大加速人類獲得新知識的效率。
此外,還討論了語言模型涌現(xiàn)與控制機制、語言的知識表達邊界問題、自我意識與自由意志問題、人機共生問題、如何突破語言空間問題,不再贅述。
4.3 ChatGPT的倫理問題
第一,用戶隱私的問題。人們輸入的問題,技術(shù)上是可以被ChatGPT的所有者所獲取。
第二,反向影響的問題。ChatGPT會通過它所輸出的內(nèi)容,反過來影響人類的文化,就是人性異化,人性向機器靠攏、機器向人性靠攏。
第三,不當(dāng)使用。比如說學(xué)生用ChatGPT去作弊。
第四,人機共生與加速極化。大模型和人類有一個典型的共生循環(huán),什么意思呢?模型是依賴于人類產(chǎn)生的數(shù)據(jù)來訓(xùn)練的,ChatGPT用人類說的話做訓(xùn)練之后,他再給出人類答案,并影響人類的認(rèn)知。人類認(rèn)知被影響之后,又會說新的話?!澳阌袡?quán)保持沉默,但你說的每一句話都會成為訓(xùn)練語料”,新的話又變成ChatGPT新的訓(xùn)練語料。如此反復(fù),就形成一個共生循環(huán)。并進一步導(dǎo)致人工智能模型越來越像人,而人越來越像人工智能模型,會向一個人機共生的一種文化去靠近。
第五,生產(chǎn)力壟斷與社會和國際關(guān)系重建。這一點恰好與區(qū)塊鏈形成對比。區(qū)塊鏈?zhǔn)欠植际剑軌蛉ブ行幕?,打破壟斷。而ChatGPT這種大模型需要大規(guī)模的數(shù)據(jù)和算力,只有極少數(shù)的人或者機構(gòu)能夠提供這樣的服務(wù)。其實ChatGPT很大程度上是來自于涌現(xiàn),沒有太多的新的技術(shù)。很多大的互聯(lián)網(wǎng)公司都想形成ChatGPT等技術(shù)的壟斷,從而獲得權(quán)力,并影響社會、國際關(guān)系?;仡櫥ヂ?lián)網(wǎng)發(fā)展歷史,互聯(lián)網(wǎng)發(fā)明者Tim Berners-Lee做得最偉大的一件事就是放棄了互聯(lián)網(wǎng)專利。
第六,人工智能的社會角色與倫理地位。隨著ChatGPT越來越具有類人的特征,用戶不可避免地會將其人格化的沖動。那么他是否會具有類人的地位?這個可能是需要考慮的問題。
5 結(jié)論與展望
人工智能,已經(jīng)從一個概念進入到實際的生產(chǎn)使用中。要利用好人工智能為人類服務(wù),就要掌握如何與人工智能進行有效溝通和對話,提示詞模板,就是人和人工智能溝通的橋梁。在未來,成為一名提示詞模板工程師是人工智能專業(yè)畢業(yè)生的一個好方向,現(xiàn)在已經(jīng)有企業(yè)用高薪招聘提示詞模板工程師。相信在近幾年,這個行業(yè)會迎來井噴發(fā)展。
參考文獻:
[1] WHITE J,F(xiàn)U Q,HAYS S,et al.A Prompt Pattern Catalog to Enhance Prompt Engineering with ChatGPT[EB/OL].[2023-03-20].ArXiv, abs/2302.11382.
[2] CHOPRA A,PRASHAR A,SAIN C.Natural language processing[J].International journal of technology enhancements and emerging engineering research, 2013,1(4):131-134.
[3] HIRSCHBERG J,MANNING C D.Advances in natural language processing[J].Science,2015,349(6245):261-266.
[4] MIHALCEA R,LIU H,LIEBERMAN H.NLP (natural language processing) for NLP (natural language programming)[J].Computational Linguistics and Intelligent Text Processing,2006:19-25.
[5] OTTER D W,MEDINA J R,KALITA J K.A survey of the usages of deep learning for natural language processing[J].IEEE Transactions on Neural Networks and Learning Systems,2021,32(2):604-624.
【通聯(lián)編輯:聞翔軍】