張宇 王玉梁
摘要:[目的/意義]分析大模型在知識管理領(lǐng)域的應(yīng)用場景和挑戰(zhàn),為相關(guān)領(lǐng)域的研究和實(shí)踐提供參考和借鑒,促進(jìn)大模型在知識管理領(lǐng)域更加深入的應(yīng)用,提高知識管理工具的使用體驗(yàn)。[方法/過程]通過跟蹤軟硬件廠商、商業(yè)化產(chǎn)品、開源項(xiàng)目、學(xué)術(shù)研究和客戶的實(shí)際使用體驗(yàn)等多方面的動態(tài),總結(jié)和梳理人工智能大模型在知識管理領(lǐng)域的實(shí)際應(yīng)用以及在應(yīng)用過程中面臨的問題與挑戰(zhàn)。[結(jié)果/結(jié)論]人工智能大模型已成為知識管理的有力工具,得到越來越多的實(shí)際應(yīng)用,包括輔助撰寫文檔、自動生成文檔摘要、使用自然語言檢索信息、智能問答等。這些應(yīng)用改變了傳統(tǒng)知識管理的方式,使其更高效、智能化和用戶友好。然而,大模型在知識管理領(lǐng)域的應(yīng)用也面臨著一些尚待解決的問題,如數(shù)據(jù)隱私保護(hù)、知識產(chǎn)權(quán)保護(hù)、知識污染、高成本、內(nèi)容輸出不穩(wěn)定等。
關(guān)鍵詞:大模型;知識管理;知識庫;人工智能
分類號:TP391
引用格式:張宇, 王玉梁. 大模型在知識管理中的應(yīng)用與挑戰(zhàn)[J/OL]. 知識管理論壇, 2024, 9(3): 227-236 [引用日期]. http://www.kmf.ac.cn/p/389/. (Citation: Zhang Yu, Wang Yuliang. Applications and Challenges of Large Models in Knowledge Management[J/OL]. Knowledge Management Forum, 2024, 9(3): 227-236 [cite date]. http://www.kmf.ac.cn/p/389/.)
1? 引言/Introduction
企業(yè)的技術(shù)創(chuàng)新依賴知識資產(chǎn)的支撐。多樣化知識的獲取和積累是企業(yè)創(chuàng)新的重要基礎(chǔ)[1]。隱性知識不易被復(fù)制或竊取,是企業(yè)形成核心競爭力的基礎(chǔ)和源泉[2]。通過知識管理,將組織和個人的隱性知識轉(zhuǎn)化為顯性的、可利用的知識資產(chǎn),從而提升整個組織的創(chuàng)新能力,是企業(yè)在激烈的市場競爭中把握機(jī)遇和應(yīng)對挑戰(zhàn)的必然選擇。
當(dāng)前,在傳統(tǒng)企業(yè)內(nèi)部,知識資產(chǎn)分散在各個部門和員工之間,形成知識孤島,知識資產(chǎn)沒有得到充分的利用。同時,企業(yè)內(nèi)部組織架構(gòu)的變化以及人員的流動,常常會導(dǎo)致知識資產(chǎn)的流失,給企業(yè)長遠(yuǎn)發(fā)展造成不利影響。
知識管理平臺是一個旨在幫助企業(yè)高效管理知識資產(chǎn)的IT工具,通過收集、組織、存儲、共享、搜索、分析和分發(fā)知識,盤活企業(yè)知識資產(chǎn),使企業(yè)快速應(yīng)對復(fù)雜多變的客戶需求,助力企業(yè)長期高質(zhì)量發(fā)展。當(dāng)前,越來越多的企業(yè)開始部署知識管理平臺,用數(shù)字化的方式開展知識管理工作。例如,中國商飛等國內(nèi)領(lǐng)先企業(yè),通過實(shí)施知識管理工程,有效推動員工績效的提升,完善公司的知識體系,并在打造學(xué)習(xí)型組織方面起到了重要的促進(jìn)作用[3]。
傳統(tǒng)的知識管理方法通常依賴于運(yùn)營團(tuán)隊(duì)對知識資產(chǎn)進(jìn)行手工整理和分類,這種方式效率低下且容易出錯。結(jié)合人工智能和大數(shù)據(jù)技術(shù),一些廠商對知識管理平臺的功能做了增強(qiáng)。例如,郝建蘋[4]探討了郵政教育培訓(xùn)應(yīng)用中的知識管理場景,通過構(gòu)建和分析員工畫像,提高員工內(nèi)容檢索的精確度,再結(jié)合知識圖譜技術(shù),識別用戶的個性化需求。但受制于技術(shù)瓶頸,智能化程度還有待提高。
以ChatGPT為代表的人工智能大模型,能更好地理解和生成自然語言和圖像等,并以人機(jī)對話等多種方式提供智能化功能,這使得大模型可以在知識管理的各個環(huán)節(jié)發(fā)揮關(guān)鍵作用。
因此,筆者探討大模型在知識管理各個環(huán)節(jié)中如何發(fā)揮關(guān)鍵作用,為未來的大規(guī)模應(yīng)用提供指導(dǎo)建議。同時,旨在促進(jìn)人工智能在知識管理領(lǐng)域中的合理應(yīng)用和發(fā)展,指出大模型落地知識管理平臺將面臨的挑戰(zhàn),供決策制定者和研究人員參考借鑒。
2? 大模型的快速發(fā)展/Rapid development of large model
2022年11月,OpenAI發(fā)布ChatGPT[5]大語言模型,可以理解和生成文本、回答提問、提供信息、執(zhí)行任務(wù)等,并與用戶進(jìn)行實(shí)時對話,標(biāo)志著人工智能技術(shù)的熱點(diǎn)從決策式向生成式轉(zhuǎn)變[6]。該模型在訓(xùn)練過程中使用了數(shù)百TB的預(yù)訓(xùn)練數(shù)據(jù),模型的參數(shù)量高達(dá)1 750億,超過了人腦神經(jīng)元數(shù)量。由于其性能表現(xiàn)遠(yuǎn)超此前各IT廠商推出的智能助手,短短一周時間突破百萬用戶。據(jù)瑞銀集團(tuán)研究報(bào)告中的數(shù)據(jù),ChatGPT的月活躍用戶數(shù)突破1億僅用2個月時間,打破Tiktok此前上線9個月月活破億的紀(jì)錄[7]。2023年9月,據(jù)美國知名風(fēng)險投資機(jī)構(gòu)Andreessen Horowitz統(tǒng)計(jì),ChatGPT預(yù)估月訪問量達(dá)16億次,月用戶達(dá)2億人次,這也讓ChatGPT的訪問量在所有互聯(lián)網(wǎng)網(wǎng)站中排名第24位[8]。
隨后,谷歌和Meta等公司在競爭壓力之下,紛紛推出了各自的大模型。谷歌于2023年3月發(fā)布LaMDA [9]大語言模型,隨后升級為對標(biāo)GPT-4的PaLM 2[10]大模型。2023年4月,Meta發(fā)布名為Llama[11]的開源大語言模型,并于當(dāng)年7月推出下一代開源大語言模型Llama 2[12],同時宣布免費(fèi)提供給研究和商業(yè)使用。
2023年3月,OpenAI發(fā)布了GPT-4[13],其參數(shù)量已達(dá)萬億級別,具有更加自然的文本生成、更加準(zhǔn)確的語言理解和更加高效的模型訓(xùn)練能力,還提供一系列插件以供各類API接口與其他信息系統(tǒng)互通,同時提供模型微調(diào)接口,供企業(yè)用戶訓(xùn)練專屬的大模型應(yīng)用。2023年12月,谷歌正式發(fā)布Gemini大模型[13-14],繼續(xù)追趕OpenAI。2024年2月,繼在大語言模型取得領(lǐng)先優(yōu)勢后,OpenAI發(fā)布文生視頻模型Sora[15],其可根據(jù)用戶的提示詞生成長達(dá)60秒的高品質(zhì)視頻,引領(lǐng)新一輪AI技術(shù)變革。以ChatGPT為代表的大模型,讓人類第一次看到實(shí)現(xiàn)通用人工智能偉大目標(biāo)的可能性。
在國內(nèi),甚至出現(xiàn)了“百模大戰(zhàn)”的狀況。據(jù)統(tǒng)計(jì),僅在2023年底,已發(fā)布的大模型數(shù)量超過200個。百度公司于2023年3月發(fā)布自研大語言模型“文心一言”[16],并有超過650家合作伙伴宣布接入文心一言生態(tài)。隨后,華為、字節(jié)跳動、阿里等也紛紛發(fā)布各自的大模型。中國電信于2024年1月對外宣布,將自研星辰AI大型模型全面開源,以更好地助力客戶業(yè)務(wù)的智能化升級,充分展現(xiàn)了國資央企在人工智能領(lǐng)域的研發(fā)實(shí)力[17]。
除了大模型技術(shù)自身的快速發(fā)展,以大模型應(yīng)用的快速落地為目標(biāo),一大批大模型相關(guān)軟件也快速涌現(xiàn),如大模型中間件、向量數(shù)據(jù)庫、大模型開發(fā)平臺等,解決了大模型在應(yīng)用落地過程中遇到的數(shù)據(jù)集成、工具集成、應(yīng)用集成等一系列問題,也加速了大模型在千行百業(yè)中的落地應(yīng)用。
3? 大模型賦能知識管理全流程/Empowering the entire process of knowledge management with large models
大模型可貫穿知識管理工作全流程,有效激活知識資產(chǎn)價值,實(shí)現(xiàn)開放式、數(shù)字化、智能化的知識生態(tài)系統(tǒng)。
3.1? 知識創(chuàng)造
大模型的自然語言生成能力激發(fā)了知識管理平臺用戶的創(chuàng)意和靈感。例如,用戶可以通過對話的方式,根據(jù)文章題目讓大模型輸出文章的提綱,還可以進(jìn)一步讓大模型輸出具體章節(jié)的內(nèi)容。也可以輸入文章的大致內(nèi)容,讓大模型輸出文章的題目建議。大模型還可以根據(jù)用戶的提示,生成想法、廣告語等創(chuàng)意內(nèi)容。
大模型在生成文本摘要任務(wù)上也具有明顯優(yōu)勢。X. Pu等使用人類生成的評估數(shù)據(jù)集評估了大模型在各種摘要任務(wù)(如生成單條新聞、多條新聞、對話、源代碼和跨語言等摘要)上的表現(xiàn),經(jīng)過定量和定性的比較后發(fā)現(xiàn),由大模型生成的摘要明顯受到人類評估者的青睞[18]。知識管理平臺用戶可以在完成文檔編寫后,利用大模型的生成文本摘要的能力,自動生成文本摘要的初稿,在此基礎(chǔ)上進(jìn)行優(yōu)化修改,提高寫作效率。
以Stable Diffusion[19]和DALL·E 3[20]為代表的“文生圖”大模型,可以根據(jù)用戶輸入的文本提示,準(zhǔn)確地反映提示內(nèi)容,同時生成逼真的高質(zhì)量圖像。這些圖像可用于文檔的封面設(shè)計(jì)、內(nèi)容對應(yīng)的插圖、幻燈片的背景素材等。圖1為文心一言大模型根據(jù)“生成一張高質(zhì)量的智慧城市解決方案文檔封面圖片”提示詞而自動生成的文檔封面。
以Sora為代表的“文生視頻”大模型,其生成的視頻質(zhì)量雖然讓人感到驚艷,但其目前還難以準(zhǔn)確模擬現(xiàn)實(shí)世界的復(fù)雜性,期待未來可以根據(jù)知識文檔的內(nèi)容直接生成視頻,如生成產(chǎn)品宣傳視頻或產(chǎn)品使用的視頻指導(dǎo)等。
大模型的自然語言、圖像和視頻生成能力,對用戶的創(chuàng)造力提供了良好的啟發(fā)和補(bǔ)充,有助于創(chuàng)造出更高質(zhì)量的知識內(nèi)容,同時也大幅提高知識創(chuàng)造的效率。
3.2? 知識檢索與推薦
首先,大模型可以和知識管理平臺的搜索引擎相結(jié)合,用戶可以在平臺的搜索框中輸入自然語言,而不需要輸入搜索的關(guān)鍵字,由大模型對用戶的搜索意圖進(jìn)行理解和分析,驅(qū)動搜索引擎完成搜索任務(wù)并返回結(jié)果。用戶也不必通過點(diǎn)擊搜索結(jié)果中的鏈接來繼續(xù)縮小搜索范圍,而是可以通過與大模型進(jìn)行對話獲得更多的信息或搜索建議。用戶也可以通過與搜索引擎后臺的大模型進(jìn)行對話,直接提出問題,由大模型對搜索引擎的搜索結(jié)果進(jìn)行整合、歸納和總結(jié),生成問題的答案,返回給用戶,并通過連續(xù)對話提升用戶搜索體驗(yàn)。
其次,基于大模型的推薦算法研究逐漸得到重視。內(nèi)容推薦是機(jī)器學(xué)習(xí)和人工智能技術(shù)領(lǐng)域永恒的研究熱點(diǎn)之一?,F(xiàn)有推薦算法已在業(yè)界廣泛應(yīng)用,但傳統(tǒng)內(nèi)容推薦算法,普遍存在一些問題,例如:①存在數(shù)據(jù)的稀疏性問題。在實(shí)際應(yīng)用場景中,用戶和內(nèi)容的交互信息往往是非常稀疏的。例如,一個知識共享平臺可能包含幾十萬個內(nèi)容,然而一個用戶訪問的內(nèi)容可能數(shù)量很少。使用如此少量的已觀測數(shù)據(jù)來預(yù)測大量的未知信息,會極大地增加算法的過擬合風(fēng)險。②傳統(tǒng)算法無法為新用戶產(chǎn)生推薦,因?yàn)樾掠脩羧鄙倥c平臺現(xiàn)有內(nèi)容的交互,傳統(tǒng)算法無法獲取用戶特征,所以無法為用戶產(chǎn)生推薦,這也稱為“冷啟動問題”。③傳統(tǒng)推薦算法無法挖掘出用戶的潛在興趣,因?yàn)槠湟蕾囉谟脩暨^去對某些內(nèi)容的喜好,它產(chǎn)生的推薦也會和用戶過去喜歡的內(nèi)容相似。如果一個人以前只看算法推薦的內(nèi)容,算法只會給他推薦更多與推薦相關(guān)的文章,但用戶可能還對其他內(nèi)容感興趣。隨著大模型技術(shù)的興起,越來越多的研究者將大模型技術(shù)應(yīng)用于內(nèi)容推薦任務(wù),圖2是當(dāng)前基于大模型的推薦算法研究成果的總結(jié)[21]。大模型具有大量外部世界知識和豐富的語義信息,有助于解決傳統(tǒng)推薦算法的問題。
此外,大模型也可以自動為知識管理平臺上的文檔生成摘要,方便用戶快速了解文檔內(nèi)容,也可以自動為文檔生成標(biāo)簽,方便用戶快速瀏覽某個主題的全部文檔。
綜上所述,大模型通過深度語義理解用戶檢索意圖、個性化推薦等方式,幫助提升知識管理平臺檢索和推薦的效果,為用戶提供更好的使用體驗(yàn)。
3.3? 知識問答
大模型能捕捉豐富的語言表征,能夠參考多輪對話的背景信息,擁有良好的泛化能力,從而可以完美地匹配知識問答的技術(shù)需求,為知識的獲取提供了新的交互方式。通過與大模型對話,用戶無需在知識管理平臺手動搜索,就可以更快速更直接地獲取所需的知識和信息。
類似ChatGPT和文心一言等大模型,其訓(xùn)練數(shù)據(jù)主要來自互聯(lián)網(wǎng)上的大量文本以及各種書籍、文章、網(wǎng)頁等,因此,對于某些行業(yè)或企業(yè)內(nèi)部特有的或未在訓(xùn)練數(shù)據(jù)中涵蓋的問題,這些通用的大模型無法提供準(zhǔn)確的答案。
為了讓大模型能掌握企業(yè)特有的知識,目前業(yè)界存在兩種解決方案:
3.3.1? 訓(xùn)練企業(yè)專屬大模型
企業(yè)首先需要整理行業(yè)或企業(yè)專屬的知識語料,包括來自企業(yè)內(nèi)部知識管理平臺中特定專業(yè)的知識庫、項(xiàng)目案例、項(xiàng)目總結(jié)、會議紀(jì)要等。如果企業(yè)本身具有大模型的研發(fā)能力,也具備充足的算力資源,可以使用專屬的知識語料,訓(xùn)練企業(yè)專屬的大模型,這些大模型可部署在企業(yè)內(nèi)部,有利于對企業(yè)數(shù)據(jù)的隱私保護(hù)。如果企業(yè)本身缺少大模型研發(fā)能力和算力資源,也可以通過ChatGPT等在線的大模型提供的微調(diào)接口,只需要上傳自有的訓(xùn)練數(shù)據(jù),即可訓(xùn)練出企業(yè)專屬的大模型,這種方式的訓(xùn)練成本較低。
由于企業(yè)的知識處于不斷的積累和迭代變化過程中,而大模型并不能實(shí)時更新自己的模型網(wǎng)絡(luò)架構(gòu)和參數(shù)權(quán)重,導(dǎo)致訓(xùn)練后的大模型在一段時間后就不能準(zhǔn)確回答用戶對新產(chǎn)生的知識的提問。而重新訓(xùn)練或微調(diào)大模型,都會消耗企業(yè)的算力資源,帶來成本上升。
3.3.2? 采用檢索增強(qiáng)生成技術(shù)
隨著大模型中間件LangChain[22]以及向量數(shù)據(jù)庫Milvus[23]等工具軟件的逐漸成熟和流行,一種新的基于大模型的知識問答架構(gòu),即檢索增強(qiáng)生成(retrieval augmented generation, RAG)[24],逐漸在業(yè)界得到廣泛應(yīng)用。RAG的架構(gòu)如圖3所示:
這種架構(gòu)不依賴大模型本身對企業(yè)內(nèi)部知識的掌握程度,而是通過建立大模型與企業(yè)知識庫的互動,提高大模型生成內(nèi)容的準(zhǔn)確性和時效性。首先,按一定規(guī)則對企業(yè)內(nèi)部的原始文檔進(jìn)行切片,每個切片的文本通過大模型的嵌入接口[25-26]進(jìn)行向量化,切片的向量存儲于向量數(shù)據(jù)庫。其次,用戶的提問同樣經(jīng)過大模型的嵌入接口進(jìn)行向量化,并與向量數(shù)據(jù)庫中存儲的切片對應(yīng)的向量通過余弦相似度等算法進(jìn)行相似度比較,找到最相似的若干個切片。最后,利用大模型的總結(jié)歸納能力,從這些切片的內(nèi)容中提煉出對用戶提問的回答內(nèi)容。整個處理過程由大模型中間件進(jìn)行編排。在這種知識庫架構(gòu)下,當(dāng)企業(yè)內(nèi)部知識發(fā)生變化后,只需要重新切片和向量化,再替換向量數(shù)據(jù)庫中的內(nèi)容即可,而不需重新訓(xùn)練或微調(diào)大模型。這樣,大模型無需頻繁更新升級,用戶始終可以得到最準(zhǔn)確的回答。
基于大模型的知識問答應(yīng)用,是當(dāng)前大模型在行業(yè)落地案例數(shù)量最多的應(yīng)用場景,使用體驗(yàn)明顯高于傳統(tǒng)技術(shù)實(shí)現(xiàn)方式,提高了知識管理平臺的交互性和實(shí)用性,未來有望成為知識管理平臺的基本功能之一。
4? 大模型對知識管理帶來的挑戰(zhàn)/Challenges posed by large models to knowledge management
4.1? 數(shù)據(jù)隱私保護(hù)問題
將大模型引入知識管理平臺時,數(shù)據(jù)的隱私和安全保護(hù)是需要考慮的重要因素。
韓國三星集團(tuán)的設(shè)備解決方案部門在使用ChatGPT服務(wù)約20天內(nèi),發(fā)生3起數(shù)據(jù)泄露事故,導(dǎo)致與半導(dǎo)體設(shè)備測量、良品率/缺陷、內(nèi)部會議內(nèi)容等敏感信息被上傳到OpenAI的服務(wù)器中[27]。
為避免產(chǎn)生此類事件,企業(yè)可以考慮在企業(yè)自有的數(shù)據(jù)中心內(nèi)或?qū)僭撇渴鹌髽I(yè)專屬的大模型服務(wù),以控制敏感數(shù)據(jù)的泄露范圍,同時也使企業(yè)能夠更好地進(jìn)行數(shù)據(jù)治理工作,以滿足監(jiān)管和合規(guī)性要求。
但更重要的工作是:要注意大模型訓(xùn)練數(shù)據(jù)的隱私保護(hù)。首先,企業(yè)應(yīng)根據(jù)數(shù)據(jù)的不同獲取方式和類別,對訓(xùn)練數(shù)據(jù)的來源、內(nèi)容合法性等進(jìn)行嚴(yán)格審查。其次,對訓(xùn)練數(shù)據(jù)進(jìn)行脫敏等處理,清除身份證號碼、電話號碼、銀行賬號、車牌號碼和家庭住址等敏感信息。
4.2? 知識產(chǎn)權(quán)保護(hù)問題
大模型應(yīng)用過程中涉及的知識產(chǎn)權(quán)問題也是不容忽視的。2023年7月,國家網(wǎng)信辦發(fā)布《生成式人工智能服務(wù)管理暫行辦法》[28],其中第四條規(guī)定:尊重知識產(chǎn)權(quán)、商業(yè)道德,保守商業(yè)秘密。
就在ChatGPT火爆全網(wǎng)的同時,《紐約時報(bào)》更新了服務(wù)條款,禁止科技公司抓取其網(wǎng)站上的內(nèi)容以訓(xùn)練AI模型。同時,《紐約時報(bào)》與OpenAI展開談判,試圖達(dá)成一項(xiàng)授權(quán)協(xié)議,內(nèi)容包括OpenAI將向《紐約時報(bào)》付費(fèi),以使用其內(nèi)容作為大模型的訓(xùn)練數(shù)據(jù)。由于協(xié)商沒有達(dá)成一致,《紐約時報(bào)》考慮起訴OpenAI,起訴的結(jié)果可能包括銷毀ChatGPT的數(shù)據(jù)集,并對每條侵權(quán)內(nèi)容處以高達(dá)15萬美元的罰款[29]。
知識管理平臺的研發(fā)團(tuán)隊(duì)?wèi)?yīng)關(guān)注數(shù)據(jù)應(yīng)用的合規(guī)性。如果模型訓(xùn)練使用了已超過著作權(quán)保護(hù)期限的著作,則應(yīng)避免在生成內(nèi)容中侵犯著作權(quán)人的署名權(quán)等。如果模型訓(xùn)練使用了仍處于著作權(quán)保護(hù)期限內(nèi)的著作,則應(yīng)提前獲取著作權(quán)人的明確授權(quán)。
4.3? 知識污染問題
幻覺問題[30-31]是大模型當(dāng)前急需解決的技術(shù)問題之一。幻覺問題是指大模型生成的文本雖然自然且流暢,但內(nèi)容可能包含明顯與事實(shí)不符之處。大模型的幻覺問題將導(dǎo)致生成大量低質(zhì)量的知識。例如,隨著大模型的流行,由大模型產(chǎn)生的低質(zhì)量內(nèi)容正在開始污染互聯(lián)網(wǎng)。國外知名IT技術(shù)問答網(wǎng)站Stack Overflow的多位版主曾集中封禁疑似發(fā)布由AI生成的內(nèi)容的用戶賬號,并進(jìn)行刪帖。
在將大模型引入知識管理平臺后,也存在生成錯誤或不準(zhǔn)確內(nèi)容的可能,可以從兩方面進(jìn)行有效應(yīng)對:①需要對大模型的輸出內(nèi)容進(jìn)行持續(xù)的監(jiān)督和評估。有研究指出[32],ChatGPT被用于科學(xué)界時必須要堅(jiān)持人類審查的原則。在知識管理領(lǐng)域,可由知識管理平臺的運(yùn)營團(tuán)隊(duì)對大模型的輸出內(nèi)容進(jìn)行抽樣審查,避免其產(chǎn)生的錯誤信息被廣泛傳播和誤用而為企業(yè)造成潛在損失。②使用檢索增強(qiáng)生成技術(shù),讓大模型基于企業(yè)的私有知識庫中的內(nèi)容來生成輸出的內(nèi)容,大模型僅針對企業(yè)私有知識進(jìn)行歸納總結(jié),因此,可將知識污染問題的發(fā)生概率降至最低。
4.4? 高昂的研發(fā)和使用成本問題
據(jù)專家估計(jì),GPT-3的單次訓(xùn)練成本約460萬美元[33]。此外,僅GPT-3論文作者就有31人,另外,訓(xùn)練語料還需要外包團(tuán)隊(duì)進(jìn)行標(biāo)注、反饋質(zhì)量等,這些將引入額外的巨大的人工成本。在模型部署后為用戶提供推理服務(wù)時,仍需要耗費(fèi)大量的GPU(Graphics Processing Unit,圖形處理單元)算力。
高額的研發(fā)和運(yùn)營成本是絕大多數(shù)企業(yè)無法獨(dú)自承擔(dān)的。為了加速大模型的落地,產(chǎn)業(yè)界和學(xué)術(shù)界需要從多方面入手嘗試解決成本問題。
首先,大模型的軟件技術(shù)一直在發(fā)展。通過模型優(yōu)化、壓縮等技術(shù),一些初創(chuàng)公司和學(xué)術(shù)團(tuán)隊(duì)正在嘗試在保持性能不下降的前提下減少模型的體積,從而減少模型訓(xùn)練和推理過程中對算力的消耗,如GPTQ(Generative Pre-trained Transformer Quantization)[34]和AWQ(Activation-Aware Weight Quantization)[35]等大模型量化技術(shù)。
同時,各硬件廠商也在研發(fā)異構(gòu)算力,以擺脫對價格高昂的英偉達(dá)GPU的依賴。例如,華為推出了晟騰AI芯片。這些異構(gòu)AI芯片已成為英偉達(dá)GPU的良好替代,但其后續(xù)的發(fā)展依賴軟件生態(tài)的繁榮,例如,大模型開發(fā)框架對AI芯片的支持、AI芯片支持的算子的豐富程度、基于AI芯片進(jìn)行模型開發(fā)的開發(fā)者數(shù)量等。
另外,開源社區(qū)推出了多個性能優(yōu)異的開源大模型和開源的訓(xùn)練數(shù)據(jù)集,極大降低了中小廠商的大模型研發(fā)成本,如Meta的Llama2以及國內(nèi)北京智源人工智能研究院的悟道系列大模型等。
4.5? 依賴用戶提示的問題
目前各廠商和開源社區(qū)發(fā)布的大模型,普遍存在對用戶提示(prompt)比較敏感的問題[36]。用戶輸入的提示的句法或表述等即使存在很小的變化,也會導(dǎo)致大模型的輸出變化很大。
針對此問題,業(yè)界主要從兩方面著手解決:①各廠商和開源社區(qū)通常針對特定大模型發(fā)布用戶提示的教程或最佳實(shí)踐,用戶參照其中的內(nèi)容,可以更好地控制大模型的輸出,獲得質(zhì)量更高的響應(yīng)。例如,OpenAI官方發(fā)布了一份提示工程指南[37],介紹了一些有效的技巧,可以讓GPT-4等大模型輸出更準(zhǔn)確的內(nèi)容。②在知識管理平臺的設(shè)計(jì)中,更加關(guān)注人機(jī)交互的模式,例如,可以將常用的用戶提示方法制作成提示模板,用戶基于模板增加個性化內(nèi)容后,再提交給大模型,通過平臺界面和交互的優(yōu)化設(shè)計(jì)來提高大模型使用的效果和滿意度。
5? 結(jié)語/Conclusions
大模型的出現(xiàn)有助于提高企業(yè)員工的工作效率,將員工從瑣碎的撰寫工作中解放出來,投入到需要更多創(chuàng)新性的工作中。這和企業(yè)開展知識管理工作的初衷是一致的,即減少員工的重復(fù)勞動,復(fù)用知識,從而為企業(yè)帶來更多的創(chuàng)新成果。
為了更好地將大模型的能力融入到知識管理工作中,知識管理要持續(xù)在應(yīng)用場景上進(jìn)行創(chuàng)新。例如,中國電信集團(tuán)在知識管理實(shí)踐中基于大模型做了多項(xiàng)應(yīng)用創(chuàng)新,包括:基于大模型向量嵌入的相似文檔識別、基于大模型知識庫的文檔輔助寫作助手、基于大模型知識庫的智能運(yùn)維服務(wù)機(jī)器人等。這些應(yīng)用均針對員工日常工作中內(nèi)容繁瑣的環(huán)節(jié)進(jìn)行創(chuàng)新,應(yīng)用落地后極大提高了工作的自動化程度,提高效率的同時也大大減少了人工投入。
本文介紹了大模型對知識管理工作的賦能,同時也分析了大模型應(yīng)用在知識管理實(shí)踐中遇到的挑戰(zhàn),希望能給予行業(yè)同仁更多啟發(fā),為企業(yè)帶來更高效、更精準(zhǔn)、更靈活、更具創(chuàng)新性的知識管理體驗(yàn),共同促進(jìn)國內(nèi)知識管理行業(yè)的快速發(fā)展。
參考文獻(xiàn)/References:
[1] 陳勁, 趙闖, 賈筱, 等. 重構(gòu)企業(yè)技術(shù)創(chuàng)新能力評價體系: 從知識管理到價值創(chuàng)造[J]. 技術(shù)經(jīng)濟(jì), 2017, 36(9): 1-8, 30. (CHEN J, ZHAO C, JIA X, et al. Reconstructing firms technological innovation capability evaluation system: from knowledge management to value creation[J]. Technology economics, 2017, 36(9): 1-9.)
[2] 宋建元, 陳勁.企業(yè)隱性知識共享的效率分析[J]. 科學(xué)學(xué)與科學(xué)技術(shù)管理, 2005(2): 58-61. (SONG J Y, CHEN J. Efficiency analysis of enterprise implicit knowledge sharing[J]. Science of science and management of S.&T., 2005(2): 58-61.)
[3] 趙闖, 陳勁, 薛瀾. 用知識管理打造企業(yè)核心能力——從C919首飛成功看中國商飛的“雙屏創(chuàng)新”[J]. 清華管理評論, 2017(5): 35-39. (ZHAO C, CHEN J, XUE L. Building core competence of enterprises through knowledge management: a study of COMACs “dual screen innovation” from the success of C919s first flight[J]. Tsinghua business review, 2017(5): 35-39.)
[4] 郝建蘋. 國內(nèi)外知識管理研究現(xiàn)狀綜述[J]. 情報(bào)雜志, 2003(8): 17-19. (HAO J P. A review of the current situation of knowledge management research at home and abroad[J]. Journal of intelligence, 2003(8): 17-19.)
[5] OpenAI. ChatGPT[EB/OL]. [2023-12-23] https://chat.openai.com/.
[6] Gartner. 5 impactful technologies from the gartner emerging technologies and trends impact radar for 2022[EB/OL]. [2023-12-02]. https://www. gartner.com/en/articles/5-impactful-technologies-from-the-gartner-emerging-technologies-and-trends-impact-radar-for-2022.
[7] REUTERS. ChatGPT sets record for fastest-growing user base - analyst note[EB/OL]. [2023-11-02]. https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01/.
[8] HOROWITZ A. How are consumers using generative AI?[EB/OL]. [2023-12-10]. https://a16z.com/how-are-consumers-using-generative-ai/.
[9] THOPPILAN R, DE FREITAS D, HALL J, et al. Lamda: language models for dialog applications[J]. arXiv preprint, 2022, arXiv:2201.08239.
[10] Google. PaLM 2 Technical Report[EB/OL]. [2023-11-16]. https://ai.google/static/documents/palm2techreport.pdf.
[11] TOUVRON H, LAVRIL T, IZACARD G, et al. Llama: open and efficient foundation language models[J]. arXiv preprint, 2023, arXiv:2302.13971.
[12] TOUVRON H, MARTIN L, STONE K, et al. Llama 2: open foundation and fine-tuned chat models[J]. arXiv preprint, 2023, arXiv:2307.09288.
[13] OpenAI. GPT-4[EB/OL]. [2024-03-12]. https://openai.com/research/gpt-4.
[14] Google. Gemini[EB/OL]. [2024-02-02]. https://gemini.google.com/.
[15] OpenAI. Creating video from text[EB/OL]. [2024-03-15]. https://openai.com/sora/.
[16] 百度. 文心一言[EB/OL]. [2024-02-02]. https://yiyan.baidu.com/. (Baidu. ERNIE Bot[EB/OL]. [2024-02-02]. https://yiyan.baidu.com/.)
[17] 中國電信.中國電信星辰AI大模型開源[EB/OL]. [2024-01-20]. http://www.chinatelecom.com.cn/news/02/202401/t20240112_79586.html. (China Telecom. China Telecom Star AI Big Model Open Source[EB/OL]. [2024-01-20]. http://www.chinatelecom.com.cn/news/02/202401/t20240112_79586.html.)
[18] PU X, GAO M, WAN X. Summarization is (almost) dead[J]. arXiv preprint, 2023, arXiv:2309.09558.
[19] ROMBACH R, BLATTMANN A, LORENZ D, et al. High-resolution image synthesis with latent diffusion models[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. New Orleans: IEEE/CVF, 2022: 10684-10695.
[20] OpenAI. Improving image generation with better captions[EB/OL]. [2024-03-26]. https://cdn.openai.com/papers/dall-e-3.pdf.
[21] LIN J, DAI X, XI Y, et al. How can recommender systems benefit from large language models: a survey[J]. arXiv preprint, 2023, arXiv:2306.05817.
[22] KEIVALYA P, MEHFUZA H. Automating customer service using LangChain: building custom open-source GPT Chatbot for organizations[J]. arXiv preprint, 2023, arXiv:2310.05421v1.
[23] WANG J, YI X, GUO R, et al. Milvus: a purpose-built vector data management system[C]//Proceedings of the 2021 international conference on management of data. Xian: SIGMOD, 2021:2614-2627.
[24] LEWIS P, PEREZ E, PIKTUS A, et al. Retrieval-augmented generation for knowledge-intensive NLP tasks[J]. arXiv preprint, 2020, arXiv:2005.11401.
[25] OpenAI. What are embeddings?[EB/OL]. [2024-03-16]. https://platform.openai.com/docs/guides/embeddings/what-are-embeddings.
[26] FlagOpen. FlagEmbedding[EB/OL]. [2024-02-02]. https://github.com/FlagOpen/FlagEmbedding.
[27] TechCrunch. Samsung bans use of generative AI tools like ChatGPT after April internal data leak[EB/OL]. [2024-03-11]. https://techcrunch.com/2023/05/02/samsung-bans-use-of-generative-ai-tools-like-chatgpt-after-april-internal-data-leak/.
[28] 中華人民共和國國家互聯(lián)網(wǎng)信息辦公室. 生成式人工智能服務(wù)管理暫行辦法[EB/OL]. [2024-03-20]. http://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm. (CyberSpace Administration of China. Interim measures for the management of generative artificial intelligence services[EB/OL]. [2024-03-20]. http://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm.)
[29] 云頭條. ChatGPT 或被關(guān)閉: 銷毀數(shù)據(jù)集[EB/OL]. [2023-10-15]. https://www.163.com/dy/article/ICF8QUR90511D6RL.html. (Cloud Head Bar. ChatGPT or closed: destroy dataset[EB/OL]. [2023-10-15]. https://www.163.com/dy/article/ICF8QUR90511D6RL.html)
[30] JI Z, LEE N, FRIESKE R, et al. Survey of hallucination in natural language generation[J]. ACM computing surveys, 2023, 55(12): 1-38.
[31] ZHANG M R, PRESS O, MERRILL M, et al. How language model hallucinations can snowball[J]. arXiv preprint, 2023, arXiv: 2305.13534.
[32] EVA A M V D, JOHAN B, WILLEM Z, et al. ChatGPT: five priorities for research[J]. Nature, 2023, 614(7947): 224-226.
[33] OpenAI. Openais gpt-3 language model: a technical overview[EB/OL]. [2023-10-18]. https://lambdalabs. com/blog/demystifying-gpt-3.
[34] FRANTAR E, ASHKBOOS S, HOEFLER T, et al. Gptq: accurate post-training quantization for generative pre-trained transformers[J]. arXiv preprint, 2022, arXiv:2210.17323.
[35] LIN J, TANG J, TANG H, et al. AWQ: activation-aware weight quantization for LLM compression and acceleration[J]. arXiv preprint, 2023, arXiv:2306.00978.
[36] KADDOUR J, HARRIS J, MOZES M, et al. Challenges and applications of large language models[J]. arXiv preprint, 2023, arXiv: 2307.10169.
[37] OpenAI. Prompt engineering[EB/OL]. [2024-04-02]. https://platform.openai.com/docs/guides/prompt-engineering.
作者貢獻(xiàn)說明/Author contributions:
張? 宇:確定研究選題,提出研究思路,撰寫與修改論文;
王玉梁:修改論文。
Applications and Challenges of Large Models in Knowledge Management
Zhang Yu? ?Wang Yuliang
China Telecom Digital Intelligence Technology Co., Ltd., Beijing 100032
Abstract: [Purpose/Significance] By analyzing the application scenarios and challenges of large models in the field of knowledge management, this paper aims to provide reference and inspiration for research and practice in related fields, promote the deeper application of large models in the field of knowledge management, and improve the user experience of knowledge management tools. [Method/Process] By tracking the dynamics of software and hardware vendors, commercial products, open source projects, academic research, and actual customer experience, the practical application of large models in the field of knowledge management, and the problems and challenges faced in the process were summarized and sorted out. [Result/Conclusion] Large models have become a powerful tool for knowledge management and have more and more practical applications, including assisting in document writing, automatically generating document summaries, using natural language to retrieve information, intelligent question answering, etc. These applications have changed the way traditional knowledge management operates, making it more efficient, intelligent, and user-friendly. However, the application of large models in the field of knowledge management also faces some unresolved problems, such as data privacy protection, intellectual property rights protection, knowledge pollution, high costs, and unstable content output, which have yet to be solved.
Keywords: large model? ? knowledge management? ? knowledge base? ? artificial intelligence
Author(s): Zhang Yu, senior business manager, senior engineer, master, E-mail: zhangy193@chinatelecom.cn; Wang Yuliang, technical director, senior engineer, master.
Received: 2023-11-28? ? Published: 2024-04-25
作者簡介:張宇,高級業(yè)務(wù)經(jīng)理,高級工程師,碩士,E-mail: zhangy193@chinatelecom.cn;王玉梁,技術(shù)總監(jiān),高級工程師,碩士。
收稿日期:2023-10-30? ? ? ? 發(fā)表日期:2024-05-23