国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

農(nóng)業(yè)垂直領(lǐng)域大語言模型構(gòu)建流程和技術(shù)展望

2024-12-01 00:00:00張宇芹朱景全董薇李富忠郭雷風(fēng)

摘要:隨著互聯(lián)網(wǎng)的普及,農(nóng)業(yè)知識和信息的獲取變得更加便捷,但信息大多固定且通用,無法針對具體情況提供定制化的解決方案。在此背景下,大語言模型(Large Language Models,LLMs)作為一種高效的人工智能工具,逐漸在農(nóng)業(yè)領(lǐng)域中獲得關(guān)注和應(yīng)用。目前,LLMs技術(shù)在農(nóng)業(yè)領(lǐng)域大模型的相關(guān)綜述中只是簡單描述,并沒有系統(tǒng)地介紹LLMs構(gòu)建流程。本文重點介紹了農(nóng)業(yè)垂直領(lǐng)域大語言模型構(gòu)建流程,包括數(shù)據(jù)采集和預(yù)處理、選擇適當(dāng)?shù)腖LMs基模型、微調(diào)訓(xùn)練、檢索增強生成 (Retrieval Augmented Generation,RAG)技術(shù)、評估過程。以及介紹了LangChain框架在農(nóng)業(yè)問答系統(tǒng)中的構(gòu)建。最后,總結(jié)出當(dāng)前構(gòu)建農(nóng)業(yè)垂直領(lǐng)域大語言模型的一些挑戰(zhàn),包括數(shù)據(jù)安全挑戰(zhàn)、模型遺忘挑戰(zhàn)和模型幻覺挑戰(zhàn),以及提出了未來農(nóng)業(yè)垂直領(lǐng)域大語言的發(fā)展方向,包括多模態(tài)數(shù)據(jù)融合、強時效數(shù)據(jù)更新、多語言知識表達和微調(diào)成本優(yōu)化,以進一步提高農(nóng)業(yè)生產(chǎn)的智能化和現(xiàn)代化水平。

關(guān)鍵詞:大語言模型;檢索增強生成;LangChain;農(nóng)業(yè)問答系統(tǒng)

1 "引言

隨著互聯(lián)網(wǎng)的普及,農(nóng)業(yè)知識和信息的獲取變得更加便捷。然而,網(wǎng)絡(luò)上的農(nóng)業(yè)信息大多是固定且通用的,無法針對具體情況提供定制化的解決方案。這個問題在實際應(yīng)用中尤其突出。例如,在應(yīng)對突發(fā)病蟲害或極端氣候條件時,固定且通用的答案往往不足以解決實際中的生產(chǎn)問題。

在此背景下,大語言模型(Large Language Models,LLMs)[1]作為一種高效的人工智能工具,逐漸在農(nóng)業(yè)領(lǐng)域中獲得關(guān)注和應(yīng)用。例如,LLMs可以通過農(nóng)業(yè)知識問答系統(tǒng)提供實時、可靠的信息支持,涵蓋作物種植、農(nóng)業(yè)技術(shù)、病蟲害防治等方面。這些模型能夠通過自然語言處理和語義理解技術(shù),將用戶的問題轉(zhuǎn)化為語義表示,生成準(zhǔn)確的答案反饋給用戶。目前,LLMs技術(shù)在農(nóng)業(yè)領(lǐng)域大模型的相關(guān)綜述[2-3]中有所提及,而構(gòu)建流程的部分技術(shù)尚未研究。本文將重點針對LLMs技術(shù),系統(tǒng)介紹LLMs在農(nóng)業(yè)領(lǐng)域中的構(gòu)建流程、技術(shù)挑戰(zhàn)以及發(fā)展趨勢,以期為今后農(nóng)業(yè)垂直領(lǐng)域大語言模型的研究和應(yīng)用提供理論依據(jù)作為參考。

2 "大語言模型

LLMs是基于強大的Transformers架構(gòu)[4],用海量文本數(shù)據(jù)訓(xùn)練,用來理解和生成人類語言的模型。LLMs通過數(shù)十億甚至數(shù)百億的參數(shù)捕獲語言的復(fù)雜性,在自然語言處理任務(wù)中表現(xiàn)卓越。隨著技術(shù)的發(fā)展和硬件設(shè)備的提升,特別是OpenAI發(fā)布了GPT系列[1]之后,LLMs成為人工智能領(lǐng)域的研究和應(yīng)用熱點。

在實際應(yīng)用方面,LLMs已經(jīng)在不同任務(wù)中顯示出其價值,包括但不限于摘要生成[5]、機器翻譯[6]、情感分析[7]等。這些應(yīng)用展示了LLMs強大的語言理解和生成能力,極大地提高了這些領(lǐng)域的自動化和智能化水平。

2.1 "垂直領(lǐng)域大語言模型

針對LLMs處理任務(wù)的能力,LLMs分為通用LLMs和垂直領(lǐng)域LLMs。通用LLMs能夠處理多種語言理解任務(wù);垂直領(lǐng)域LLMs使用大量的垂直領(lǐng)域文本數(shù)據(jù)在LLMs基模型上進行訓(xùn)練以便為特定行業(yè),例如:法律、醫(yī)療或農(nóng)業(yè)等領(lǐng)域提供定制化的解決方案,一些典型的垂直領(lǐng)域LLMs,見表1。同時在農(nóng)業(yè)領(lǐng)域中也出現(xiàn)一些LLMs的構(gòu)建工作,例如:果蔬農(nóng)技知識大語言模型[8]、“后稷”、“神農(nóng)”等。這些模型不僅提升了特定領(lǐng)域的操作效率,還可以針對具體情況提供定制化的解決方案。

2.2 "農(nóng)業(yè)垂直領(lǐng)域大語言模型

隨著垂直領(lǐng)域LLMs研究越來越廣泛,越來越多的研究者也開始探索LLMs在農(nóng)業(yè)領(lǐng)域的潛力,以更好地滿足農(nóng)業(yè)領(lǐng)域的特定需求并優(yōu)化決策過程。例如:

王婷等人開發(fā)了基于人工智能大語言模型技術(shù)的果蔬農(nóng)技知識智能問答系統(tǒng),通過采用Low-Rank Adaptation(Lora)微調(diào)和Prompt-tuning(P-tuning)微調(diào)對LLMs基模型進行微調(diào),從而實現(xiàn)了系統(tǒng)能夠高精度地生成無歧義的答案。此外,系統(tǒng)利用檢索增強生成 (Retrieval Augmented Generation,RAG)技術(shù)進行模型優(yōu)化,結(jié)合外部知識源構(gòu)建知識庫,通過向量檢索等方法實現(xiàn)了知識的快速搜索。這些技術(shù)手段使得該系統(tǒng)能夠支持復(fù)雜的多輪對話,為果蔬農(nóng)技領(lǐng)域提供了高效的知識服務(wù)和交流平臺[8]。

Xianjun Yang等人開發(fā)的PLLaMa模型,采用了基于大型語料庫的LLMs基模型,通過訓(xùn)練和微調(diào),使模型具備了對植物和農(nóng)業(yè)科學(xué)方面的知識的基本理解和應(yīng)用能力。團隊使用Llama2作為LLMs基模型,在訓(xùn)練過程中,采用flash-attention和bf16等方法來提高訓(xùn)練效率,并利用zero-stage-3和全切片數(shù)據(jù)并行(Fully Sharded Data Parallel,F(xiàn)SDP)實現(xiàn)了分布式訓(xùn)練。此外,通過引入指令調(diào)整過程,進一步優(yōu)化了模型對特定指令的理解和響應(yīng)能力[17]。

Biao Zhao等人的研究采用了ChatGPT模型,并結(jié)合農(nóng)業(yè)領(lǐng)域的專業(yè)知識,構(gòu)建了“ChatAgri”,以實現(xiàn)農(nóng)業(yè)文本的自動分類和理解。在構(gòu)建“ChatAgri”的過程中,引導(dǎo)ChatGPT正確地理解和分類農(nóng)業(yè)相關(guān)的文本,并在問答推理階段讓ChatGPT生成響應(yīng)。最后,通過答案規(guī)范化或?qū)R階段,將ChatGPT生成的自然語言響應(yīng)轉(zhuǎn)換為預(yù)定義的分類標(biāo)簽,確保模型的輸出與預(yù)期的分類體系相一致。這一系列步驟為實現(xiàn)農(nóng)業(yè)垂直領(lǐng)域大語言模型的構(gòu)建提供了關(guān)鍵技術(shù)支持[18]。

Angels Balaguer等人使用RAG技術(shù)和微調(diào)技術(shù),有效地在農(nóng)業(yè)數(shù)據(jù)集上構(gòu)建一個框架,專注于從復(fù)雜和非結(jié)構(gòu)化的PDF文檔中提取信息,并生成問題答案。該框架的設(shè)計不僅涉及基本的信息提取,還包括通過精確解析文本內(nèi)容、表格和視覺信息,恢復(fù)文檔的底層結(jié)構(gòu)。此外,通過RAG技術(shù),該系統(tǒng)能結(jié)合先進的檢索和生成機制,針對特定問題生成高質(zhì)量的答案,從而增強問答系統(tǒng)的實用性和響應(yīng)質(zhì)量[19]。

Bruno Silva等人通過結(jié)合GPT-4與RAG技術(shù)和集成優(yōu)化(Ensemble Refinement ,ER)技術(shù),構(gòu)建農(nóng)業(yè)領(lǐng)域LLMs,并評估了該模型在解答農(nóng)業(yè)相關(guān)問題和生成作物管理指南等方面的能力。研究過程中,首先通過手動或自動化腳本從書籍、文章和在線資源中收集數(shù)據(jù),然后將數(shù)據(jù)轉(zhuǎn)換為JSON格式的選擇題或開放性問題格式,并進行數(shù)據(jù)清洗以刪除不適合LLMs處理的問題。接著,創(chuàng)建包含背景知識的提示來引導(dǎo)LLMs生成高質(zhì)量的答案。在LLMs調(diào)用RAG和ER技術(shù)生成響應(yīng)后,最終通過專家對比和LLMs輔助檢查評估答案的準(zhǔn)確性和相關(guān)性[20]。

3 "構(gòu)建流程

在基于微調(diào)LLMs構(gòu)建農(nóng)業(yè)知識問答系統(tǒng)過程中,首先進行數(shù)據(jù)采集工作,數(shù)據(jù)來源包括但不限于書籍、學(xué)術(shù)文獻、網(wǎng)絡(luò)資源和行業(yè)文章,確保農(nóng)業(yè)知識數(shù)據(jù)的廣泛性和專業(yè)性。隨后,對數(shù)據(jù)進行清洗等操作,進一步確保所獲數(shù)據(jù)質(zhì)量。利用合適的LLMs,將數(shù)據(jù)轉(zhuǎn)換成微調(diào)所需的問答語料數(shù)據(jù)。根據(jù)任務(wù)性質(zhì)、數(shù)據(jù)特點、資源可用性等需求選擇適合的LLMs基模型。LLMs微調(diào)訓(xùn)練階段利用數(shù)據(jù),采用合適的微調(diào)策略對LLMs基模型進行訓(xùn)練,逐漸調(diào)整參數(shù)以提升精確度。在訓(xùn)練過程中,定期對模型進行評估和調(diào)優(yōu),在確保語言理解能力的前提下提高LLMs在垂直領(lǐng)域的專業(yè)能力。利用LangChain框架,將微調(diào)好的農(nóng)業(yè)LLMs和向量知識庫部署到實際應(yīng)用中,進一步優(yōu)化和調(diào)整以滿足實際需求,農(nóng)業(yè)問答系統(tǒng)框架流程見圖1。

3.1 "準(zhǔn)備數(shù)據(jù)

微調(diào)LLMs的基礎(chǔ)是利用大規(guī)模的語料庫進行微調(diào),通常這些語料庫是公開的或者經(jīng)過授權(quán)的私有數(shù)據(jù)。然而,農(nóng)業(yè)領(lǐng)域的語料庫少而分散,因此需要保證法律允許的前提下來獲取數(shù)據(jù),例如:中國農(nóng)業(yè)信息網(wǎng)、百度百科、新聞、學(xué)術(shù)文獻等。其次,進行數(shù)據(jù)清洗并利用LLMs將數(shù)據(jù)處理為滿足微調(diào)要求的問答語料數(shù)據(jù),生成問答語料數(shù)據(jù)的框架有:Self-instruct[21]、Self-QA[22]、Self-KG[23],見表2。

Self-Instruct框架[21]通過利用編寫的種子微調(diào)數(shù)據(jù),結(jié)合LLMs模型,生成更多符合要求的微調(diào)數(shù)據(jù)。首先,從種子數(shù)據(jù)中隨機選擇指令,通過LLMs生成一系列新指令。其次,判斷指令類別屬于“分類”問題還是“生成”問題,并采用不同的策略生成答案。經(jīng)過上述步驟生成的微調(diào)數(shù)據(jù)需要過濾與已有數(shù)據(jù)高相似度和低質(zhì)量的問答語料數(shù)據(jù)。過濾后的微調(diào)數(shù)據(jù)繼續(xù)與“種子數(shù)據(jù)”結(jié)合,形成循環(huán)過程,不斷地生

成新的微調(diào)數(shù)據(jù),Self-Instruct框架見圖2。

Self-QA框架[22]由三個階段組成:知識引導(dǎo)指令生成、模型閱讀理解、過濾和裁剪。知識引導(dǎo)指令生成階段為LLMs模型提供一些指導(dǎo),利用LLMs基于非結(jié)構(gòu)化農(nóng)業(yè)知識數(shù)據(jù)進行無監(jiān)督的文本指令生成。模型閱讀理解是指LLMs根據(jù)所提供的農(nóng)業(yè)知識進行理解,并回答第一階段生成的指令。最后,對生成的問題進行過濾和裁剪,剔除那些不符合預(yù)期、違反規(guī)

則或含有明顯錯誤的文本,Self-QA框架見圖3。

Self-KG框架[23] 基于知識圖譜[24-25]來構(gòu)建問答語料數(shù)據(jù),常見的農(nóng)業(yè)知識圖譜有:蘋果病蟲害知識圖譜[26]、草莓種植管理知識圖譜[27]、大豆育種知識圖譜[28]等。Self-KG由三個技術(shù)組件組成:相對相似性度量和自負采樣以及多個負隊列。相對相似性度量:將未對齊的實體推得更遠,從而避免使用正對的監(jiān)督。自負采樣:為了緩解無監(jiān)督實體對齊中的碰撞問題,通過從同一知識圖譜中排除實體,避免其作為負樣本,提高對齊準(zhǔn)確性。負隊列:維護負隊列來存儲先前編碼的批次作為已編碼的負樣本,從而以有限的成本容納數(shù)千個已編碼的負樣本。

3.2 "選擇LLMs基模型

選擇適合的LLMs基模型進行微調(diào)時,需要綜合考慮多個因素以確保選擇的LLMs基模型能夠滿足需求。首先,評估現(xiàn)有的硬件設(shè)備,包括CPU和GPU的內(nèi)存等方面的配置,以確保所選LLMs基模型參數(shù)大小與硬件設(shè)備兼容并能夠有效地運行。其次,不同的LLMs基模型對不同語言的處理效果有所差異,因此需要選擇適合微調(diào)數(shù)據(jù)語言特點的LLMs基模型,以提高微調(diào)效果。部分開源LLMs基模型見表3。

3.3 "微調(diào)模型

基于農(nóng)業(yè)問答語料數(shù)據(jù)訓(xùn)練LLMs是有效地將LLMs適用于下游任務(wù)。常見方法是監(jiān)督微調(diào)(Supervised Fine-Tuning,SFT)。通過SFT,能夠?qū)LMs基模型與特定任務(wù)的需求對齊,從而提高模型在這些任務(wù)上的表現(xiàn)[37]。

盡管監(jiān)督微調(diào)在改善模型性能方面取得了顯著成效,但也面臨著一些挑戰(zhàn)。尤其是模型的參數(shù)越來越多,傳統(tǒng)的SFT微調(diào)方法可能不適用于現(xiàn)在的LLMs。除了要保證微調(diào)的效果還要減少微調(diào)所投入的成本,所以涌現(xiàn)出了一些高效的微調(diào)方法[38-39],微調(diào)方法見表4。

Lora(Low-Rank Adaptation)基本原理是通過凍結(jié)LLMs基模型參數(shù)的同時,向LLMs基模型中添加可訓(xùn)練的低秩分解層。低秩分解層通過將LLMs基模型的權(quán)重矩陣進行低秩分解,實現(xiàn)對LLMs基模型的微調(diào)[40],Lora框架見圖4。

Lora微調(diào)通過減少微調(diào)參數(shù)量,降低了微調(diào)的成本和計算資源需求,提高了微調(diào)效率。其次,凍結(jié)的LLMs基模型參數(shù)可以被共享,從而降低了多個任務(wù)切換的成本。此外,在部署到生產(chǎn)環(huán)境中時,Lora微調(diào)方法不引入額外的推理延遲,具有良好的實用性。

檢索增強生成[43-44](Retrieval Augmented

Generation,RAG)將獲取的農(nóng)業(yè)數(shù)據(jù)處理為文本數(shù)據(jù),并以不同的粒度進行文本分割并轉(zhuǎn)換成向量矩陣并存入到向量數(shù)據(jù)庫中。在用戶的提問時,通過高效的檢索方法,查找并返回與提問最相關(guān)的知識,并融入Prompt中;大模型參考當(dāng)前用戶的上下文和相關(guān)知識,生成相應(yīng)的答案,RAG框架見圖5。

3.4 "評估

3.4.1 "評估基準(zhǔn)

評估基準(zhǔn)分為兩種類型:通用任務(wù)的基準(zhǔn)和垂直任務(wù)的基準(zhǔn)[45]。

通用任務(wù)的基準(zhǔn)評估LLMs在多任務(wù)知識理解方面的表現(xiàn),它們涵蓋了多個領(lǐng)域的任務(wù)和主題,從數(shù)學(xué)和計算機科學(xué)到人文和社會科學(xué)等不同范疇,包括了各種任務(wù)的難度級別,從基礎(chǔ)到高級。這些基準(zhǔn)的目標(biāo)是通過系統(tǒng)評估LLMs在不同任務(wù)上的性能,以便比較不同模型之間的表現(xiàn),并且促進對LLMs的進一步研究和發(fā)展,以便改進這些模型的性能,并推動它們在各個領(lǐng)域的應(yīng)用。常見的通用評估基準(zhǔn)有:MMLU[46]、BIG-bench[47]、HELM[48]、Chatbot Arena[49]等。

垂直任務(wù)的基準(zhǔn)由專業(yè)領(lǐng)域的知識組成,并且要比模型微調(diào)所訓(xùn)練的知識更先進,用于評估LLMs在垂直領(lǐng)域中的表現(xiàn)。垂直任務(wù)的基準(zhǔn)有:中文醫(yī)學(xué)語言理解評測基準(zhǔn)CBLUE[50]、中國法律體系的法律評測基準(zhǔn)LawBench[51]、多領(lǐng)域知識評測基準(zhǔn)Xiezhi[52]等。

在構(gòu)建農(nóng)業(yè)LLM時,不僅需要考慮模型對農(nóng)業(yè)知識的掌握能力,還要考慮到模型對語言理解的能力。由復(fù)旦大學(xué)肖仰華團隊構(gòu)建的多領(lǐng)域知識評測基準(zhǔn)xiezhi包含了516門學(xué)科、13學(xué)科門類、240w條數(shù)據(jù)。其中農(nóng)業(yè)領(lǐng)域包括:作物科學(xué)、獸醫(yī)學(xué)、農(nóng)業(yè)資源利用、園藝、林業(yè)、植物保護、水產(chǎn)養(yǎng)殖、畜牧業(yè)、草藥學(xué)等[52]。

3.4.2 "人工評估

人工評估指通過人類參與者對LLMs的性能進行主觀評價和分析的過程。這種評估通常涉及讓人類參與者完成特定的任務(wù)或者針對特定的語言模型輸出提供反饋。

人類評估員通常是一些領(lǐng)域?qū)<襾碓u估LLMs生成的答案質(zhì)量。評估員通常采用成對比較或為答案打分兩種方法。在成對比較中,評估員需要比較兩個來自不同LLMs的答案,以確定被評估的LLMs生成答案的質(zhì)量;而在單一答案評分中,只需要對目標(biāo)評估LLMs生成的答案進行評分。其中,農(nóng)業(yè)領(lǐng)域評估的指標(biāo)一般為:準(zhǔn)確性、可理解性、安全性。給出相應(yīng)的打分標(biāo)準(zhǔn),求得平均評估得分。

3.4.3 "自動評估

自動評估是指向LLMs提供完全相同的問題、待

評估的樣本和用于進行評估的指標(biāo)和得分等要求,要求LLMs對這些問題做出回應(yīng)[53]。例如:Yang Liu等人以GPT-4為骨干模型,采用鏈?zhǔn)剿季S(Chain-of- thought, CoT)[54]和填充范式,用于評估LLMs生成摘要任務(wù)的性能[55]。

3.5 "系統(tǒng)搭建

在構(gòu)建基于微調(diào)LLMs構(gòu)建農(nóng)業(yè)知識問答系統(tǒng)中,LangChain框架簡化和加速由LLMs支持的應(yīng)用程序的開發(fā)過程。此框架通過提供通用接口和集中式開發(fā)環(huán)境,使開發(fā)人員能夠輕松地構(gòu)建和集成復(fù)雜的應(yīng)用程序。在農(nóng)業(yè)問答系統(tǒng)的具體實現(xiàn)中,LangChain的六個主要組成部分起著至關(guān)重要的作用,Langchain組件框架見圖6。

1)模型輸入/輸出(Model I/O):作為與LLMs

交互的入口和出口,處理所有進出模型的數(shù)據(jù)流,確保用戶查詢和模型響應(yīng)的準(zhǔn)確傳遞。

2)檢索(Search):檢索功能確保從大量農(nóng)業(yè)知識中提取準(zhǔn)確信息,確保LLMs生成的答案的準(zhǔn)確性。

3)鏈(Chains):通過特定邏輯順序連接多個提示,處理復(fù)雜的農(nóng)業(yè)任務(wù),如綜合分析作物健康狀況或優(yōu)化種植策略。

4)記憶(Memory):存儲與過往作物種植歷史相關(guān)的數(shù)據(jù),以便在提供新的建議時利用歷史上下文。

5)代理(Agents):由語言模型和提示驅(qū)動,負責(zé)決定下一步采取什么動作。

6)回調(diào)(Callbacks):便于在LLMs處理過程中進行實時記錄、監(jiān)控,確保數(shù)據(jù)流動性和可操作性。

通過整合這些組件,LangChain不僅提高了農(nóng)業(yè)問答系統(tǒng)的構(gòu)建效率,也提高了這些系統(tǒng)的性能和可靠性。這種集成化的方法使得農(nóng)業(yè)問答系統(tǒng)能夠更好地服務(wù)于農(nóng)業(yè)工作者,提供精確、及時的技術(shù)支持和決策輔助,從而推動智慧農(nóng)業(yè)的發(fā)展。

4 "技術(shù)挑戰(zhàn)與發(fā)展趨勢

4.1 "技術(shù)挑戰(zhàn)

4.1.1 "數(shù)據(jù)安全挑戰(zhàn)

進行知識獲取時,必須特別關(guān)注隱私安全和信息安全問題。首先,需要確保所采集的信息符合法律法規(guī)的規(guī)定,不能侵犯他人的隱私權(quán)或泄露敏感信息[56],以免觸犯相關(guān)法律法規(guī)并承擔(dān)相應(yīng)責(zé)任。除了隱私和信息安全外,還需重視數(shù)據(jù)的專業(yè)準(zhǔn)確性。在農(nóng)業(yè)領(lǐng)域,數(shù)據(jù)會涉及專業(yè)知識,如農(nóng)藥使用、環(huán)境保護等。因此,必須確保所采集的數(shù)據(jù)來源可靠、準(zhǔn)確,避免可能會出現(xiàn)偏見的農(nóng)業(yè)數(shù)據(jù)[57]。例如,一些國內(nèi)禁止使用但在國外允許使用的農(nóng)藥,若未經(jīng)篩選直接被收錄,可能會對不同地區(qū)農(nóng)業(yè)生產(chǎn)和環(huán)境造成不良影響,甚至危害公眾健康。

4.1.2 "模型遺忘挑戰(zhàn)

災(zāi)難性遺忘問題[58]指在LLMs學(xué)習(xí)新知識后忘記了之前學(xué)習(xí)的任務(wù)。這一問題在模型持續(xù)學(xué)習(xí)場景下尤為突出,限制了LLMs在實際應(yīng)用中的能力。當(dāng)LLMs學(xué)習(xí)新知識時,新的權(quán)重會完全覆蓋舊知識相關(guān)的權(quán)重[59]。例如,如果在基于病蟲害數(shù)據(jù)訓(xùn)練的LLMs上繼續(xù)訓(xùn)練豬病害數(shù)據(jù),會導(dǎo)致權(quán)重文件發(fā)生變化。這種情況下,病蟲害相關(guān)知識的理解能力相比之前會顯著降低。這一問題影響了LLMs在多任務(wù)學(xué)習(xí)和持續(xù)學(xué)習(xí)環(huán)境下的應(yīng)用,需要通過合適的方法來緩解或解決,例如:新舊知識混合訓(xùn)練。

4.1.3 "模型幻覺挑戰(zhàn)

幻覺是指LLMs生成無意義的文本,或者與提供的源輸入內(nèi)容不符合。通常情況下有三種情況:輸入相沖突的幻覺,指LLMs生成的內(nèi)容偏離用戶提供的源輸入;上下文相沖突的幻覺,指LLMs生成的內(nèi)容與自身先前生成的信息相沖突;事實相沖突的幻覺,指LLMs生成的內(nèi)容與已知的世界知識不符[60]。這種現(xiàn)象的原因有兩種:來自數(shù)據(jù)的幻覺和來自訓(xùn)練和推理的幻覺[61]。在數(shù)據(jù)收集過程中,當(dāng)大量數(shù)據(jù)中含有錯誤信息或重復(fù)信息時,就會增加模仿虛假信息的風(fēng)險。當(dāng)一個具有缺陷的理解能力的LLMs接受訓(xùn)練時可能會加深幻覺的程度,它們可能會無意中放大這些誤導(dǎo)性,從而產(chǎn)生事實不正確的幻覺。例如,關(guān)于“草莓農(nóng)殘超標(biāo)會致癌”的說法實際上是一種誤解,長期以來被廣泛傳播。如果LLMs在這種有歧義的數(shù)據(jù)上接受訓(xùn)練,可能會產(chǎn)生錯誤的輸出,進而會影響到農(nóng)業(yè)發(fā)展。一些常用的評估基準(zhǔn)有:長文本評估幻覺標(biāo)準(zhǔn)“FACTSCORE”[62]、用于評估幻覺嚴(yán)重程度“HALO”[63]等。

4.2 "發(fā)展趨勢

4.2.1 "多模態(tài)數(shù)據(jù)融合

農(nóng)業(yè)領(lǐng)域數(shù)據(jù)模態(tài)多樣,除了文本、還有視頻、圖片、遙感影像等。這種數(shù)據(jù)形式的運用可以彌補單一數(shù)據(jù)類型在描述問題上的不足,提供更全面、更豐富的信息,有助于提高模型的理解和表達能力。在農(nóng)業(yè)領(lǐng)域,用戶提出的問題可能會存在描述模糊的情況。例如,他們可能描述一個病害或蟲害的特征,但是有些病害或蟲害的特征相似,從用戶的主觀描述中,文字描述可能不夠清晰,難以準(zhǔn)確表達問題。然而,通過結(jié)合文字描述和相關(guān)的圖片或視頻,用戶就能更直觀、更清晰地展示問題,從而幫助模型更好地理解并給出準(zhǔn)確的答案。例如,Chenjiao Tan等人[64]對GPT-4V[65]在農(nóng)作物類型識別、植物疾病識別、雜草識別等達到良好的效果。將LLMs的自然語言理解能力與擅長圖像識別和分類的大模型的優(yōu)勢相結(jié)合在農(nóng)業(yè)垂直領(lǐng)域大語言的建設(shè)中,多模態(tài)數(shù)據(jù)的利用至關(guān)重要。多模態(tài)數(shù)據(jù)的運用可以提高模型對用戶問題的理解能力,能夠更精準(zhǔn)地解決實際生產(chǎn)中的問題,為農(nóng)業(yè)工作者提供更準(zhǔn)確的指導(dǎo)和建議。

4.2.2 "時序性數(shù)據(jù)更新

LLMs在解決農(nóng)業(yè)生產(chǎn)實際問題方面的應(yīng)用,離不開時序數(shù)據(jù)的支持。Ali Ibrahim等人[66]通過評估ChatGPT回答農(nóng)民問題的能力得出:ChatGPT提供的與種植時間、播種率、施肥率和時間相關(guān)的信息不準(zhǔn)確。在農(nóng)業(yè)生產(chǎn)過程中,及時獲取和分析各種時序數(shù)據(jù),例如遙感時序數(shù)據(jù)、作物生長數(shù)據(jù)、氣象監(jiān)測數(shù)據(jù)等納入人工智能助手中是至關(guān)重要的。這些時序數(shù)據(jù)可以確保LLMs的預(yù)測結(jié)果更加實時和可靠,從而幫助農(nóng)業(yè)從業(yè)者及時調(diào)整生產(chǎn)活動,降低可能的風(fēng)險損失。例如:NDVI時間序列數(shù)據(jù)[67]、GF-6時序數(shù)據(jù)[68]等。將這些時序數(shù)據(jù)與LLMs結(jié)合起來,可以更好地提升預(yù)測準(zhǔn)確性和應(yīng)用價值,為農(nóng)業(yè)生產(chǎn)提供更有效的支持和指導(dǎo)。這種將時序數(shù)據(jù)與LLMs結(jié)合的策略在其他領(lǐng)域也取得了顯著成效。例如,Abramson J等人基于一個改進版的Evoformer模塊(一種蛋白質(zhì)語言模型)構(gòu)建了高準(zhǔn)確性預(yù)測蛋白質(zhì)與其他各種生物分子相互作用結(jié)構(gòu)預(yù)測統(tǒng)一框架AlphaFold3[69]。

4.2.3 "多語言知識表達

農(nóng)業(yè)垂直領(lǐng)域大語言模型的用戶群體不僅包括專業(yè)領(lǐng)域的專家,更多的是農(nóng)民和農(nóng)場主,他們希望能夠利用這些模型來解決實際生產(chǎn)中的問題??紤]到用戶的文化程度和地域的多樣性,用戶不一定使用統(tǒng)一的語言進行交流,而更多地使用地方方言或行業(yè)術(shù)語。

因此,在構(gòu)建農(nóng)業(yè)垂直領(lǐng)域大語言時,需要特別關(guān)注用戶的語言差異,確保模型能夠理解和處理不同的語言和方言。這可能涉及對地方方言的語音識別和自然語言處理技術(shù)的支持,以確保模型能夠準(zhǔn)確地理

解用戶的需求并提供相應(yīng)的解決方案。

通過考慮用戶的語言差異,農(nóng)業(yè)垂直領(lǐng)域大語言可以更好地服務(wù)于廣大農(nóng)民和農(nóng)場主群體,提供更加貼近他們實際需求的智能化解決方案,促進農(nóng)業(yè)生產(chǎn)的現(xiàn)代化和智能化發(fā)展。

4.2.4 "微調(diào)成本優(yōu)化

在LLMs的發(fā)展過程中,保證LLMs性能的同時

如何減少成本成為一個顯著的趨勢。斯坦福大學(xué)提出三種減少LLMs推理成本的三種策略:提示適應(yīng):通過優(yōu)化和調(diào)整輸入的Prompt,減少模型推理所需的成本。LLMs近似:使用參數(shù)量較小或簡化的LLMs來近似較大的LLMs來減少計算成本。LLMs級聯(lián):根據(jù)用戶查詢的不同,組合使用不同的LLMs保證性能的同時來減少成本[70]。通過這些策略,LLMs可以在減少成本的同時保證性能,使得更多的領(lǐng)域和用戶能夠利用大語言模型的優(yōu)勢,推動各行業(yè)的智能化發(fā)展。特別是在農(nóng)業(yè)垂直領(lǐng)域,通過降低微調(diào)成本,可以更快地開發(fā)出適合農(nóng)民和農(nóng)場主需求的智能化解決方案,促進農(nóng)業(yè)生產(chǎn)的現(xiàn)代化和智能化進程。

5 "結(jié)語

本文中詳細討論了LLMs在農(nóng)業(yè)領(lǐng)域垂直大語言模型構(gòu)建中的各個關(guān)鍵階段,包括數(shù)據(jù)采集、數(shù)據(jù)預(yù)處理、LLMs基模型選擇、微調(diào)訓(xùn)練及部署。這些階段的精確處理對于構(gòu)建有效的農(nóng)業(yè)垂直領(lǐng)域大語言模型至關(guān)重要。此外,還介紹了LangChain框架,這一框架通過其各個組件的優(yōu)化協(xié)同作用,顯著提高了農(nóng)業(yè)問答系統(tǒng)的構(gòu)建效率和系統(tǒng)性能。通過LangChain框架,可以更加靈活和高效地處理和整合農(nóng)業(yè)數(shù)據(jù),從而加快響應(yīng)時間并提高信息準(zhǔn)確性。在討論構(gòu)建過程中的技術(shù)挑戰(zhàn)時,特別指出了數(shù)據(jù)安全性問題、模型遺忘問題以及模型生成幻覺的風(fēng)險。這些挑戰(zhàn)不僅影響模型的性能,還可能威脅到模型在實際操作中的穩(wěn)定性和可靠性。解決這些問題是確保模型有效運行的前提。期望通過本文能夠更好地理解如何利用LLMs來推動農(nóng)業(yè)的智能化和信息化進程,最終促進農(nóng)業(yè)生產(chǎn)的現(xiàn)代化和持續(xù)發(fā)展。

參考文獻

[1] BROWN T, MANN B, RYDER N, et al. Language models are few-shot learners[J]. Advances in neural information processing systems, 2020, 33: 1877-1901.

[2] 張振乾,汪澍,宋琦,等.人工智能大模型在智慧農(nóng)業(yè)領(lǐng)域的應(yīng)用[J].智慧農(nóng)業(yè)導(dǎo)刊,2023,3(10):9-12+17.

[3] 郭旺,楊雨森,吳華瑞,等.農(nóng)業(yè)垂直領(lǐng)域大語言:關(guān)鍵技術(shù)、應(yīng)用分析與發(fā)展方向[J].智慧農(nóng)業(yè)(中英文),2024,6(2):1-13.

[4] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[J]. Advances in neural information processing systems, 2017, 30.

[5] WANG Y, ZHANG Z, WANG R. Element-aware summarization with large language models: Expert-aligned evaluation and chain-of- thought method[J]. arXiv preprint arXiv:2305.13412, 2023.

[6] BRIAKOU E, CHERRY C, FOSTER G. Searching for Needles in a Haystack: On the Role of Incidental Bilingualism in PaLM's Translation Capability[J]. arXiv preprint arXiv:2305.10266, 2023.

[7] LIU Z, YANG K, ZHANG T, et al. Emollms: A series of emotional large language models and annotation tools for comprehensive affective analysis[J]. arXiv preprint arXiv:2401.08508, 2024.

[8] 王婷,王娜,崔運鵬,等. 基于人工智能大模型技術(shù)的果蔬農(nóng)技知識智能問答系統(tǒng)[J]. 智慧農(nóng)業(yè)(中英文), 2023, 5(4):105-116.

[9] ZHANG X, TIAN C, YANG X, et al. Alpacare: Instruction-tuned large language models for medical application[J]. arXiv preprint arXiv: 2310. 14558, 2023.

[10] ZHANG H, CHEN J, JIANG F, et al. HuatuoGPT, towards taming language model to be a doctor[OL]. arXiv preprint, 2023. arXiv: 2305.15075.

[11] HUANG Q, TAO M, AN Z, et al. Lawyer llama technical report[J/OL]. arXiv preprint,2023. arXiv:2305.15062.

[12] LUO Y, ZHANG J, FAN S, et al. Biomedgpt: Open multimodal generative pre-trained transformer for biomedicine[J/OL]. arXiv preprint, 2023. arXiv:2308.09442.

[13] LUO Y, YANG K, HONG M, et al. Molfm: A multimodal molecular foundation model[J/OL]. arXiv preprint, 2023. arXiv:2307.09484.

[14] ZHAO S, ZHANG J, NIE Z. Large-scale cell representation learning via divide-and-conquer contrastive learning[J/OL]. arXiv preprint, 2023. arXiv:2306.04371.

[15] YANG H, LIU X Y, WANG C D. Fingpt: Open-source financial large language models[J/OL]. arXiv preprint, 2023. arXiv:2306.06031.

[16] LI Y, MA S, WANG X, et al. EcomGPT: Instruction-tuning large language models with chain-of-task tasks for e-commerce[C]// Proceedings of the AAAI Conference on Artificial Intelligence. 2024, 38(17): 18582-18590.

[17] YANG X, GAO J, XUE W, et al. Pllama: An open-source large language model for plant science[J]. arXiv preprint arXiv:2401.01600, 2024.

[18] ZHAO B, JIN W, SER J D, et al. ChatAgri: Exploring potentials of ChatGPT on cross-linguistic agricultural text classification[J]. Neurocomputing, 2023, 557: 126708.

[19] BALAGUER A, BENARA V, DE FREITAS CUNHA R L, et al. RAG vs Fine-tuning: Pipelines, Tradeoffs, and a Case Study on Agriculture [J/OL]. arXiv e-prints, 2024. arXiv: 2401.08406.

[20] SILVA B, NUNES L, ESTEV?O R, et al. GPT-4 as an Agronomist Assistant? Answering Agriculture Exams Using Large Language Models[J]. arXiv preprint, 2023. arXiv:2310.06225.

[21] WANG Y, KORDI Y, MISHRA S, et al. Self-instruct: Aligning language models with self-generated instructions[J/OL]. arXiv preprint, 2022. arXiv:2212.10560.

[22] ZHANG X, YANG Q. Self-qa: Unsupervised knowledge guided language model alignment[J/OL]. arXiv preprint,2023. arXiv:2305. 11952.

[23] LIU X, HONG H, WANG X, et al. Selfkg: Self-supervised entity alignment in knowledge graphs[C]//Proceedings of the ACM Web Conference 2022. 2022: 860-870.

[24] YAN J, WANG C, CHENG W, et al. A retrospective of knowledge graphs[J]. Frontiers of Computer Science, 2018, 12: 55-74.

[25] 侯琛,牛培宇.農(nóng)業(yè)知識圖譜技術(shù)的研究現(xiàn)狀與展望[J].農(nóng)業(yè)機械學(xué)報,2024,55(6):1-17.

[26] 田鵬菲.蘋果病蟲害知識圖譜和施藥輔助App的研究與實現(xiàn)[D].新疆塔里木:塔里木大學(xué),2023.

[27] 張宇,郭文忠,林森,等.基于Neo4j的草莓種植管理知識圖譜構(gòu)建及驗證[J].現(xiàn)代農(nóng)業(yè)科技,2022,(1):223-230+234.

[28] 張文豪.基于大豆育種語料的知識圖譜構(gòu)建[D].濟南:山東大學(xué),2021.

[29] TOUVRON H, LAVRIL T, IZACARD G, et al. Llama: Open and efficient foundation language models[J/OL]. arXiv preprint, 2023. arXiv:2302.13971.

[30] TOUVRON H, MARTIN L, STONE K, et al. Llama 2: Open foundation and fine-tuned chat models[J/OL]. arXiv preprint,2023. arXiv:2307.09288.

[31] WORKSHOP B S, SCAO T L, FAN A, et al. Bloom: A 176b- parameter open-access multilingual language model[J/OL]. arXiv preprint,2022. arXiv:2211.05100.

[32] DU N, HUANG Y, DAI A M, et al. Glam: Efficient scaling of language models with mixture-of-experts[C]//International Conference on Machine Learning. PMLR, 2022: 5547-5569.

[33] CHOWDHERY A, NARANG S, DEVLIN J, et al. Palm: Scaling language modeling with pathways[J]. Journal of Machine Learning Research, 2023, 24(240): 1-113.

[34] BAI J, BAI S, CHU Y, et al. Qwen technical report[J/OL]. arXiv preprint,2023. arXiv:2309.16609.

[35] DU Z, QIAN Y, LIU X, et al. Glm: General language model pretraining with autoregressive blank infilling[J/OL]. arXiv preprint, 2021. arXiv:2103.10360.

[36] YANG A, XIAO B, WANG B, et al. Baichuan 2: Open large-scale language models[J/OL]. arXiv preprint,2023. arXiv:2309.10305.

[37] OUYANG L, WU J, JIANG X, et al. Training language models to follow instructions with human feedback[J]. Advances in Neural Information Processing Systems, 2022, 35: 27730-27744.

[38] LIU H, TAM D, MUQEETH M, et al. Few-shot parameter-efficient fine-tuning is better and cheaper than in-context learning[J]. Advances in Neural Information Processing Systems, 2022, 35: 1950-1965.

[39] LESTER B, AL-RFOU R, CONSTANT N. The power of scale for parameter-efficient prompt tuning[J/OL]. arXiv preprint, 2021. arXiv:2104.08691.

[40] HU E J, SHEN Y, WALLIS P, et al. Lora: Low-rank adaptation of large language models[J/OL]. arXiv preprint,2021. arXiv:2106.09685.

[41] LI X L, LIANG P. Prefix-tuning: Optimizing continuous prompts for generation[J/OL]. arXiv preprint, 2021. arXiv:2101.00190.

[42] LIU X, JI K, FU Y, et al. P-tuning v2: Prompt tuning can be comparable to fine-tuning universally across scales and tasks[J/OL]. arXiv preprint, 2021. arXiv:2110.07602.

[43] LEWIS P, PEREZ E, PIKTUS A, et al. Retrieval-augmented generation for knowledge-intensive nlp tasks[J]. Advances in Neural Information Processing Systems, 2020, 33: 9459-9474.

[44] GAO Y, XIONG Y, GAO X, et al. Retrieval-augmented generation for large language models: A survey[J/OL]. arXiv preprint, 2023. arXiv:2312.10997.

[45] CHANG Y, WANG X, WANG J, et al. A survey on evaluation of large language models[J]. ACM Transactions on Intelligent Systems and Technology, 2024, 15(3): 1-45.

[46] HENDRYCKS D, BURNS C, BASART S, et al. Measuring massive multitask language understanding[J/OL]. arXiv preprint, 2020. arXiv:2009.03300.

[47] LEWKOWYCZ A, SLONE A, ANDREASSEN A, et al. Beyond the Imitation Game: Quantifying and extrapolating the capabilities of language models[R]. Technical Report, 2022.

[48] BOMMASANI R, LIANG P, LEE T. Holistic evaluation of language models[J]. Annals of the New York Academy of Sciences, 2023, 1525(1): 140-146.

[49] CHIANG W L, ZHENG L, SHENG Y, et al. Chatbot arena: An open platform for evaluating llms by human preference[J/OL]. arXiv preprint, 2024. arXiv:2403.04132.

[50] ZHANG N, CHEN M, BI Z, et al. Cblue: A chinese biomedical language understanding evaluation benchmark[J/OL]. arXiv preprint, 2021. arXiv:2106.08087。

[51] FEI Z, SHEN X, ZHU D, et al. Lawbench: Benchmarking legal knowledge of large language models[J/OL]. arXiv preprint, 2023. arXiv:2309.16289.

[52] GU Z, ZHU X, YE H, et al. Xiezhi: An ever-updating benchmark for holistic domain knowledge evaluation[C]//Proceedings of the AAAI Conference on Artificial Intelligence. 2024, 38(16): 18099-18107.

[53] CHIANG C H, LEE H. Can large language models be an alternative to human evaluations?[J/OL]. arXiv preprint, 2023. arXiv:2305.01937.

[54] WEI J, WANG X, SCHUURMANS D, et al. Chain-of-thought prompting elicits reasoning in large language models[J]. Advances in Neural Information Processing Systems, 2022, 35: 24824- 24837.

[55] LIU Y, ITER D, XU Y, et al. G-eval: Nlg evaluation using gpt-4 with better human alignment[J]. arXiv preprint, 2023. arXiv: 2303.16634.

[56] PI?EIRO-MARTíN A, GARCíA-MATEO C, DOCíO-FERNáNDEZ L, et al. Ethical challenges in the development of virtual assistants powered by large language models[J]. Electronics, 2023, 12(14): 3170.

[57] SHUTSKE J M. Harnessing the power of large language models in agricultural safety amp; health[J]. Journal of Agricultural Safety and Health, 2023: 0.

[58] CHEN X, LI L, CHANG L, et al. Challenges and Contributing Factors in the Utilization of Large Language Models (LLMs)[J/OL]. arXiv preprint, 2023. arXiv:2310.13343.

[59] McCLOSKEY M, COHEN N J. Catastrophic interference in connectionist networks: The sequential learning problem[M]// Psychology of Learning and Motivation. Academic Press, 1989, 24: 109-165.

[60] JI Z, LEE N, FRIESKE R, et al. Survey of hallucination in natural language generation[J].ACM Computing Surveys, 2023,55(12): 1-38.

[61] HUANG L, YU W, MA W, et al. A survey on hallucination in large language models: Principles, taxonomy, challenges, and open questions[J/OL]. arXiv preprint,2023. arXiv:2311.05232.

[62] MIN S, KRISHNA K, LYU X, et al. Factscore: Fine-grained atomic evaluation of factual precision in long form text generation[J/OL]. arXiv preprint,2023. arXiv:2305.14251.

[63] ELARABY M, LU M, DUNN J, et al. Halo: Estimation and reduction of hallucinations in open-source weak large language models[J/OL]. arXiv preprint,2023. arXiv:2308.11764.

[64] TAN C, CAO Q, LI Y, et al. On the promises and challenges of multimodal foundation models for geographical, environmental, agricultural, and urban planning applications[J/OL]. arXiv preprint, 2023. arXiv:2312.17016.

[65] YANG Z, LI L, LIN K, et al. The dawn of LMMs: Preliminary explorations with GPT-4V (Ision)[J/OL]. arXiv preprint,2023. arXiv: 2309.17421.

[66] IBRAHIM A, SENTHILKUMAR K, SAITO K. Evaluating responses by ChatGPT to farmers’ questions on irrigated rice cultivation in Nigeria[J]. Research Square Platform LLC, 2023.

[67] 杜保佳,張晶,王宗明,等. 應(yīng)用 Sentinel-2A NDVI 時間序列和面向?qū)ο鬀Q策樹方法的農(nóng)作物分類[J].地球信息科學(xué)學(xué)報,2019,21(5): 740-751.

[68] 陳詩揚,劉佳. 基于 GF-6 時序數(shù)據(jù)的農(nóng)作物深度學(xué)習(xí)識別算法評估[J]. 農(nóng)業(yè)工程學(xué)報, 2021, 37(15):161-168.

[79] ABRAMSON J, ADLER J, DUNGER J, et al. Accurate structure prediction of biomolecular interactions with AlphaFold 3[J]. Nature, 2024: 1-3.

[70] CHEN L, ZAHARIA M, ZOU J. Frugalgpt: How to use large language models while reducing cost and improving performance [J/OL]. arXiv preprint,2023. arXiv:2305.05176.

引用格式:張宇芹,朱景全,董薇,李富忠,郭雷風(fēng).農(nóng)業(yè)垂直領(lǐng)域大語言模型構(gòu)建流程和技術(shù)展望[J].農(nóng)業(yè)大數(shù)據(jù)學(xué)報,2024,6(3): 412-423.DOI: 10.19788/ j.issn.2096-6369.000052.

CITATION: ZHANG YuQin, ZHU JingQuan, DONG Wei, LI FuZhong, GUO LeiFeng. Construction Process and Technological Prospects of Large Language Models in the Agricultural Vertical Domain[J]. Journal of Agricultural Big Data, 2024,6(3): 412-423.DOI: 10.19788/j.issn.2096-6369.000052.

Construction Process and Technological Prospects of Large Language Models in the Agricultural Vertical Domain

ZHANG YuQin1,2, ZHU JingQuan3, DONG Wei2, LI FuZhong1*, GUO LeiFeng2*

1. College of Software, Shanxi Agricultural University, Jinzhong 030801, Shanxi, China; 2. Agricultural Information Institute of Chinese Academy of Agricultural Sciences, Beijing 100081, China; 3.The National Agro-Tech Extension and Service Center, Beijing 100125, China

Abstract: With the proliferation of the internet, accessing agricultural knowledge and information has become more convenient. However, this information is often static and generic, failing to provide tailored solutions for specific situations. To address this issue, vertical domain models in agriculture combine agricultural data with large language models (LLMs), utilizing natural language processing and semantic understanding technologies to provide real-time answers to agricultural questions and play a crucial role in agricultural decision-making and extension. This paper details the construction process of LLMs in the agricultural vertical domain, including data collection and preprocessing, selecting appropriate pre-trained LLM base models, fine-tuning training, Retrieval Augmented Generation (RAG), evaluation. The paper also discusses the application of the LangChain framework in agricultural Qamp;A systems. Finally, the paper summarizes some challenges in building LLMs for the agricultural vertical domain, including data security challenges, model forgetting challenges, and model hallucination challenges, and proposes future development directions for agricultural models, including the utilization of multimodal data, real-time data updates, the integration of multilingual knowledge, and optimization of fine-tuning costs to further promote the intelligence and modernization of agricultural production.

Keywords: LLMs; RAG; LangChain; agricultural Qamp;A systems

惠水县| 客服| 英超| 黄骅市| 江城| 贵德县| 双桥区| 柳河县| 班戈县| 常山县| 舟曲县| 都昌县| 合川市| 当雄县| 马边| 海淀区| 辛集市| 乌兰浩特市| 民县| 镇江市| 潞城市| 漳浦县| 福建省| 伊春市| 宜兰市| 德江县| 新安县| 安平县| 西华县| 怀安县| 江津市| 吐鲁番市| 肥城市| 定结县| 雷州市| 庆城县| 邵武市| 平原县| 来宾市| 嘉义市| 仲巴县|