“康熙皇帝有幾個(gè)兒子”“請(qǐng)列出康熙皇帝兒子的姓名名單”“請(qǐng)給我一份康熙的兒子名單”,將這三條指令分別發(fā)送給人工智能大模型,猜猜答案是什么?
不僅不同的大模型回答不一樣,即便是同一個(gè)大模型,答案也有偏差。比如,有的答案統(tǒng)計(jì)了康熙所有的兒子數(shù)量,表示共有35人,包括正式排序的兒子和早殤未排序的兒子;有的只列出了正式排序的24個(gè)兒子;還有的沒有任何解釋,列出了兒子的姓名,但順序錯(cuò)亂……
為什么有明確答案的問題,會(huì)引發(fā)人工智能大模型的“錯(cuò)亂”?
“這正是人工智能‘一本正經(jīng)胡說八道’的表現(xiàn)?!敝袊W(wǎng)安協(xié)會(huì)數(shù)據(jù)安全專家、上海臨港數(shù)據(jù)評(píng)估有限公司總監(jiān)宗良指出,要注意人工智能大模型造假這一新趨勢。
他介紹,人工智能“一本正經(jīng)地胡說八道”其實(shí)有個(gè)專有名詞,叫“AI幻覺”,即大模型提供了看似合理但有錯(cuò)漏的答案。如果公眾相信,可能上當(dāng)受騙。
事實(shí)上,在今年的世界人工智能大會(huì)上,很多業(yè)界人士都提到了“AI幻覺”“可信大模型”等概念,并披露了多個(gè)人工智能大模型“造假”或“說謊”的案例,希望引起各界關(guān)注。
為什么大模型會(huì)給出錯(cuò)誤答案,成為造假源頭呢?
對(duì)國內(nèi)的大模型開發(fā)企業(yè)而言,語料庫短缺問題比較嚴(yán)峻。因?yàn)楫?dāng)前大模型數(shù)據(jù)庫語料以英文居多,中文語料占比較小。還有,圖表、復(fù)雜公式等元素處理也是大模型語料處理中的“攔路虎”。在金融報(bào)表、行業(yè)報(bào)告等文檔中,表格中的數(shù)據(jù)指標(biāo)至關(guān)重要,但部分大模型并不能正確“理解”表格里行、列、單元格的意義,導(dǎo)致大模型對(duì)整個(gè)表格的識(shí)別結(jié)果有誤差,最終得出錯(cuò)誤的結(jié)論。
宗良提醒,“AI幻覺”本質(zhì)上有兩種,一種是完全的“胡說八道”,另一種是部分內(nèi)容不準(zhǔn)確或不完善。對(duì)后者而言,雖然不完全準(zhǔn)確,但仍有一定的參考價(jià)值。同時(shí),也不能完全否定“AI幻覺”的價(jià)值,因?yàn)檫@也是AI創(chuàng)新的起點(diǎn)。
當(dāng)然,從準(zhǔn)確獲取信息的角度看,公眾還是要對(duì)大模型輸出結(jié)果或生成的內(nèi)容保持警惕。
(任翀/文)