今年5月15日剛剛上線的谷歌AI Overview功能,旨在通過人工智能技術(shù),在搜索結(jié)果頂部提供AI生成的答案,以增強搜索引擎的用戶體驗。但該功能上線后卻出現(xiàn)了一系列錯誤和不當建議,引發(fā)網(wǎng)絡(luò)熱議。比如,有網(wǎng)友在谷歌搜索中查詢“芝士和披薩粘不到一塊”的解決辦法時,AI給出的建議是在醬料中加入1/8杯的無毒膠水以增加粘性。另一位用戶詢問“兔子是否曾在NBA打過球”,AI說“是”,因為搞混了將球員的名字與“兔子”這一詞匯。
針對AI Overviews出現(xiàn)的胡扯,谷歌隨后回應表示會繼續(xù)改進相關(guān)算法進行修正,但這些AI Overview功能產(chǎn)生的“幻覺”是大語言模型的固有缺陷,目前尚無解決方案。
清華大學交叉信息研究院助理教授于洋分析認為,谷歌AI Overview出現(xiàn)“胡扯”,實際上恰恰體現(xiàn)了人工智能本身學會了語言結(jié)構(gòu)、語法等,但并未學會因果關(guān)系(即邏輯依據(jù))。
觀安信息聯(lián)合創(chuàng)始人兼CTO胡紹勇同樣指出,當前大模型技術(shù)主要依靠海量的數(shù)據(jù)訓練進行。由于人類向AI的提問較為多樣且發(fā)散,AI會提供基于統(tǒng)計概率相近的答案,而非準確的答案。在這種情況下,AI給出的答復雖然看似合理,卻可能與事實不符。因此,做好數(shù)據(jù)清洗是避免誤導信息傳播的重要環(huán)節(jié)。
(據(jù)澎湃新聞6.4)