国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

OpenAI將給ChatGPT加?幫助?們辨別哪些是??智能?成?本

2023-05-30 10:48:04
海外星云 2023年2期
關(guān)鍵詞:萊曼波利人工智能

這句話是人工智能寫的嗎?OpenAI的新聊天機器人ChatGPT引發(fā)了公眾對一個關(guān)鍵問題的討論:我們?nèi)绾沃谰W(wǎng)上的內(nèi)容是人寫的,還是人工智能寫的?

自2022年11月發(fā)布以來,已有超過一百萬人使用過ChatGPT。它讓人工智能社區(qū)著迷,而且很顯然,人工智能生成的文本正在網(wǎng)絡上肆意傳播。人們用它來編笑話、寫故事和起草更好的電子郵件。

ChatGPT是OpenAI的大型語言模型GPT-3的衍生產(chǎn)品。針對用戶提出的問題,該模型可以生成看起來很像是人類做出的回答。

這些大型語言模型的魔力在于,它們的回答看起來非常真實。但因為人們難以分辨,由此引發(fā)的正確性錯覺也可能帶來危險。

人工智能模型寫出的句子看起來是正確的,它們以正確的順序使用了正確的詞匯和語法,但人工智能理解不了它們的含義。

這些模型通過預測句子中最有可能出現(xiàn)的下一個詞來工作,所以他們并不知道自己說的是對還是錯。即使說的是錯的,他們也會用“言之鑿鑿”的語氣表述出來。

在一個已經(jīng)兩極分化、充滿政治色彩的網(wǎng)絡世界中,這些人工智能工具可能會進一步扭曲我們獲取的信息。如果他們被某些產(chǎn)品采用并風靡世界,后果可能是毀滅性的。

人工智能初創(chuàng)公司HuggingFace的政策總監(jiān)艾琳·索萊曼表示,我們迫切需要能夠區(qū)分人類和人工智能編寫的文本的方法,以應對潛在的技術(shù)濫用。

索萊曼曾是OpenAI的人工智能研究員,為GPT-3的前身GPT-2的發(fā)布研究了人工智能模型的輸出檢測。

找到識別人工智能生成代碼的方法也至關(guān)重要,例如程序員常用的StackOverflow最近宣布暫時禁止發(fā)布由ChatGPT生成的回答。

ChatGPT可以自信地生成編程問題的答案,但它并非完全準確。錯誤的代碼會導致軟件錯誤,在許多領域,一個錯誤可能帶來高昂的代價并造成混亂。

StackOverflow發(fā)言人表示,該公司的審核員正在“使用包括啟發(fā)式和檢測模型在內(nèi)的多種工具,檢查數(shù)千份由社區(qū)成員提交的報告”,但不會透露更多細節(jié)。

實際上,實現(xiàn)這一目標非常困難,完全禁止人工智能的回答幾乎是不可能的。

研究人員嘗試了多種方法來檢測人工智能生成的文本。一種常見的方法是使用軟件來分析文本的不同特征——例如閱讀的流暢程度、某些單詞出現(xiàn)的頻率,或者標點符號、句子長度是否有規(guī)律。

“如果你有足夠多的文本,一個非常簡單的線索就是‘the這個詞過于頻繁的出現(xiàn),”谷歌大腦的高級研究科學家達芙妮·伊波利托解釋說。

由于大型語言模型通過預測句子中的下一個詞來工作,因此它們更有可能使用“the”“it”或“is”等常見詞,而不是不可靠的罕見詞。

伊波利托和谷歌研究人員在2019年發(fā)表的論文中發(fā)現(xiàn),這正是自動檢測系統(tǒng)擅長識別的文本類型。

但伊波利托的研究也顯示了一些有趣的東西:人類參與者傾向于認為,這種“干凈”的文本看起來更好,錯誤更少,因此它更像是人類寫的。

實際上,人類撰寫的文本通常會有拼寫錯誤,并且變化多端,包含不同的風格和俚語,而“語言模型很少出現(xiàn)拼寫錯誤,他們更擅長生成完美的文本,”伊波利托說。

“文本中的錯別字實際上是一個很好的指標,表明它是人寫的,”她補充道。

大型語言模型本身也可用于檢測人工智能生成的文本。不列顛哥倫比亞大學的自然語言處理和機器學習研究主席穆罕默德·阿卜杜勒-馬吉德說,最成功的方法之一是在一些由人類編寫的文本和一些由機器創(chuàng)建的文本上重新訓練模型,使它學會區(qū)分兩者。

與此同時,德克薩斯大學的計算機科學家斯科特·阿倫森一直在為GPT-3等模型生成的較長文本開發(fā)“水印”機制。他在博客中寫道,通過在詞匯選擇上加入“不引人注意的秘密信號”,人們就可以證明這段文字是GPT模型生成的。

OpenAI發(fā)言人證實,該公司正在研究水印,并且表示其政策規(guī)定用戶應該“以一種任何人都不會合理地漏看或誤解的方式”清楚地指出哪些是人工智能生成的文本。

但這些技術(shù)修復努力也存在一些問題。他們大多尚未有機會對抗最新一代的人工智能語言模型,因為它們是建立在GPT-2或其他早期模型之上的。

當有大量文本可供檢測時,許多檢測工具的效果不錯;但它們在某些具體場景的表現(xiàn)較差,例如聊天機器人或電子郵件助理,因為這些場景只有較短的對話,無法提供更多的數(shù)據(jù)用來分析。

阿卜杜勒-馬吉德還指出,使用大型語言模型進行檢測還需要強大的計算機,以及訪問人工智能模型本身,科技公司通常不會允許這樣做。

索萊曼表示,模型越大、性能越強大,就越難構(gòu)建對應的人工智能模型來檢測哪些文本是人寫的,哪些不是。

現(xiàn)在最令人擔憂的是,ChatGPT的輸出質(zhì)量非常令人印象深刻。檢測模型難以企及,只能在后面一直追趕,”她說。

索萊曼說,檢測人工智能編寫的文本沒有一個100%準確的方法?!皺z測模型不會成為合成文本的過關(guān)測試,就像安全過濾器不是減輕偏見的唯一手段,”她說。

為了有機會解決這個問題,我們需要改進技術(shù)修復手段并提高人類與人工智能交互時的透明度,人們還要學會如何識別藏在人工智能創(chuàng)造的文本中的痕跡。

伊波利托說:“如果有一個Chrome或其他網(wǎng)絡瀏覽器的插件,或許可以通過它讓你知道網(wǎng)頁上的任何文本是否是機器生成的。這將是一件非常好的事情?!?/p>

一些人已經(jīng)在努力。哈佛大學和IBM的研究人員開發(fā)了一種名為“大語言模型測試屋GiantLanguageModelTestRoom(GLTR)”的工具,它通過高亮顯示可能由人工智能生成的文字段落來幫助人們注意哪里有問題。

但是人工智能已經(jīng)可以將普通人玩弄于股掌之間了??的螤柎髮W的研究人員發(fā)現(xiàn),在66%的情況下,人們認為GPT-2生成的假新聞文章是可信的。

另一項研究發(fā)現(xiàn),未經(jīng)訓練的人識別GPT-3生成文本的準確率低得就像隨機選擇的差不多。

伊波利托說,好消息是人們可以接受訓練,以更好地識別人工智能生成的文本。她開發(fā)了一個游戲來測試在用戶意識到之前人工智能模型可以生成多少句子。她發(fā)現(xiàn)隨著時間的推移,人們會逐漸做得更好。

“如果你查看大量生成文本,并試圖找出其中沒有意義的地方,你就可以更好地完成這項任務,”她說。一種方法是發(fā)現(xiàn)那些難以置信的表述,比如人工智能會說煮一杯咖啡需要60分鐘。

ChatGPT的前身GPT-3在2020年才問世。OpenAI表示ChatGPT只是一個演示,但開發(fā)類似功能強大的模型,并將其應用到用于客服聊天機器人等產(chǎn)品中,只是時間問題。

這就是問題的癥結(jié)所在:該領域的飛速發(fā)展意味著,識別人工智能生成文本的許多方法都會很快過時。

猜你喜歡
萊曼波利人工智能
小熊波利
材料的選取之樂——柯迪·萊曼
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
你一定在別處
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
你一定在別處
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
中魔法的鉛字
神秘通靈
邯郸县| 来凤县| 皋兰县| 灵寿县| 西宁市| 石首市| 陈巴尔虎旗| 海淀区| 河池市| 屯留县| 云龙县| 静乐县| 竹溪县| 比如县| 古交市| 山阴县| 盘山县| 罗田县| 曲阜市| 翁源县| 开阳县| 宣汉县| 信宜市| 辰溪县| 永城市| 龙泉市| 斗六市| 贵阳市| 夏邑县| 延寿县| 德令哈市| 印江| 甘洛县| 吉安县| 裕民县| 内江市| 垣曲县| 乌海市| 手游| 泰兴市| 来安县|