Claire
Farhad Manjoo自2018年成為《紐約時(shí)報(bào)》專欄作者,主要關(guān)注科技產(chǎn)業(yè)對(duì)世界的影響。在此之前,他曾為《時(shí)代》《快公司》和《華爾街日?qǐng)?bào)》寫(xiě)作。
ChatGPT給人留下的第一印象十分迷人。它幽默感驚人,模仿能力絕佳,在押韻方面也相當(dāng)有一手。它的觀點(diǎn)還非常合理。要是ChatGPT沒(méi)能通過(guò)圖靈測(cè)試,那大概率是因?yàn)樗裁词虑槎疾话l(fā)表自己的意見(jiàn)。上一次有人在互聯(lián)網(wǎng)上拒絕談?wù)撟约旱恼鎸?shí)想法,是什么時(shí)候?
幾周前,當(dāng)人工智能公司OpenAI推出了ChatGPT這款機(jī)器人,作為其大型語(yǔ)言模型工作的“研究預(yù)覽”(research preview)時(shí),我開(kāi)始跟它聊天。語(yǔ)言模型是一種人工智能系統(tǒng),通過(guò)大量的文本學(xué)習(xí)來(lái)捕捉詞匯之間可能存在的聯(lián)系。ChatGPT是一種經(jīng)過(guò)優(yōu)化的語(yǔ)言模型,其目標(biāo)就是為了探索AI技術(shù)領(lǐng)域長(zhǎng)期的“圣杯”——一臺(tái)能與人類對(duì)話的計(jì)算機(jī)。
ChatGPT確實(shí)做到了這一點(diǎn)。我一生中跟許多計(jì)算機(jī)聊過(guò)天(我知道這很奇怪),但ChatGPT是我遇到的第一個(gè)堪稱有趣的聊天對(duì)象。起初,我只是說(shuō)一些瑣事,但沒(méi)過(guò)多久,我們就展開(kāi)了深入的對(duì)話,比如:美聯(lián)儲(chǔ)在美國(guó)經(jīng)濟(jì)中的作用;意識(shí)的本質(zhì);“woke”(編注:原為非裔美國(guó)人的俚語(yǔ),后來(lái)用于指“對(duì)種族歧視和偏見(jiàn)保持警覺(jué)”)和“Karen”(編注:一個(gè)姓名梗,指歧視有色人種的中年白人女性)之類的新詞;養(yǎng)育子女的道德困境;怎么為罷工同事提供支持;氣候變化、墮胎和疫苗安全;熱狗算不算三明治,等等。
說(shuō)到這里,也許我應(yīng)該告訴你們——我對(duì)ChatGPT抱有一種敬畏或害怕的心態(tài),因?yàn)樗鼘?huì)徹底改變或毀滅我們的世界。但是,盡管我認(rèn)為ChatGPT揭示了AI的一些危險(xiǎn)性,我拒絕對(duì)它給予強(qiáng)烈的贊揚(yáng)或是譴責(zé)。
就像大多數(shù)雞尾酒會(huì)上的閑聊一樣,它的潛在利弊,至少就目前而言,都是相當(dāng)有限的。我毫不懷疑像ChatGPT這樣的東西可能會(huì)被濫用。它有可能會(huì)導(dǎo)致一些貌似科學(xué)的錯(cuò)誤信息的病毒性傳播,可能會(huì)降低學(xué)生論文作弊的難度。
ChatGPT最大的特點(diǎn)就是它很謙虛。這種謙遜讓它成了一款不同尋常的數(shù)字助手。
但OpenAI似乎正在解決這些問(wèn)題。在一次采訪中,OpenAI的首席技術(shù)官米拉·穆拉蒂(Mira Murati)表示,該公司正在仔細(xì)監(jiān)控人們?cè)谌绾问褂煤蜑E用它,迅速完善系統(tǒng)來(lái)填補(bǔ)一些明顯的漏洞,并根據(jù)用戶反饋不斷改進(jìn)它。
事實(shí)上,ChatGPT對(duì)自身局限性的認(rèn)知,正是其最有趣的性格特征之一。
與ChatGPT之間的許多對(duì)話都會(huì)變成這樣:當(dāng)你打算認(rèn)可它的說(shuō)法時(shí),它就會(huì)轉(zhuǎn)向高度謹(jǐn)慎的態(tài)度,宛如最高法院大法官候選人在其確認(rèn)聽(tīng)證會(huì)上表現(xiàn)出的那樣。它通常會(huì)提醒你,關(guān)于這件事還有其他說(shuō)法,也許不存在一個(gè)明確的“正確”答案,以及你應(yīng)該試著欣賞不同的觀點(diǎn)。
在針對(duì)一些科學(xué)話題時(shí),ChatGPT似乎更為篤定一些。例如,它會(huì)說(shuō)“氣候變化是真實(shí)存在的、正在發(fā)生的現(xiàn)象”,進(jìn)化論“得到了來(lái)自許多不同領(lǐng)域的大量科學(xué)證據(jù)的支持”,以及地球當(dāng)然不是平的。不過(guò),總的來(lái)說(shuō),ChatGPT會(huì)坦白告訴你自己無(wú)法提供一個(gè)確定的答案。
為什么說(shuō)ChatGPT的這一特征非常驚艷?眾所周知,人工智能研究存在的兩個(gè)問(wèn)題分別是保持“一致性”和避免“幻覺(jué)”。一致性涉及到人工智能實(shí)現(xiàn)其人類創(chuàng)造者目標(biāo)的能力,換句話說(shuō),就是拒絕對(duì)世界造成破壞;幻覺(jué)則跟堅(jiān)持真理有關(guān)——當(dāng)人工智能系統(tǒng)困惑不解時(shí),它們有一個(gè)壞習(xí)慣,就是會(huì)編造一些事情,而不是承認(rèn)自己遇到了困難。為了解決這兩個(gè)問(wèn)題,OpenAI的研究人員微調(diào)了ChatGPT的語(yǔ)言模型,名為“從人類反饋中強(qiáng)化學(xué)習(xí)”(Reinforcement learning from human feedback)。該公司雇用了真人與機(jī)器人互動(dòng)。當(dāng)人類與它聊天時(shí),他們會(huì)對(duì)它的反應(yīng)評(píng)級(jí),這本質(zhì)上是在教它:什么樣的反應(yīng)是好的反應(yīng),什么樣的不是。
穆拉蒂告訴我,語(yǔ)言模型與人類反饋的結(jié)合,創(chuàng)造出了一個(gè)更逼真的人工智能對(duì)話伙伴,“這個(gè)模型可以分辨對(duì)錯(cuò),”她說(shuō),“它可以順著你的話題繼續(xù)提問(wèn),也會(huì)質(zhì)疑不正確的假設(shè)或拒絕不合適的請(qǐng)求。”
ChatGPT還遠(yuǎn)遠(yuǎn)算不上完美。Twitter上充斥著“破解”ChatGPT的例子,或者說(shuō),誘騙它產(chǎn)生幻覺(jué)或錯(cuò)位的例子。
外界針對(duì)像ChatGPT這樣由“深度學(xué)習(xí)”計(jì)算技術(shù)構(gòu)建的系統(tǒng)的一個(gè)主要批評(píng)是,它們只不過(guò)是增強(qiáng)版本的自動(dòng)更正技術(shù),所理解的只是單詞之間的統(tǒng)計(jì)聯(lián)系,而不是單詞背后的概念。紐約大學(xué)心理學(xué)榮譽(yù)教授、深度學(xué)習(xí)懷疑論者加里·馬庫(kù)斯(Gary Marcus)表示,雖然像ChatGPT這樣的人工智能語(yǔ)言模型可以說(shuō)一些漂亮話,但它“仍然不可靠,仍然不了解物理世界,仍然不理解心理世界,仍然會(huì)產(chǎn)生幻覺(jué)”。
不過(guò),與此同時(shí),ChatGPT最大的特點(diǎn)就是它很謙虛。一天下午,我受夠了它不斷提醒我說(shuō),自己的答案可能是錯(cuò)的,我問(wèn)它:“要是不管你說(shuō)了什么,我都得確認(rèn)一遍你說(shuō)得對(duì)不對(duì),那要你有什么用?這話可能有些不中聽(tīng),不好意思?!?/p>
而它表示過(guò)意不去,“我無(wú)意成為一個(gè)確定的信源,我的職責(zé)不是替代那些專業(yè)的建議和知識(shí)。我在這里只是為了輔助提供一些有效信息,但最終還是需要用戶自己對(duì)這些信息做核實(shí)和評(píng)估?!?/p>
這種謙遜讓ChatGPT成了一款不同尋常的數(shù)字助手。你很少能在網(wǎng)上看到有人承認(rèn)自己也許是錯(cuò)的。如果人工智能可以做到的最好的事情就是承諾自己會(huì)做得更好,那我愿意接受它。
版權(quán)聲明:本欄目?jī)?nèi)容由《紐約時(shí)報(bào)》提供版權(quán)。