尹傳紅
是否應(yīng)該發(fā)展最終可能超過并取代我們的非人類思維?是否應(yīng)該冒險失去對文明的控制?
開春以來,與人工智能(AI)相關(guān)的幾大新聞事件幾乎同時發(fā)生,引發(fā)了多個層面的憂思和倫理議題。
這當(dāng)中,最令人咋舌的,要數(shù)足以亂真的美國前總統(tǒng)特朗普被捕照片在互聯(lián)網(wǎng)上瘋傳,真實信息和虛假信息之間的界限變得越發(fā)模糊;更因大量轉(zhuǎn)發(fā)后往往缺失“由AI生成”這一關(guān)鍵背景信息,不能不令人產(chǎn)生疑慮:虛構(gòu)AI圖像這類事情極易被別有用心之人利用,成為發(fā)動虛假信息戰(zhàn)的武器,而不僅僅是對新聞?wù)鎸嵉钠茐男曰驎粫o攝影師帶來職業(yè)危機這些問題了。
與之多有關(guān)聯(lián)的是文本生成視頻的誕生:紐約一位軟件架構(gòu)師在電腦上輸入了一段簡短的文字,描述他想看到的視頻內(nèi)容:“森林中一條寧靜的河流”。不到兩分鐘后,一個實驗性互聯(lián)網(wǎng)程序就生成了一段短視頻:流動的河水在陽光下閃閃發(fā)光,它穿過森林和蕨草叢,拐了一個彎,輕輕地撞擊著巖石。
這一逼真的場景,實則也預(yù)示了諸科技巨頭競相開發(fā)AI新系統(tǒng)之未來,并且同樣令人喜憂參半:新的視頻生成系統(tǒng)可以加速電影制片人和其他數(shù)字藝術(shù)家的工作,也會成為一種快速制造難以察覺的網(wǎng)絡(luò)虛假信息的新方式,讓人更難辨別互聯(lián)網(wǎng)上的真實信息,甚而使得“深度偽造技術(shù)目前所帶來的問題可能會變得更為嚴(yán)重”。
恰恰就在這一波熱鬧中,“出事”了。3月底,當(dāng)世界各地數(shù)以百萬計的人登錄ChatGPT(聊天生成預(yù)訓(xùn)練轉(zhuǎn)換器),用它來創(chuàng)作歌曲、修改電腦代碼或是在家庭作業(yè)中作弊時,網(wǎng)站因龐大的用戶訪問量導(dǎo)致崩潰。有些登錄者遇到了一件怪事:系統(tǒng)中的一個漏洞把一些用戶的個人詳細信息隨機發(fā)送給了其他用戶,釀成了一起嚴(yán)重的數(shù)據(jù)泄露事件。意大利負責(zé)監(jiān)管數(shù)據(jù)的機構(gòu)指責(zé)開發(fā)ChatGPT的開放人工智能研究中心(OpenAI)未能遵守用戶數(shù)據(jù)保護法規(guī),遂于3月31日宣布將禁止在其境內(nèi)使用ChatGPT,成為第一個對利用人工智能的聊天機器人采取行動的西方國家。
盡管有人批評意大利對ChatGPT的“條件反射式”禁令有些草率,不愿承擔(dān)風(fēng)險,也憂心此舉給創(chuàng)新帶來阻礙,并提醒政府應(yīng)理智地評估怎樣才能利用ChatGPT這樣的技術(shù)來做有益的事情,但ChatGPT確實在更大范圍內(nèi)引發(fā)了關(guān)切。已有人初步歸攏了它可能帶來的九大風(fēng)險:不準(zhǔn)確的信息、隱私問題、生成“釣魚”郵件、帶偏見的內(nèi)容、取代工作、剽竊、創(chuàng)建惡意軟件、過度依賴、內(nèi)容局限性。
似乎,又一個潘多拉魔盒被打開了!用一位人工智能研究先驅(qū)的話說:“社會還沒有準(zhǔn)備好”接受這種性能強大的工具及其可能的濫用。前不久,特斯拉首席執(zhí)行官埃隆·馬斯克、蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克以及其他1000多人簽署了一封公開信,要求在AI技術(shù)變得日益強大之際,為其設(shè)置安全護欄,并暫停訓(xùn)練更先進的AI模型?!爸挥性谖覀兇_信它們的影響是積極的、風(fēng)險是可控的情況下才應(yīng)該開發(fā)”。他們還發(fā)出了這樣的疑問:是否應(yīng)該發(fā)展最終可能超過并取代我們的非人類思維?是否應(yīng)該冒險失去對文明的控制?
一場深刻的社會、經(jīng)濟與政治變化,已在潛伏之中。