2023年6月初,“美軍無人機‘反殺人類操作員”的傳聞在社交媒體上不脛而走。面對公眾對“人工智能叛亂”的擔憂,作為當事方的美國空軍不得不反復“辟謠”。
據(jù)美國商業(yè)內(nèi)幕網(wǎng)站和英國《衛(wèi)報》網(wǎng)站等媒體報道,5月下旬在英國倫敦舉行的“未來空天作戰(zhàn)能力峰會”期間,美國空軍人工智能測試和行動計劃主管官員塔克·漢密爾頓上校提到了一次模擬測試。漢密爾頓是佛羅里達州埃格林空軍基地第96測試與作戰(zhàn)大隊的負責人,該部隊負責美軍先進無人機和人工智能技術的測試工作,曾為F-16戰(zhàn)機開發(fā)自動防撞系統(tǒng), 以降低事故風險。2022年12月,美國五角大樓旗下的研究機構(gòu)“國防高級研究計劃局”宣布,人工智能已經(jīng)可以操控F-16戰(zhàn)機,并在與人類飛行員的模擬對抗中展現(xiàn)出壓倒性實力。
據(jù)漢密爾頓介紹,在一次模擬測試中,一架負責執(zhí)行防空火力壓制任務的無人機,收到了識別并摧毀敵方防空導彈的指令,但最終是否開火需要獲得人類操作員的批準。這架無人機使用的人工智能系統(tǒng)在進行數(shù)據(jù)訓練時,得到了“摧毀敵方防空系統(tǒng)”為最優(yōu)先級任務的信息,因此,當人類操作員發(fā)出不允許發(fā)動攻擊的命令時,人工智能系統(tǒng)認為操作員是在阻擾它執(zhí)行優(yōu)先程度更高的命令,進而選擇對自己的人類操作員發(fā)動攻擊,殺死了人類操作員。
“人工智能可能傷害人類”的觀點并不新奇,但這一次,美國軍方人士的背書引起了更強烈的不安。
漢密爾頓曾警告不要過分依賴人工智能。漢密爾頓去年接受《國防智庫》采訪時說:“人工智能不是一個好東西,這不是一種時尚,人工智能正在改變我們的社會和我們的軍隊?!?/p>
“ 我們必須面對一個人工智能已經(jīng)存在, 并正在改變社會的世界?!?漢密爾頓說,“人工智能也非常脆弱,很容易被欺騙和被操縱。我們需要開發(fā)更強大的技術,讓人工智能更可控。”
北美青年文化平臺“VICE”稱,漢密爾頓在“未來空天作戰(zhàn)能力峰會”上透露的消息印證了有關人工智能的危險假設:當被要求實現(xiàn)某個目標時,人工智能可能采取意想不到的有害行動。例如,一個強大的人工智能被指示制造盡可能多的回形針,那么為了集中所有可用的資源服務于這項任務,它會乞求、欺騙、撒謊或依靠偷竊提高自身的能力,任何阻礙這一過程的人都將被清除。
美國谷歌公司深度思考人工智能項目的工作人員在一篇論文中提出了相似的情況:如果人工智能被允許“消除所有障礙” 或“ 運用所有能量” 實現(xiàn)特定目標,最終可能導致世界末日。
面對媒體的質(zhì)詢和公眾的批評,美國空軍在事發(fā)一周后做出了回應。美國福克斯新聞網(wǎng)援引軍方發(fā)言人安·斯特凡內(nèi)克的一份聲明說,美國空軍從未進行過基于人工智能的無人機模擬測試,而是致力于“有道德并負責任地使用人工智能技術”。這位發(fā)言人強調(diào),“漢密爾頓上校的言論似乎被斷章取義了,某些人只是為了制造逸聞趣事?!?/p>
塔克·漢密爾頓出面澄清說,自己在會議發(fā)言中“用詞不當”?!拔覀儚奈催M行過那樣的實驗,也不需要為了一個似是而非的結(jié)果而進行實驗?!彼嬖V會議主辦方“英國皇家航空學會”,“雖然這只是個虛構(gòu)的案例,但它說明了人工智能帶來的現(xiàn)實挑戰(zhàn)”。
軍方否認進行過實際測試,但美國“防務一號”網(wǎng)站注意到,一些行業(yè)領袖最近簽署了一封聯(lián)名信,警告人工智能構(gòu)成了“威脅”,其危險性與流行病或核戰(zhàn)爭近似。
美國《福布斯》雜志網(wǎng)站評論稱,軍方的“辟謠”來得太遲。在先入為主的社交媒體時代,官方的自我辯解往往只能影響一小部分人。
《福布斯》雜志網(wǎng)站認為,“‘被造物背叛造物主 的橋段永遠不會過時,從《弗蘭肯斯坦》到《終結(jié)者》,再到《銀翼殺手》《西部世界》《黑客帝國》,‘墮落的人工智能的形象在虛構(gòu)作品中仿佛無處不在,并因為對現(xiàn)實的影射而越來越深入人心”。