日前,來自數(shù)百家公司的2000多名科學(xué)家聯(lián)名簽署宣言,宣誓絕不參與致命性自主武器系統(tǒng)的開發(fā)、研制工作。這是學(xué)界針對“殺人機器人”最大規(guī)模的一次集體發(fā)聲。人工智能AI與人類的命運,再一次因為自主武器而被推上了輿論風(fēng)口。
“硅谷鋼鐵俠”埃隆·馬斯克(美國太空探索技術(shù)公司SpaceX創(chuàng)始人)是當(dāng)今科技界的明星,就連日前泰國洞穴救援遇到困難,網(wǎng)友們都第一時間想到向馬斯克求助。在大多數(shù)人的眼里,馬斯克始終走在行業(yè)前列,善于發(fā)明創(chuàng)造,如果說誰最能接受新生事物,馬斯克應(yīng)該會是很多人的答案。
然而,面對如今炙手可熱的人工智能AI,馬斯克卻幾度發(fā)聲,對AI可能帶來的惡果表示擔(dān)憂,成為AI悲觀派的代表人物。日前,在瑞典斯德哥爾摩舉辦的2018國際人工智能聯(lián)合會議上,來自數(shù)百家公司的2000多名科學(xué)家聯(lián)名簽署《致命性自主武器宣言》,宣誓絕不參與致命性自主武器系統(tǒng)的開發(fā)、研制工作,馬斯克也名列其中。
這也是學(xué)界針對“殺人機器人”最大規(guī)模的一次集體發(fā)聲。AI與人類的命運,再一次因為自主武器而被推上了輿論風(fēng)口。
危險的AI,馬斯克多次警告
來自數(shù)百家公司的2000多名科學(xué)家,其中許多是機器人和人工智能領(lǐng)域的著名的研究人員和工程師。他們承諾:在世界上的任何一個國家,自主武器都對公民構(gòu)成了“明顯而現(xiàn)實的危險”。
馬斯克也多次在公開場合表示,人類發(fā)展人工智能的過程是在召喚惡魔。他警告說人工智能可能比禽流感可怕得多。這并非他臨時起意,他已反復(fù)在多個場合表達(dá)對人工智能的擔(dān)憂,在社交網(wǎng)絡(luò)推特上他則表示“人工智能可能比核武器更加危險,未來人工智能可能會毀滅人類”。
馬斯克認(rèn)為政府監(jiān)管可能是一個好辦法?!叭斯ぶ悄芫褪俏覀兩娴淖畲笸{。我越來越傾向于事情要有一定的監(jiān)管,在國家和國際層面確保我們不會做一些很愚蠢的事情?!?/p>
AI在軍事系統(tǒng)中扮演越來越重要的角色
一年前,馬斯克和谷歌AI專家蘇萊曼等116名全球人工智能和機器人領(lǐng)域的專家就曾聯(lián)名發(fā)表公開信,呼吁聯(lián)合國采取行動禁止自主殺人機器,稱其為“恐怖武器”。專家們認(rèn)為,AI越發(fā)達(dá),機器越厲害,殺傷力就越強。就算機器程序是人類編出來的,面對越來越強大的人工智能,人類控制機器的力量越來越有限,而心懷鬼胎的人利用機器帶來的破壞力就越來越強大。
所以,隨著AI在軍事系統(tǒng)中扮演越來越重要的角色,區(qū)分AI可接受的用途和不可接受的用途變得更加迫在眉睫。自主殺人武器就像一個潘多拉盒子,充滿了誘惑,“一旦這個潘多拉的盒子被打開,就很難再次關(guān)上”,專家們警告說。
美國政府在全球范圍內(nèi)使用升級的軍用無人機后,工程師和科學(xué)家們警告說,自主機器很容易受到黑客的攻擊,它們可能被劫持,進(jìn)而攻擊無辜的人群;并且,它們不可避免地很容易就會被惡意攻擊者獲得,或者惡意攻擊者能夠自己制造這類武器。
為了演示在自主殺人武器的威脅下的生活,發(fā)起這次宣誓行動的生命未來研究所協(xié)助制作了一個名為“Slaughterbots”(《屠殺機器人》)的影片,視頻中的一個片段描繪了數(shù)千名大學(xué)生被殺人機器人屠殺的景象。這些學(xué)生在社交媒體上分享了一段揭露腐敗的視頻后,被不知名的“黑影人”盯上,機器通過面部識別系統(tǒng)識別學(xué)生的身份,進(jìn)而實施屠殺。
《致命性自主武器宣言》簽署后,簽署者將進(jìn)一步敦促8月聯(lián)合國會議針對自主武器問題在各國之間達(dá)成一致承諾,促使各國禁止自主武器研發(fā)。
對“殺人機器人”的擔(dān)憂是多余的嗎
馬斯克對于“殺人機器人”的擔(dān)憂不外乎三種情況:一是機器成為一個新物種,具有進(jìn)化能力,具有自我意識之后與人類成為敵人或者對手;二是人工智能在一個引爆點到來時失控;三是人工智能被“壞人”利用來對付人類自己。
馬斯克的擔(dān)憂不是多余的,然而,縱觀人類歷史,每一項革命性技術(shù)出現(xiàn)總會受到抵制,或者說恐懼。
1814年,美國工人斯蒂芬發(fā)明了蒸汽機車,便遭到傳統(tǒng)勢力的反對,有人譏笑它不如馬車好,說它聲音讓牛吃不了草、產(chǎn)不了奶,雞鴨也因為受驚下不了蛋,煙氣有毒能殺絕飛鳥,火星四濺能引起火災(zāi),要是萬一氣鍋爆炸,乘客小命不保。同樣核能出現(xiàn)之時更是有人驚呼,世界末日就要來臨。
新技術(shù)在讓世界更美好的同時,確實蘊藏著一定的風(fēng)險,或者會帶來負(fù)面作用,甚至一些新技術(shù)本來就是懷揣著“惡意”的目的去研發(fā)。而此時此刻每個人都在使用的互聯(lián)網(wǎng)還存在著信息失控、信息泛濫、隱私泄露這些消極影響。
人工智能跟上述技術(shù)并沒有什么兩樣。人類既然有智慧去創(chuàng)造新技術(shù),便應(yīng)該有信心去駕馭它。
世界上有樂觀主義者,也有悲觀主義者,關(guān)于機器人或者人工智能是否會消滅人類的爭論一直無休無止。人們對新技術(shù)的恐懼不一定是無知。對未知的恐懼和對潛在危險的憂慮,是人類本能。當(dāng)然,有時候新技術(shù)遭致抵觸是因為觸犯了一些人的既得利益。無論如何,抵觸本身是有價值的,它讓整個事情發(fā)展更加平和有序,而不是激進(jìn)甚至瘋狂。但任何新技術(shù)從來都不會被恐懼所遏制,人類為了更美好的明天,一直在上下求索。
(《環(huán)球科學(xué)》2018年第7期等)