項(xiàng)立剛
斯蒂芬·霍金、馬斯克等人曾在國(guó)際人工智能聯(lián)席會(huì)議上,支持通過(guò)禁止不受人類(lèi)有意識(shí)控制的進(jìn)攻性自主武器,來(lái)阻止人工智能軍備競(jìng)賽的提議。筆者認(rèn)同他們的觀點(diǎn),也認(rèn)為在必要時(shí)應(yīng)簽署一個(gè)公約來(lái)約束人工智能軍事化。
人類(lèi)今天要保衛(wèi)自己,可利用的武器已經(jīng)太多了,對(duì)于核武器的管控早已是大問(wèn)題,我們并不需要在常規(guī)武器之外,還把人工智能用于武器。
人工智能最大的價(jià)值在于低成本、高效率、密集性,通過(guò)大數(shù)據(jù)、智能學(xué)習(xí)迅速提升其能力。人類(lèi)對(duì)人工智能的把握和控制力又是薄弱和未知的。今天已經(jīng)有大量的無(wú)人機(jī)、智能機(jī)器人被用于軍事行動(dòng),而未來(lái)所謂“不需要人類(lèi)干預(yù)就能選擇目標(biāo)和交戰(zhàn)的武器”,對(duì)于人類(lèi)社會(huì)產(chǎn)生的威脅變得不可預(yù)知。表面上,這些智能機(jī)器人或是無(wú)人機(jī)作戰(zhàn),會(huì)減少士兵的傷亡,但是這些智能機(jī)器人和無(wú)人機(jī)的攻擊對(duì)象是誰(shuí)?主要還是人類(lèi)。
人工智能武器最復(fù)雜的問(wèn)題,在于它的廉價(jià)與不可控。不像核武器制造需要極高的技術(shù),很難獲得的原料以及高昂成本。人工智能武器便于大規(guī)模生產(chǎn),并通過(guò)多種渠道流通。最近我們已經(jīng)看到在敘利亞戰(zhàn)場(chǎng)出現(xiàn)了由民用無(wú)人飛機(jī)改造而成,攜帶了榴彈攻擊型的無(wú)人機(jī),一架無(wú)人機(jī)和一支步槍的價(jià)格相近,可以大批量生產(chǎn),很容易獲得。
人工智能武器的不可控性還在于,即使由技術(shù)大國(guó)生產(chǎn)出不需要人類(lèi)干預(yù)就能選擇目標(biāo)和交戰(zhàn)的武器,但這類(lèi)武器受人類(lèi)控制的可能性是未知的,在大量人工智能介入,擁有了強(qiáng)大的學(xué)習(xí)能力之后,它會(huì)怎么選擇攻擊目標(biāo),我們一無(wú)所知,無(wú)人能保證它會(huì)被有效控制,不會(huì)人為復(fù)制。
因此,在人工智能武器還沒(méi)成為下一個(gè)“原子彈”之時(shí),大國(guó)首先需要擔(dān)起責(zé)任,在國(guó)際上形成一個(gè)類(lèi)似于禁止化學(xué)和生物武器國(guó)際協(xié)定一樣的公約,禁止把人工智能用于軍事,而不能單靠科學(xué)界的“良心”。如果有一天,大量小型、低成本、不可控的殺人機(jī)器泛濫成災(zāi),甚至出現(xiàn)人工智能武器逃避人類(lèi)監(jiān)管的情況,再談管理和控制已經(jīng)太晚了?!?/p>
(作者是信息消費(fèi)聯(lián)盟理事長(zhǎng))