殷格非 《WTO經(jīng)濟(jì)導(dǎo)刊》首席顧問
人類即將要進(jìn)入的人工智能時(shí)代是一個(gè)什么樣的生活場景呢?
簡單地講,人工智能將會(huì)成為我們?nèi)粘I畈豢苫蛉钡囊徊糠?。人工智能就像互?lián)網(wǎng)、就像水和電一樣滲透到生活和工作的每一個(gè)方面。當(dāng)然也要滲透到社會(huì)責(zé)任工作的每個(gè)方面。據(jù)有關(guān)專家研究,人工智能將會(huì)使社會(huì)責(zé)任履行變得更加容易和高效,比如區(qū)塊鏈技術(shù)跟供應(yīng)鏈結(jié)合起來就會(huì)讓供應(yīng)鏈社會(huì)責(zé)任履行變得更加透明,并且履責(zé)的行為和績效將被記錄并不可更改。
在帶來巨大好處的時(shí)候,這也會(huì)存在潛在的風(fēng)險(xiǎn)和不利影響。而且這種潛在的風(fēng)險(xiǎn)和不利影響,如果不加以管理,可能完全超出我們的想象。如剛剛離世的著名學(xué)者史蒂芬·霍金曾說:“人工智能的崛起可能是人類文明的終結(jié)”。這說明人工智能的發(fā)展對我們?nèi)祟惖挠绊憣?huì)非同一般。人工智能的影響究竟幾何?有的專家認(rèn)為人工智能的發(fā)展要么讓人類永生,要么讓人類滅亡??梢哉f,人類每一次技術(shù)的飛躍,都會(huì)帶來人類的大發(fā)展,同時(shí)也給人類自身帶來巨大的風(fēng)險(xiǎn)和問題。這也說明要重視人工智能影響的管理,將成為擺在社會(huì)責(zé)任業(yè)界的新課題。
從技術(shù)發(fā)展層面來講,人工智能發(fā)展一般可分為弱人工智能、通用人工智能和超級人工智能三個(gè)階段。弱人工智能還無法達(dá)到人類的智力水平,即人工智能在人類的控制下在特定領(lǐng)域使用,解決特定問題。但弱人工智能同樣影響巨大。比如人工智能在工業(yè)上大規(guī)模使用,將會(huì)導(dǎo)致工作崗位被機(jī)器人取代。如果像有的專家預(yù)測的那樣,將來95%的工作崗位都會(huì)被人工智能取代。如果大部分人在大部分時(shí)間都沒有工作,這個(gè)社會(huì)是一個(gè)怎樣的狀態(tài),顯然我們自己還沒準(zhǔn)備好。再如,在軍事化用途上,將人工智能用于生產(chǎn)更高效的無人機(jī)殺人武器,追求的是不再需要人來指出攻擊目標(biāo)即可自動(dòng)判定目標(biāo)并執(zhí)行攻擊。
在通用人工智能階段,人工智能將從狹窄的、特定領(lǐng)域的智能邁向更通用的智能,這個(gè)時(shí)候這些機(jī)器能在沒有編碼特定領(lǐng)域知識的情況下解決不同種類的問題,甚至能像人一樣做出判斷和決策。比如,谷歌Alphabet旗下的子公司DeepMind開發(fā)的Alphabet Zero作為圍棋弈者從零開始,面對的只是一張空白棋盤和游戲規(guī)則,通過自學(xué)使自己的游戲技能得以提高,而不是通過輸入人類的對弈棋譜來訓(xùn)練自己。這代表著人類在建造真正智能化機(jī)器方面向前邁進(jìn)了一步,因?yàn)榧词乖跊]有大量訓(xùn)練數(shù)據(jù)的情況下,機(jī)器也能根據(jù)規(guī)則和目的需要找出解決困難問題的方法。這在某種程度上似乎具備了所謂的“自覺意識”。有的專家認(rèn)為,即使沒有像人一樣的自覺意識,但人類也面臨將這個(gè)世界的管理權(quán)讓渡給人工智能。隨著人工智能的進(jìn)化,他們終將認(rèn)識到人類是這個(gè)世界的負(fù)擔(dān),最后理性的結(jié)果或許是清除行尸走肉的人類。一份最近的專家調(diào)查顯示,可能是 2040-2050 年左右,有50%的概率實(shí)現(xiàn)人類水平的通用智能。
從技術(shù)發(fā)展的終極層面來講,如果人的思維也是從無思維的物質(zhì)開始生成的,人的意識又是從思維開始的,那么從純理論上來講,人工智能零部件也是無思維的物質(zhì),而這些無思維的物質(zhì)最終也可能會(huì)像人一樣有思維,進(jìn)而也可能會(huì)像人一樣具有自我意識。從而最終可能成為像人一樣的一個(gè)智能物種。這就是所謂的超級人工智能時(shí)代。這個(gè)時(shí)候人類面臨的挑戰(zhàn)就更加不可預(yù)測了。因?yàn)橛械膶<翌A(yù)計(jì),這種超級的人工智能有可能反叛人類,而跟人類來競爭、來較勁,甚至發(fā)生超級智能和人類之間的戰(zhàn)爭。這種超級智能甚至能思考人類存在于地球的必要性和合理性。
綜上所述,無論是弱人工智能,還是通用智能以及超級人工智能,其潛在的風(fēng)險(xiǎn)巨大。作為發(fā)展這種人工智能主體的人來講有責(zé)任管理好潛在風(fēng)險(xiǎn)和負(fù)面影響。在弱人工智能階段,人工智能的各相關(guān)方是責(zé)任主體。這樣看來,涉及到人工智能的各個(gè)相關(guān)方的社會(huì)責(zé)任問題。人工智能研發(fā)者、相關(guān)產(chǎn)品和服務(wù)的生產(chǎn)者、銷售和服務(wù)者,也包括使用者以及政府監(jiān)管部門等各相關(guān)方都肩負(fù)著重要的社會(huì)責(zé)任,防范人工智能的風(fēng)險(xiǎn)和負(fù)面作用。
首先,要遵循有益于人類的原則。樹立人工智能要服務(wù)于人們美好生活的理念和意識。也就是人工智能的研究與開發(fā)要著眼于有益的智能方向去做。
第二,研發(fā)人工智能要遵循透明度原則。特別是研究的目的、目標(biāo)和功能要向相關(guān)方和社會(huì)公開公布,以便接受社會(huì)責(zé)任監(jiān)督,防止人工智能的研發(fā)走偏方向。
第三,利益相關(guān)方原則。要加強(qiáng)相關(guān)方之間的交流和信任,尊重回應(yīng)利益相關(guān)方的利益和所求。比如研發(fā)者與政策制定部門要加強(qiáng)交流,適時(shí)出臺相關(guān)的政策和要求,對人工智能的研發(fā)加以引導(dǎo)和規(guī)范;在利用大數(shù)據(jù)時(shí)要尊重相關(guān)方的合法權(quán)益和隱私,還要做到責(zé)權(quán)利相匹配。
第四,擔(dān)責(zé)原則。人工智能的研發(fā)和生產(chǎn)者是人工智能的權(quán)益人,更重要的是其責(zé)任人,對人工智能的濫用要承擔(dān)責(zé)任。確保人工智能的質(zhì)量,一是要避免明顯的安全缺陷;二是發(fā)生人工智能故障或者損害時(shí),應(yīng)當(dāng)可以查明原因。這樣一方面防止意外發(fā)生,另一方面,也能促進(jìn)業(yè)界共享,防止類似的錯(cuò)誤或者損害發(fā)生。
第五,道德倫理原則。人工智能的開發(fā)者要賦予人工智能以與人類相同的價(jià)值觀。這樣人工智能的目的和行為是在可以控制的范圍。
第六,審慎原則。對于在要開發(fā)的人工智能的潛在風(fēng)險(xiǎn)和負(fù)面影響不能有效評估的情況下,要采取謹(jǐn)慎的態(tài)度,不能冒昧地推進(jìn)。
第七,尊重人權(quán)的原則。人工智能的設(shè)計(jì)和運(yùn)作應(yīng)尊重人權(quán),要符合人類尊嚴(yán),權(quán)利,自由和文化多樣性的理念。
第八,共享的原則。人工智能技術(shù)應(yīng)該盡可能地使更多人受益,要盡量讓更多人更廣泛的共享,造福全人類。
第九,雙主體責(zé)任原則。在通用人工智能以及超級人工智能階段,除了人工智能相關(guān)方承擔(dān)相應(yīng)的社會(huì)責(zé)任外,人工智能系統(tǒng)本身作為一個(gè)智能體也應(yīng)作為責(zé)任主體加以規(guī)范。
編輯|李薔薇 qiangwei.li@wtoguide.net