陳墨
在2015年舉行的倫敦“谷歌時代精神”大會上,斯蒂芬·霍金描述了人類的命運:“在未來100年內(nèi),結(jié)合人工智能的計算機將會變得比人類更聰明?!?/p>
出席美國脫口秀節(jié)目時,斯蒂芬·霍金還講了一個“恐怖”故事。
“世上真的有上帝嗎?”科學(xué)家用顫抖的聲音問道?!艾F(xiàn)在有了?!笔澜缟献盥斆鞯娜斯ぶ悄茈娔X回答。話畢,一道電光閃過它的電源插頭——人們再也關(guān)不掉它了。
主持人約翰·奧利弗聽得瞪大了眼睛。和地球上大多數(shù)人一樣,他也相信,當(dāng)人類真要與人工智能作戰(zhàn)時,切斷它們的電源就足以制敵了。
2016年年初,斯蒂芬·霍金在一封提倡控制人工智能發(fā)展的公開信上簽下自己的名字。在那封公開信上,微軟創(chuàng)始人比爾·蓋茨、特斯拉汽車公司與美國太空探索技術(shù)公司CEO伊隆·馬斯克的名字也赫然在列。
人類一手創(chuàng)造并用“智慧”武裝了敵人
幾位人類科技界“頂梁柱”擔(dān)心的“人機大戰(zhàn)”,很可能已經(jīng)悄悄冒出硝煙的味道。在上傳至YouTube的一段視頻中,一只名為Spot的機器狗協(xié)調(diào)地運動著白色的四肢,像真正的狗一樣行走。為了證明它的堅固,有人沖出來,對準它的腹部結(jié)結(jié)實實地踢了一腳。機器狗一個趔趄,一邊發(fā)出急促的吱吱聲,一邊緊踏幾步保持平衡。
這段“虐狗”視頻引發(fā)了熱議。有網(wǎng)友評論:“這就是世界結(jié)束的方式。不是大爆炸,而是在被你踢了之后,機器狗轉(zhuǎn)身撲向你?!?/p>
在現(xiàn)實世界里,人類也正處在人工智能的包圍中:拿起手機,可與虛擬助手Siri對話;想要出門,可乘無人駕駛汽車兜風(fēng);走進醫(yī)院,超級電腦沃森醫(yī)生正在“坐診”。
戰(zhàn)爭可能在某一天悄悄打Ⅱ向。電腦擅自替你做出拋售股票的決定,或者無人駕駛汽車突然決定在高速路上歇腳。之后的情況將超出“故障”的范疇,演變成災(zāi)難。
在憂心忡忡的科學(xué)家們看來,這將是一場前所未有的戰(zhàn)爭。人類一手創(chuàng)造了自己的敵人,并用自己最強大的武器——智慧,為它武裝。
斯蒂芬·霍金說:“我認為我們無法再在這個脆弱的星球上生活1000年。”他認為,受困于緩慢的進化速度,人類無力與飛速發(fā)展的人工智能抗衡,最終,“人工智能的全面發(fā)展將導(dǎo)致人類的滅絕”。他甚至主張人類去其他星球“殖民”,以保證種群的延續(xù)。
百度公司首席科學(xué)家吳恩達則認為,現(xiàn)在為人工智能的負面影響擔(dān)憂,就像擔(dān)心火星上人口過剩一樣遙不可及。
伊隆·馬斯克卻無法對此視而不見。這位億萬富翁已經(jīng)開始“站崗放哨”。他為一家名為“Deep Mind”的人工智能公司注入資金,只是為了“盯著這種技術(shù)的走向”。
人工智能擁有成為“終結(jié)者”的潛力
一位高級認知機器人學(xué)研究者正面臨著頗為糾結(jié)的教育問題。與不知怎樣向孩子解釋“小孩從哪兒來”的父母不同,他在思考要不要告訴孩子,他們可能不會有機會擁有自己的孩子,因為人工智能統(tǒng)治的時代已經(jīng)近在咫尺了。
“人工智能真正嚴重的危險將在五年、最多十年后便會出現(xiàn)?!币谅 ゑR斯克2014年11月在群組博客Edge的討論中寫道?;蛟S是太過驚悚,消息剛發(fā)出便被刪除。
不過,人們還是可以確定,至少在一段時間內(nèi),人工智能將是照顧老人的護工,看護孩子的保姆,打理家務(wù)的管家,甚至與人心靈相通的朋友。通過解碼面部肌肉運動,人工智能機器人將得以理解人的感情和思維,如同科幻電影里的“大白”一般,時刻準備送上治愈的擁抱。
樂觀的哲學(xué)家格雷·斯科特描繪了一幅美好的圖景:到2018年,自動化將遍及世界,機器將承包無聊或危險的工作,輔助人類做有趣的事情。在不遠的未來,機器更將滿足人類的生活所需,讓二極管去算賬,讓女會計成為詩人。
然而,這些美妙的念頭無法令他回避人工智能擁有成為“終結(jié)者”的潛力,即便在它們完全服從命令的時候。
“在追擊人群中的一個目標時,它會知道等目標離開人群后再開火嗎?”格雷·斯科特問道。這是科學(xué)家們共同承認的一個困境:如何為道德編碼?當(dāng)人工智能被用于軍事,這變得尤為重要。
哈佛大學(xué)法學(xué)院曾呼吁“通過國際法令,禁止開發(fā)、生產(chǎn)、使用自主式武器”。起草報告的邦妮·多赫蒂義正辭嚴地表示:“沒有道德和人性的機器不應(yīng)擁有殺戮的權(quán)力!”
在好萊塢電影《復(fù)仇者聯(lián)盟:奧創(chuàng)紀元》中,人工智能奧創(chuàng)以“殺戮”的方式,忠實地履行著創(chuàng)造者維護和平的意愿,在它看來,這手段最為有效。
在現(xiàn)實中,科學(xué)家也擔(dān)心,會不會有一天,“抗癌斗士”納米機器人仔細思考后發(fā)現(xiàn),比起殺死癌細胞,清除基因上易患病的人更方便。
“把能量釋放出來容易,想確保安全卻很難。”伊隆·馬斯克認為,人工智能研究的重點首先應(yīng)該放在安全上。如果開發(fā)時間因此延長,恰恰是正確的路徑?!拔覀儾荒芤活^扎向自己不懂的東西?!彼f。
人工智能將是人類歷史上最大的成功。也可能是最后一個
哲學(xué)家格雷·斯科特指出,機器的反應(yīng)取決于人類對它們的設(shè)定,降低機器的自尊水平或許能夠避免沖突。他對人類充滿信心,他相信,人類已經(jīng)用技術(shù)和法律規(guī)范約束了核彈,也必定有能力管理人工智能。
然而,在斯蒂芬·霍金口中,人工智能無疑是前所未有的勁敵,“比金融家更聰明,比研究者更富創(chuàng)造力,比領(lǐng)導(dǎo)更具操控力”。畢竟,它正在讓人類失業(yè)。
你如果從事的是程序性的工作,在人工智能面前,便有失業(yè)的危險。目前,人工智能還沒有太大競爭優(yōu)勢的只剩下一些內(nèi)容為非程序性工作的職業(yè),比如教師,比如需要具體評估每顆牙怎么補的牙醫(yī)。未來比較好的選擇是挑選和人工智能密切合作的工作。
在電影《超驗駭客》中,被暗殺的科學(xué)家威爾在妻子的幫助下,成功將自我意志轉(zhuǎn)入超級電腦之中,從此成了無所不在的“超驗駭客”。他能從土壤中造出太陽能板,能讓殘疾人長出新肢,能全天候通過一切終端出現(xiàn)……
曾主張修改人類基因與機器抗衡的斯蒂芬·霍金對此大為興奮。他力挺把人的大腦與計算機直接相連的“人腦控制技術(shù)”,由此打破人類智能與人工智能間的藩籬,人與機器最終得以合二為一。自此,人工智能將對人類智能作出貢獻,而非威脅。
到那時,人類千百年來苦苦追求的長生不老也可能因此實現(xiàn):肉體死去,精神卻在人工智能系統(tǒng)中獲得無限的權(quán)利和自由。
“人工智能將是人類歷史上最大的成功,”早已癱瘓的科學(xué)家斯蒂芬·霍金在機器的輔助下寫道,“不幸的是,也可能是最后一個?!?