今年年初,霍金在一封提倡控制人工智能發(fā)展的公開信上簽下自己的名字,微軟創(chuàng)始人比爾·蓋茨、特斯拉汽車公司與美國太空探索技術(shù)公司CEO伊隆·馬斯克的名字也赫然在列。在他們看來,飛速發(fā)展的人工智能已經(jīng)成為“我們現(xiàn)存的最大威脅”。
幾位人類科技界“頂梁柱”擔(dān)心的“人機大戰(zhàn)”,很可能已經(jīng)悄悄冒出硝煙的味道。在上傳至Youtube的一段視頻中,一只名為Spot的機器狗協(xié)調(diào)地運動著白色的四肢,像真正的狗一樣行走。
為了證明它的堅固,有人沖出來,對準(zhǔn)它的腹部結(jié)結(jié)實實地踢了一腳。機器狗一個趔趄,一邊發(fā)出急促的吱吱聲,一邊緊踏幾步保持平衡。
這段“虐狗”視頻引發(fā)了熱議。有網(wǎng)友評論:“這就是世界結(jié)束的方式。不是大爆炸,而是在被你踢了之后,機器狗轉(zhuǎn)身撲向你。”
在現(xiàn)實世界中,人類也正處在人工智能的包圍中:拿起手機,可與虛擬助手Siri對話;想要出門,可乘無人駕駛汽車兜風(fēng);走進醫(yī)院,超級電腦沃森醫(yī)生正在“坐診”。
戰(zhàn)爭可能在某一天悄悄打響。電腦擅自替你做出拋售股票的決定,或者無人駕駛汽車突然決定在高速路上歇腳。之后的情況則將超出“故障”的范疇,演變成一場災(zāi)難。
在憂心忡忡的科學(xué)家們看來,這將是一場前所未有的戰(zhàn)爭。人類一手創(chuàng)造了自己的敵人,并用自己最強大的武器——“智慧”,為它武裝。
“我們?nèi)祟愔源婊钣谑?,從來不是因為我們是這星球上最強壯、行動最快的物種,而是因為我們最聰明。”《我們最終的發(fā)明:人工智能和人類時代的終結(jié)》作者詹姆斯·巴拉特說道,“所以當(dāng)比我們更聰明的力量出現(xiàn)在這星球上的時候,它就將接管地球?!?/p>
超人學(xué)家尼克·博斯特羅姆在《超級智能》一書中描繪了令人毛骨悚然的場面:納米機器人突然開始瘋狂地自我復(fù)制,而它們此前被植入人體內(nèi),是用來對抗疾病。
近日,身在倫敦的霍金以三維全息圖的方式出現(xiàn)在悉尼歌劇院,用機械聲音對坐在臺下的人們說:“我認為我們無法再在這個脆弱的星球上生活1000年?!?受困于緩慢的進化速度,人類根本無力與飛速發(fā)展的人工智能抗衡,最終,“人工智能的全面發(fā)展將導(dǎo)致人類的滅絕”。霍金甚至主張人類去其他星球“殖民”,以保證種群的延續(xù)。
另一些學(xué)者則描繪了人類完全被機器人“脾氣”主宰的悲涼命運。他若殘暴,我們可能被屠殺;他若人道,我們的出生率可能被逐漸降低,自然滅絕;若他們當(dāng)中有善良的自由主義者,我們將被馴化。
比起“寵物”,對科技持樂觀態(tài)度的哲學(xué)家格雷·斯科特更愿意把人類視為“學(xué)生”。當(dāng)人工智能超越了人類智能,人類將在它們的指導(dǎo)下,“成為更好的物種。”
在一片恐懼中,百度公司首席科學(xué)家吳恩達認為,現(xiàn)在為人工智能的負面影響擔(dān)憂,就像擔(dān)心火星上人口過剩一樣遙不可及。
特斯拉CEO馬斯克卻無法對此視而不見。這位億萬富翁已經(jīng)開始“站崗放哨”。他為一家名為“Deep Mind”的人工智能公司注入資金,只是為了“盯著這種技術(shù)的走向?!?/p>
不過眼下,人們還是可以確定,至少在一段時間內(nèi),人工智能只會是讓生活更美好的“大白”。
它們將是照顧老人的護工,看護孩子的玩伴,打理家務(wù)的管家,甚至與人心靈相通的朋友。通過解碼面部肌肉運動,人工智能機器人將得以理解人的感情和思維,如同科幻電影里的“大白”一般,時刻準(zhǔn)備送上治愈的擁抱。
在支持者看來,人工智能的發(fā)展并不會給人類帶來威脅,而之所以會引發(fā)恐慌則是因為人們對于人工智能的工作原理并不了解。從科技發(fā)展史上看,并沒有因為汽車和輪船的出現(xiàn)而使田徑、游泳這些體育項目消失。他們堅信,人工智能的未來是要給人類帶來更加高效、便利的生活。就在“人機圍棋大戰(zhàn)”的前一天,谷歌董事長施密特在發(fā)布會上表示,這場比賽李世石無論輸贏都代表著人類的勝利,因為是人類的努力才讓人工智能取得了這樣的突破。谷歌不只是想做一個棋類程序,而是希望打造一個通用的智能計算系統(tǒng),用于災(zāi)害預(yù)測、風(fēng)險控制、醫(yī)療健康和機器人等復(fù)雜領(lǐng)域。英國著名人工智能科學(xué)家、智能機器人Cleverbot的發(fā)明者羅洛·卡朋特表示,他相信人類在相當(dāng)長一段時間內(nèi)將保持對人工智能技術(shù)的掌控,而且未來將實現(xiàn)利用人工智能技術(shù)解決眾多世界性難題。
樂觀的哲學(xué)家格雷·斯科特描繪了一幅美好的圖景:到2018年,自動化將遍及世界,承包無聊或危險的工作,輔助人類做有趣的事情。在不遠的未來,機器更將滿足人類的生活所需,讓二極管去算賬,讓女會計成為詩人。
然而,這些美妙的念頭無法令他回避人工智能擁有成為“終結(jié)者”的潛力,即便在它們完全服從命令的時候。
“在追擊人群中的一個目標(biāo)時,它會知道等目標(biāo)離開人群后再開火嗎?”斯科特問道。這是科學(xué)家們共同承認的一個困境:如何為道德編碼。當(dāng)人工智能被用于軍事,這變得尤為重要。
前不久,哈佛大學(xué)法學(xué)院呼吁“通過國際法令,禁止開發(fā)、生產(chǎn)、使用自主式武器”。起草報告的邦妮·多赫蒂義正辭嚴(yán)地表示:“沒有道德和人性的機器不應(yīng)擁有殺戮的權(quán)力!”
在好萊塢電影《復(fù)仇者聯(lián)盟:奧創(chuàng)紀(jì)元》中,人工智能奧創(chuàng)以“殺戮”的方式,忠實地履行著創(chuàng)造者維護和平的意愿,在它看來,這手段最行之有效。
現(xiàn)實中,科學(xué)家也擔(dān)心,會不會有一天,“抗癌斗士”納米機器人仔細思考后發(fā)現(xiàn),比起殺死癌細胞,清除基因上易患病的人更方便。
“把能量釋放出來容易,想確保安全卻很難?!瘪R斯克認為,人工智能研究的重點首先應(yīng)該放在安全上。如果開發(fā)時間因此延長,恰恰是正確的路徑?!拔覀儾荒芤活^扎向自己不懂的東西?!?/p>
在“時代精神”大會上,輪椅上的霍金用臉部的一塊肌肉指揮機器說道:“我們需要確保計算機與我們的目標(biāo)相一致。我們的未來取決于技術(shù)不斷增強的力量和我們使用技術(shù)的智慧之間的賽跑?!?/p>
在另一些科學(xué)家看來,人類與人工智能可能根本不會有“開戰(zhàn)”的機會。在被人工智能沖擊之前,人類的防線就已經(jīng)開始不由自主地倒戈。
第一臺盲人閱讀機的發(fā)明者雷蒙德·庫茨魏爾在《靈魂機器的時代》一書中描述道,人類不會把控制權(quán)拱手讓與機器,人工智能也不會主動攫取。隨著機器愈發(fā)復(fù)雜和智能,人類對機器的依賴也日益加深,最終不得不聽任機器來控制。到那時,關(guān)掉機器是無法擺脫他們的控制的,因為關(guān)機于我們而言無異于自殺。
斯科特依舊對人類充滿信心,他相信,人類已經(jīng)用技術(shù)和法律規(guī)范約束了核彈,也必定有能力管理人工智能。雖然在霍金口中,人工智能無疑是前所未有的勁敵,“比金融家更聰明、比研究者更富創(chuàng)造力、比領(lǐng)導(dǎo)更具操控力”。
在電影《超驗駭客》中,被暗殺的科學(xué)家威爾在妻子的幫助下,成功將自我意志轉(zhuǎn)入超級電腦之中,從此成了無所不在的“超驗駭客”。他能從土壤中造出太陽能板,能讓殘疾人長出新肢,能全天候通過一切終端出現(xiàn),人類已經(jīng)無法阻止這個人機合一的超級存在。
曾主張修改人類基因與機器抗衡的霍金對此大為興奮。他力挺把人的大腦與計算機直接相連的“人腦控制技術(shù)”,由此打破人類智能與人工智能間的藩籬,人與機器最終得以合二為一。自此,人工智能將對人類智能做出貢獻,而非威脅。
到那時,人類千百年來苦苦追求的長生不老也可能因此實現(xiàn),肉體死去,精神卻在人工智能系統(tǒng)中獲得無限的權(quán)力和自由。
“人工智能將是人類歷史上最大的成功,”早已癱瘓的科學(xué)家霍金在機器的輔助下寫道,“不幸的是,這也可能是最后一個?!?