如果我們成功地創(chuàng)造了可證明有益的人工智能系統(tǒng),那么我們將消除超級智能機(jī)器失控的風(fēng)險。人類可以繼續(xù)發(fā)展,并獲得幾乎無法想象的好處,這些好處來自運用更強(qiáng)大的智能來推進(jìn)我們文明的能力。
也許未來并非如此?!鞍畹率健钡膼汗骺赡軙@過我們的保護(hù)措施,釋放出無法控制的超級智能,而人類對此毫無防御能力。如果幸存下來,那么我們可能會發(fā)現(xiàn),隨著我們越來越多地將知識和技能托付給機(jī)器,我們會逐漸變得衰弱。
隨著人工智能變得越來越強(qiáng)大,我們必須以某種方式加以管理和引導(dǎo)。
人工智能(AI)有重塑世界的能力,而對重塑的過程,我們必須以某種方式加以管理和引導(dǎo)。許多人都在成立委員會、理事會或國際小組。世界經(jīng)濟(jì)論壇已經(jīng)分別確定了近300項為人工智能制定的道德原則。人工智能與核技術(shù)的情況截然不同。第二次世界大戰(zhàn)后,美國掌握了全部核技術(shù)。1953年,美國總統(tǒng)德懷特·艾森豪威爾向聯(lián)合國提議成立一個國際機(jī)構(gòu)來監(jiān)管核技術(shù)。1957年,國際原子能機(jī)構(gòu)開始運轉(zhuǎn),它是全球唯一的監(jiān)督核能安全與有益發(fā)展的機(jī)構(gòu)。
相比之下,很多國家手里都掌握著人工智能??梢钥隙ǖ氖?,很多國家都資助了大量人工智能研究,但幾乎所有的研究都發(fā)生在安全的國家實驗室之外。大學(xué)里的人工智能研究人員是一個廣泛的、合作的國際社會的一部分,通過共同的興趣、會議、合作協(xié)議和專業(yè)協(xié)會聯(lián)系在一起,如AAAI(美國人工智能協(xié)會)和IEEE(電氣和電子工程師協(xié)會,其中包括成千上萬名人工智能研究人員和從業(yè)者)。也許現(xiàn)在大部分人工智能研發(fā)投資都發(fā)生在大大小小的公司里。截至2019年,這些公司有美國的谷歌(包括DeepMind)、臉書、亞馬遜、微軟和IBM,以及中國的騰訊、百度,在某種程度上還有阿里巴巴,它們都是全球最大的公司。除了騰訊和阿里巴巴,其他所有公司都是“人工智能合作伙伴組織”的成員。這是一個行業(yè)聯(lián)盟,其宗旨之一是承諾在人工智能安全方面進(jìn)行合作。盡管絕大多數(shù)人幾乎不具備人工智能方面的專業(yè)知識,但參與者至少有一種表面上的意愿,即愿意考慮人類的利益。
通過所有這些活動,對人工智能的治理是否取得了實際進(jìn)展?或許令人驚訝的是,答案是肯定的,對人工智能的治理至少具備發(fā)展的潛力。世界各地的許多政府都在為自己配備咨詢機(jī)構(gòu),以幫助其制定法規(guī),或許最突出的例子是歐盟的人工智能高級專家組。針對用戶隱私、數(shù)據(jù)交換和避免種族偏見等問題的協(xié)議、規(guī)則和標(biāo)準(zhǔn)開始出現(xiàn)。政府和企業(yè)正在努力為無人駕駛汽車制定規(guī)則,這些規(guī)則將不可避免地包含跨境元素。有一個共識是,如果人工智能系統(tǒng)是可信的,那么人工智能決策必須是可以解釋的,這一共識已經(jīng)在歐盟的GDPR條例(《通用數(shù)據(jù)保護(hù)條例》)中得到部分實施。在美國加利福尼亞州,
一項新法律禁止人工智能系統(tǒng)在某些情況下模仿人類。最后這兩項——可解釋和模仿問題,無疑與人工智能的安全和控制問題有關(guān)。
目前,在考慮維持對人工智能系統(tǒng)的控制問題上,我們尚無可實施的建議可以向政府或其他組織提出?!叭斯ぶ悄芟到y(tǒng)必須安全可控”這樣的規(guī)定沒有任何影響力,因為其中的術(shù)語還沒有確切的含義,也因為沒有廣為人知的工程方法來確保安全性和可控性。但是,讓我們樂觀一點,想象一下,幾年之后,通過數(shù)學(xué)分析和以實用的應(yīng)用程序的形式出現(xiàn)的實踐,“可證明有益的人工智能”的有效性將被建立起來。例如,我們可能擁有個人數(shù)字助理,我們可以信任它們使用我們的信用卡,篩選我們的電話和電子郵件,管理我們的財務(wù),因為它們已經(jīng)適應(yīng)了我們的個人偏好,知道什么時候可以繼續(xù),什么時候最好尋求指導(dǎo)。我們的無人駕駛汽車可能已經(jīng)學(xué)會了與彼此以及與人類司機(jī)互動,我們的家用機(jī)器人甚至可以與最倔強(qiáng)的蹣跚學(xué)步的幼兒順暢地交流。運氣好的話,沒有貓會被烤熟當(dāng)晚餐,也沒有鯨肉會被提供給綠黨成員享用。
在這一點上,指定軟件設(shè)計模板或許是可行的,各種應(yīng)用程序必須符合這些模板才能銷售或連接到互聯(lián)網(wǎng),就像應(yīng)用程序必須通過多項軟件測試才能在蘋果的App Store商店或谷歌的Google Play商店銷售一樣。
對于一位經(jīng)驗豐富的硅谷觀察家來說,這聽起來可能有些天真。硅谷強(qiáng)烈反對任何形式的監(jiān)管。盡管制藥公司在向公眾發(fā)布新藥之前必須通過臨床試驗,以證明其藥品的安全性和(有益的)藥效,這已成為慣例,但軟件行業(yè)的運作則遵循一套不同的規(guī)則——沒有規(guī)則。一家軟件公司里“一群喝紅牛飲料的家伙”可以在沒有任何第三方監(jiān)督的情況下發(fā)布或升級影響數(shù)十億人的產(chǎn)品。
然而不可避免的是,科技行業(yè)不得不承認(rèn)其產(chǎn)品至關(guān)重要。如果它們很重要,那么產(chǎn)品不會產(chǎn)生有害影響也很重要。這意味著將會出現(xiàn)一些規(guī)則來管理科技產(chǎn)品與人們的互動,例如禁止那些持續(xù)操縱偏好或?qū)е律习a行為的設(shè)計。我毫不懷疑,從一個不受監(jiān)管的世界過渡到一個受監(jiān)管的世界將是一個痛苦的過程。我們希望科技行業(yè)不需要切爾諾貝利事故那樣(或更糟糕)的災(zāi)難來克服行業(yè)的阻力。
對軟件行業(yè)而言,監(jiān)管可能是痛苦的,但那些在自己的地下堡壘里密謀統(tǒng)治世界的邪惡博士令人無法容忍。毫無疑問,犯罪分子、恐怖分子和流氓國家將有動機(jī)繞過智能機(jī)器設(shè)計上的任何限制,讓智能機(jī)器能夠用來控制武器,或是策劃和實施犯罪活動。尤其是那些滿懷邪惡目標(biāo)并可以使用武器的計劃。
這確實造成了非常嚴(yán)重的治安問題。我們已經(jīng)在與惡意軟件和網(wǎng)絡(luò)犯罪的斗爭中失敗了。(最近的一份報告估計,其受害者超過20億人,每年造成的損失約6000億美元。)以高度智能程序的形式存在的惡意軟件將更加難以戰(zhàn)勝。
良好的開端是成功地、協(xié)調(diào)一致地開展打擊網(wǎng)絡(luò)犯罪的國際運動,包括擴(kuò)展《布達(dá)佩斯網(wǎng)絡(luò)犯罪公約》所涵蓋的內(nèi)容。這將形成一個組織模板,用于防止未來出現(xiàn)失控的人工智能程序。
E.M.福斯特的兩部最著名的小說《霍華德莊園》和《印度之行》展現(xiàn)了20世紀(jì)早期的英國社會及其階級制度。1909年,他寫了一本著名的科幻小說《大機(jī)器停止》。這個故事因其先見之明而引起了關(guān)注,書中描述了(我們現(xiàn)在的)互聯(lián)網(wǎng)、視頻會議、iPad(平板電腦)、大規(guī)模開放在線課程(MOOC)普遍的應(yīng)用,以及回避面對面接觸。書名中的大機(jī)器是一個包羅萬象的智能基礎(chǔ)設(shè)施,可以滿足所有人的需求。人類變得越來越依賴它,但對它的工作原理了解得越來越少。工程知識讓位于儀式化的咒語,這些咒語最終無法阻止機(jī)器運轉(zhuǎn)逐漸惡化的局面。主角庫諾看到了正在發(fā)生的事情,卻無力阻止:
你難道不明白,我們就要死了,在我們這里,唯一真正活著的是機(jī)器?我們創(chuàng)造了機(jī)器,讓它按照我們的意旨辦事,可是我們現(xiàn)在沒法讓它實現(xiàn)我們的意旨了。它奪走了我們的空間感和觸覺,它模糊了一切人際關(guān)系,它使我們身體癱瘓、意志癱瘓,我們只是作為流經(jīng)它動脈血管的血細(xì)胞而存在,如果它沒有我們也能運轉(zhuǎn),它會讓我們死的。唉,我沒有補(bǔ)救辦法。
地球上曾經(jīng)生活過超過1000億人。他們(我們)已經(jīng)花費了大約1萬億年的時間學(xué)習(xí)和教學(xué),才使我們的文明得以延續(xù)。到目前為止,文明延續(xù)的唯一可能就是在新一代的頭腦中進(jìn)行再創(chuàng)造。(紙作為一種傳播方式是不錯的,但記錄在紙上的知識在傳到下一個人的頭腦里之前,紙什么也做不了。)現(xiàn)在這種情況正在改變:我們越來越有可能把我們的知識放到機(jī)器里,讓機(jī)器自己來運行我們的文明。
任何一個當(dāng)過父母的人都熟悉這個過程。一旦孩子走出了無助的階段,育兒就需要在“為孩子包辦每件事”和“完全讓孩子自己做主”之間保持一種不斷發(fā)展的平衡。在某個階段,孩子開始明白,父母完全有能力給他系鞋帶,卻選擇不系。這就是人類的未來嗎?
(摘自中信出版集團(tuán)《AI新生》 ? 作者:[美]斯圖爾特·羅素 ? 譯者:張羿)