2004年,由威爾·史密斯主演的美國影片《機(jī)械公敵》在全球上映,其中描述了芝加哥警察對付學(xué)會了獨(dú)立思考并且脫離了人類控制的機(jī)器人的故事。當(dāng)然,影片中人類最終戰(zhàn)勝了機(jī)器人,但科學(xué)家們警告說,這樣的威脅目前正在不斷迫近,人類應(yīng)該提早考慮應(yīng)對之策。
科學(xué)家們描述了這樣一個(gè)“人工智能的世界”:可能在20年或30年后,人工智能機(jī)器人就可以和人類做朋友了,但50年后,人工智能將成為人類最大的威脅。世界最終會因人工智能超過人類而爆發(fā)一場戰(zhàn)爭,這場智能戰(zhàn)爭也許會奪去數(shù)十億人的生命??茖W(xué)家們認(rèn)為,人工智能遲早會超過人類。人腦的運(yùn)算能力是10的16次方/秒,而人工智能機(jī)器的運(yùn)算速度高達(dá)10的40次方/秒,是人腦水平的10的24次方倍,那時(shí)候他們對待人類可能就像拍死一個(gè)蚊子這么簡單。但人工大腦并不會立即控制人類,此前還會有一段與人類“和平相處”的時(shí)期。這一時(shí)期它不斷接近但尚未超越人的智力水平,因此“聊天機(jī)器人”、“家務(wù)機(jī)器人”、“伴侶機(jī)器人”將使人類的生活充滿樂趣。但這樣的美景并不會長久,人工智能的繼續(xù)發(fā)展將使人類面臨災(zāi)難。
科學(xué)家們表示,在災(zāi)難來臨前,人類將會分為三派:宇宙主義者(主張發(fā)展人工智能的人)、地球主義者(反對發(fā)展人工智能的人)和人工智能控制論者(將自己改造成機(jī)器人的人)。也許在人工智能對付人類之前,這三類人會先展開人類內(nèi)部的斗爭。考慮到上述這些可能發(fā)生的威脅,科學(xué)家提出了6種有望避免悲劇發(fā)生的應(yīng)對之策。
1、將它們存放在低危環(huán)境中
要確保所有的計(jì)算機(jī)和機(jī)器人永遠(yuǎn)不會做出可能導(dǎo)致事先無法預(yù)測的后果的決定。
成功的可能性:極低。工程師們現(xiàn)在已經(jīng)建成了計(jì)算機(jī)和機(jī)器人系統(tǒng),但它們的行為好象并不總是可以預(yù)測。消費(fèi)者、工業(yè)界以及政府部門需要那種能夠執(zhí)行各種任務(wù)的技術(shù),而為了滿足這種需求,企業(yè)也將會不斷提高產(chǎn)品的數(shù)量和性能。為了實(shí)現(xiàn)這一戰(zhàn)略,就必須立即深入發(fā)展計(jì)算機(jī)和機(jī)器人技術(shù)。
2、不要給它們武器
成功的可能性:為時(shí)已晚?,F(xiàn)在已經(jīng)出現(xiàn)了半自動機(jī)器人武器系統(tǒng),如巡航導(dǎo)彈、無人駕駛飛機(jī)等。一些持槍機(jī)器人也已經(jīng)被派往伊拉克境內(nèi)負(fù)責(zé)戰(zhàn)場攝影,但很明顯它們實(shí)際上并未真正部署。
但是,軍事決策者們卻好象對機(jī)器人士兵的研發(fā)非常感興趣,并將其看作是未來戰(zhàn)爭中降低人員傷亡的一種重要手段。如果想要停止自動化武器的建設(shè),現(xiàn)在好象為時(shí)已晚,但是如果想要對機(jī)器人所攜帶的武器或是對它們可以使用武器的前提條件進(jìn)行限制,好象還并不太晚。
3、為他們制定行為準(zhǔn)則
成功的可能性;中等。科幻小說家艾薩克·阿西莫夫的著名規(guī)則就是分等級排序的:最重要的是,機(jī)器不應(yīng)該傷害人類或?qū)λ鼈兊膫o動于衷;其次,就是機(jī)器人應(yīng)該服從于人類;而機(jī)器人的自我保護(hù)則屬于最低等次的優(yōu)先級。
然而,阿西莫夫只是小說家,并不會真去研制機(jī)器人。在他的小說故事里,他列舉了可能會僅僅因?yàn)檫@些簡單的規(guī)則而產(chǎn)生的一系列問題,比如,當(dāng)同時(shí)收到由兩個(gè)人發(fā)出的相互沖突的兩道命令時(shí),機(jī)器人該如何執(zhí)行?
阿西莫夫的規(guī)則使得機(jī)器人難以判斷。例如,機(jī)器人如何理解一名正在對患者進(jìn)行切割手術(shù)的外科醫(yī)生其實(shí)是在幫助患者呢?實(shí)際上,阿西莫夫的機(jī)器人故事已經(jīng)非常清楚地說明了基于規(guī)則上的道德限制。然而,規(guī)則可以成功地對機(jī)器人的行為進(jìn)行限制,但同時(shí)也將其功能局限于一個(gè)有限的空間內(nèi)。
4、為機(jī)器人編制特定程序
研制機(jī)器人的目的應(yīng)該是“為最廣泛的人群創(chuàng)造最大的利益”,或是“對待他人就像你希望被對方對待的程度一樣”。因此,機(jī)器人的研制應(yīng)該從更為安全的角度考慮,而不是放棄一些簡單化的規(guī)則。
成功的可能性:中等。由于這些規(guī)則的局限性,一些倫理學(xué)家在試圖尋找一條可以壓倒一切的原則,用于評估機(jī)器人的所有行為。
但是,對于一些剛剛提出的簡單原則,其道德價(jià)值和局限性就會成為人們長期爭論的話題。例如,犧牲一個(gè)人的生命來挽救五個(gè)人的生命,這看起來好象是合乎邏輯的。但是醫(yī)生卻不會因?yàn)檫@個(gè)邏輯,而去犧牲一個(gè)健康人,僅僅是為了為五個(gè)病人提供他們所需要的器官。那名機(jī)器人又如何看待這條邏輯呢?有時(shí),在給定的規(guī)則下確定最佳選擇是極其困難的。例如,判斷到底哪一種行為可能會產(chǎn)生最大的利益,這可能需要大量的知識以及對世界上各種行為的影響的理解。當(dāng)然,做出這種思考也需要大量的時(shí)間和計(jì)算能力。
5、像教育孩子一樣教育它們
在“成長”過程中,機(jī)器人也應(yīng)該不斷學(xué)習(xí)人類對各種行為的是非判斷,以提高它們對各種行為的敏感性。
成功的可能性:有希望。雖然這一戰(zhàn)略的實(shí)施還需要一些技術(shù)方面的重大突破,但科學(xué)家們已經(jīng)研制出能夠像人類一樣學(xué)習(xí)的機(jī)器人。當(dāng)然,目前的工具還非常有限。
6、讓機(jī)器人擁有感情
像人類的一些功能,如同情、感情以及對非語言社會暗示的理解能力,都可以讓機(jī)器人擁有更強(qiáng)的與人類互動能力??茖W(xué)家們已開始著手為家用機(jī)器人添加這些類人類功能。
成功的可能性;研發(fā)感情豐富的機(jī)器人必將是有助于實(shí)現(xiàn)上面三條剛剛討論過的問題的解決方案。人類在做出決策時(shí)以及在與他人合作的過程中對對方觀點(diǎn)、手勢或意圖的理解能力,依賴的主要信息來源于我們的情感。
選自英國《新科學(xué)家》