◎蔡自興
20 17年7月8日國務院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,提出了面向2030年我國新一代人工智能發(fā)展的指導思想、戰(zhàn)略目標、重點任務和保障措施,部署構(gòu)筑我國人工智能發(fā)展的先發(fā)優(yōu)勢,加快建設創(chuàng)新型國家和世界科技強國。這個規(guī)劃給全國人民,特別是人工智能工作者以巨大鼓舞。
近年來,人工智能在全世界獲得巨大進展,進一步促進科學技術和國民經(jīng)濟的發(fā)展。人工智能能夠提供重要的信息處理能力,包括知識獲取與表達、確定性推理與不確定性推理、規(guī)劃、特征識別與跟蹤、自然語言處理、圖像處理、地圖構(gòu)建與導航、計算智能及機器學習等。人工智能技術也為機器人技術向智能化方向提供理論支持,是智能機器人發(fā)展的根本保障。人工智能能夠模仿人類行為以實現(xiàn)智能機器的特定應用。例如,機器人護士專家系統(tǒng),可以讓機器人在非預期情況下具有自我判斷能力并從中學習。其他重要應用領域包括通過語音合成器講話、快速甚至同步進行語言翻譯、處理與識別語音。為了使表達更真實,操作系統(tǒng)必須將聲音、嘴唇、面部表情、手勢、眼神及眨眼等方面協(xié)調(diào)好。人工智能使機器人 “如虎添翼”,機器人這只老虎開始飛起來了!
讓我們看看兩個數(shù)據(jù):智商 (IQ)值與智能機器人總數(shù)。大家知道,智商(IQ)即智力商數(shù),為個人智力測驗成績和同年齡人被試成績相比的指數(shù),是衡量個人智力高低的一個標準。設定人的平均IQ值為100,愛因斯坦的IQ為190,屬于特高智商,而達芬奇的IQ為205,是至今已知的個人最高智商。據(jù)預測,隨著計算機智能程度的不斷提高,20年后人工智能的IQ將達到10,000。這絕非癡人說夢,而是不久后的現(xiàn)實。另一個數(shù)據(jù),預測未來20年智能機器人 (含工業(yè)機器人、服務機器人、智能駕駛汽車等)的數(shù)量會達到100億以上,將超過人口總量;這也不是空穴來風,而是科學預測。從這兩個數(shù)據(jù)可以看到,就某些重要指標而言,20年后智能機器人將從數(shù)量到質(zhì)量全面趕超人類。智能機器人的進步,將為人類做出全面的更大貢獻。
人工智能和智能機器人將改變?nèi)祟惖墓ぷ髋c生活環(huán)境、經(jīng)濟發(fā)展方式和醫(yī)療衛(wèi)生狀況,可以做人類的助手,為我們提供各種專業(yè)服務,修復受傷人類的肢體,甚至給人們帶來 “永生”。人工智能的發(fā)展已對人類社會的方方面面產(chǎn)生了十分重大和深遠的影響。
未來的人工智能系統(tǒng)和智能機器將發(fā)展到非常 “聰明”的程度,將能夠自動識別并解決人類無法應對的體力和智力問題。智能機器將比人類至今已經(jīng)制造出來的任何機器更有智慧和更加有用,它們不僅是工具,更是具有創(chuàng)造性的機器。我們可以期待,在不遠的將來,高級智能機器人將普遍出現(xiàn)在我們的生活中,人工智能和智能機器人今后必將產(chǎn)生更大和更深遠的影響。
人工智能的快速發(fā)展在給人類社會進步和經(jīng)濟發(fā)展帶來巨大利益的同時,也帶來嚴峻挑戰(zhàn)。就像任何新技術一樣,人工智能的發(fā)展也引起或即將出現(xiàn)許多問題,并使一些人感到擔心或懊惱。社會上一些人擔心人工智能技術會搶奪他們的飯碗而使他們失業(yè),擔憂智能機器人的智慧超過人類而威脅人類安全等。這些問題涉及勞務就業(yè)、社會結(jié)構(gòu)變化、思維方式與觀念的變化、法律、倫理道德、心理威脅和技術失控危險等。這些都是值得高度關注的影響社會安定和諧的社會問題。
下面探討人工智能帶來的幾個具體的社會問題。
由于人工智能能夠代替人類進行各種腦力勞動和體力勞動,例如,用工業(yè)機器人代替工人從事焊接、噴漆、搬運、裝配和加工作業(yè),用服務機器人從事醫(yī)護、保姆、娛樂、文秘、記者、會計、清掃和消防等工作,用??仗剿鳈C器人替代宇航員和潛水員進行太空和深海勘探和救援。機器人將可能引發(fā)就業(yè)市場的變動并影響人類生活。因此,將有一部分人員可能把自己的工作讓位給機器人,造成他們的下崗和再就業(yè),甚至造成失業(yè)。
2013年英國牛津大學的一項研究報告稱:未來有700多種職業(yè)都有被智能機器替代的可能性。越是可以自動化、計算機化的任務,就越有可能交給智能機器完成,其中以行政、銷售、服務業(yè)首當其沖。涉及的職業(yè)有司機、技工、建筑工人、裁縫、快遞員、接線員、抄表員、會計、收銀員、翻譯、記者、法官、播音員、節(jié)目主持人、保安、交易員、客服、保姆等。
廣泛采用人工智能技術和智能機器替代員工從事各種勞動,這是由智能機器的優(yōu)點決定的。這些優(yōu)點包括:提高生產(chǎn)效率,降低運營成本;提高產(chǎn)品質(zhì)量的穩(wěn)定性與一致性;縮短產(chǎn)品改型換代的準備周期,減少相應設備投資;降低對一線操作人員的技能要求,改善勞動環(huán)境;節(jié)約人工工資和相關費用,提高生產(chǎn)安全;更加靈活,大大提升批量化生產(chǎn)效率,實現(xiàn)小批量產(chǎn)品的快速響應;更加信息化,使得生產(chǎn)制造過程中的材料、半成品、成品、各種工藝參數(shù)等信息更加容易采集,方便質(zhì)量控制、質(zhì)量分析、產(chǎn)品制造過程追溯,同時產(chǎn)品的成本統(tǒng)計和控制也更加容易。智能機器特別能夠代替人們從事危險和不愿意從事的工作。
采用人工智能技術還與直接經(jīng)濟效益有密切關系。以機器人為例,根據(jù)機器人平均價格指數(shù)和勞務報酬指數(shù)曲線,機器人的平均價格一直下降 (如10年降價一半),而勞務報酬卻一直上升(如10年提高一倍);也就是說,10年間勞務報酬指數(shù)與機器人價格指數(shù)的比值提高了4倍。因此,企業(yè)愿意采用機器人換人,世界各國必然更多地應用各種機器人 (含工業(yè)機器人和服務機器人等)以替代人工勞動,這已成為21世紀的一個必然趨勢。這是一個值得社會學家、經(jīng)濟學家、人口學家以及政府決策官員們高度關注和深入研究的緊迫社會問題。
要解決智能機器換人問題或部分員工失業(yè)問題,一方面要擴大新的行業(yè) (如第三產(chǎn)業(yè))和服務項目,向生產(chǎn)和服務的廣度和深度進軍;另一方面,要加強對工人和技術人員的繼續(xù)職業(yè)教育與培訓,使他們適應新的社會結(jié)構(gòu),能夠到綠色產(chǎn)業(yè)或行業(yè)工作,繼續(xù)為社會做出貢獻。從某種意義上看,智能機器代替員工的主要是那些單調(diào)、重復、危險、惡劣等不適宜人類或人類不愿意從事的工作,而可能為員工創(chuàng)造新的綠色環(huán)保工作崗位與需要更高創(chuàng)造能力的工作。這應該是社會的一種進步,人類要適應這種進步就需要不斷學習新技術,更新知識。
人們一方面希望人工智能和智能機器能夠代替人類從事各種勞動,另一方面又擔心它們的發(fā)展會引起新的社會問題。實際上,數(shù)十年來,社會結(jié)構(gòu)正在發(fā)生一種靜悄悄的變化。過去人們直接與機器打交道,而現(xiàn)在要通過智能機器與傳統(tǒng)機器打交道。也就是說,人—機器的社會結(jié)構(gòu),終將為人—智能機器—機器的社會結(jié)構(gòu)所取代。智能機器人就是一種智能機器。從發(fā)展的角度看,從醫(yī)院里看病的 “醫(yī)生”、護理病人的 “護士”,旅館、飯店和商店的 “服務員”,辦公室的“秘書”,指揮交通的“警察”,到家庭的“勤雜工”和 “保姆”等等,將均由機器人來擔任。因此,人們將不得不學會與智能機器相處,并適應這種變化了的社會結(jié)構(gòu)。
1999年,國際自動控制聯(lián)合會 (IFAC)第14屆世界大會主席、中國工程院院長宋健在大會開幕式主題報告中說:再過20~30年,“可以設想,全世界的老人都可以有一個機器人服務員,每一個參加會議的人都可能在文件箱中帶一個機器人秘書?!边@一設想已經(jīng)開始實現(xiàn)。
2016年,比爾·蓋茨預言未來社會家家都有機器人。他說,“現(xiàn)在,我看到多種技術發(fā)展趨勢開始匯成一股推動機器人技術前進的洪流,我完全能夠想象,機器人將成為我們?nèi)粘I畹囊徊糠??!鄙w茨的預言也開始實現(xiàn)?,F(xiàn)在,各種服務機器人已進入千家萬戶。
人工智能的發(fā)展與推廣應用,還將影響到人類的思維方式和傳統(tǒng)觀念,并使它們發(fā)生改變。例如,傳統(tǒng)知識一般印在書本報刊或雜志上,因而是固定不變的,而人工智能系統(tǒng)的知識庫的知識卻是可以不斷修改、擴充和更新的。又如,一旦專家系統(tǒng)的用戶開始相信智能系統(tǒng) (智能機器)的判斷和決定,那么他們就可能不愿多動腦筋,變得懶惰,并失去對許多問題及其任務的責任感和敏感性。那些過分依賴計算器的學生,他們的主動思維能力和計算能力也會明顯下降。過分地依賴人工智能的建議而不加分析地接受,將會使智能機器用戶的認知能力下降,并增加誤解。人工智能在科技和工程中的應用,會使一些人失去介入信息處理活動 (如規(guī)劃、診斷、理解和決策等)的機會,甚至不得不改變自己的工作方式。
此外,由于與機器人打交道畢竟不同于與人打交道,所以人們必須改變自己的傳統(tǒng)觀念和思維方式,逐步適應與智能機器的共處。
因此,在設計和研制智能系統(tǒng)和智能機器時,應考慮到上述問題,盡量鼓勵用戶在處理問題中的主動性,讓他們的智力積極參與問題求解過程。
人工智能使一部分社會成員感到心理上的威脅,或叫做精神威脅。人們一般認為,只有人類才具有感知精神,而且以此與機器相別。如果有一天,這些人開始相信機器也能夠思維和創(chuàng)作,那么他們可能會感到失望,甚至感到威脅。他們擔心:有朝一日,智能機器的人工智能會超過人類的自然智能,使人類淪為智能機器和智能系統(tǒng)的奴隸。對于人的觀念 (更具體地指人的精神)和機器的觀念 (更具體地指人工智能)之間的關系問題,哲學家、神學家和其他人們之間一直存在著爭論。按照人工智能的觀點,人類有可能用機器來規(guī)劃自己的未來,甚至可以把這個規(guī)劃問題想象為一類狀態(tài)空間內(nèi)的搜索求解過程。當社會上一部分人歡迎這種新觀念時,另一部分人則發(fā)現(xiàn)這些新觀念是惹人煩惱的和無法接受的,尤其是當這些觀念與他們鐘愛的信仰和觀念背道而馳時。
任何新技術的最大危險莫過于人類對它失去了控制,或者是它落入那些企圖利用新技術反對人類的人手中。我國引以自豪的火藥發(fā)明被某些外國人用于制造炸彈;化學科學的成果被人用于制造化學武器;生物學的最新成就可能被用于制造生物武器;核物理研究的重大突破導致原子彈和氫彈的威脅。難怪現(xiàn)在有人擔心機器人有一天會反賓為主,奴役它們的創(chuàng)造者——人類,擔心人工智能的其它智能制品威脅人類的安全。正是由于認識到這種擔心,著名的美國科幻作家阿西莫夫 (I.Asimov)提出了“機器人三守則”:
(1)機器人必須不危害人類,也不允許它眼看人類受害而袖手旁觀。
(2)機器人必須絕對服從人類,除非這種服從有害于人類。
(3)機器人必須保護自身不受傷害,除非為了保護人類或者是人類命令它作出犧牲。
我們認為,如果把這個 “機器人三守則”推廣到整個智能機器,成為 “智能機器三守則”,那么,人類社會就會更容易接受智能機器和人工智能。
可惜至今未能創(chuàng)造出一種能夠鑒別實際上是否遵循 “三守則”的人工智能軟件。一個人工智能系統(tǒng)可能與其它一些機構(gòu)結(jié)合起來,力圖遵循這些規(guī)則,但尚無足夠的智能來確保長期地遵守這些規(guī)則。
人工智能技術是一種信息技術,能夠極快地傳遞。因此,存在某些比爆炸技術更大的潛在危險,即人工智能技術可能落入不負責的人手中,被他們用于進行反對人類和危害社會的犯罪 (有的人稱之為 “智能犯罪”)。對此,我們必須保持高度警惕。同時人類有足夠的智慧和信心,能夠研制出防范、檢測和偵破各種智能犯罪活動的智能手段。如果社會上少數(shù)敗類膽敢利用人工智能進行危害人類的活動,那么他們將受到歷史的無情懲罰。玩火者必自焚,這是歷史的必然。人類一定能夠從人工智能技術中獲得不可估量的利益。
人類將對具有人工意識的機器人給予前所未有的關注。機器人的發(fā)展與應用帶來了許多法律問題,例如,汽車機器人發(fā)生事故,造成傷害應該由誰負責?又如,自主機器人士兵在戰(zhàn)場上開槍打死人類是否違反國際公約?再如,機器人參加運動會賽跑可能會要求得到獎賞,并由此獲得收入。隨著思想復雜性的提高,人形機器人可能開始表達對于生活現(xiàn)象和問題的觀點,甚至提出政治主張,要求擁有言論自由和游行示威權(quán)利。這些現(xiàn)象可能給人類帶來挑戰(zhàn)、不安,甚至危險。有些學者認為:機器人與人類反目成仇的可能性遠高于我們的預想。機器人可能與人類對抗,它們不具備人類那種良知意識、是非觀念和人生觀念。用于對實施暴力、人身傷害甚至殺人行為的人類法律,是非也適用于機器人?機器人法律問題已經(jīng)提上議事日程。
據(jù)報道,已有一些國家,如韓國、日本和美國等,已就機器人的一些問題立法,保護人類和機器人。韓國政府頒布了《機器人道德憲章》,以確保人類對機器人的控制,保護機器人獲得的數(shù)據(jù),保護機器人的權(quán)利。日本也頒布了《下一代機器人安全問題指導方針》,保護人類在使用機器人過程中不被傷害。
阿西莫夫提出的 “機器人三守則”的目的是創(chuàng)造一個基本框架,以便讓機器人擁有一定程度的 “自我約束”。雖然這樣復雜的機器人目前還沒有制造出來,但機器人法律卻已被廣泛應用在在科幻、電影以及機器人研發(fā)領域中的 “機器人學”和 “人工智能”領域上。
阿西莫夫
不過,阿西莫夫三法則有著一定的歷史局限性和概念歧義性,三條法則之間也存在邏輯矛盾。
假如兩個人斗毆,機器人應當選擇幫誰呢?加入任一方都違反第一法則前半部分,不加入?yún)s又違反第一法則后半部分。
假如主人要機器人幫他去搶銀行,“搶銀行”也是主人的一種命令,也不違反第一法則,那么機器人一定是去搶銀行。這種違法的事情算不算違背第一法則?
假如機器人在執(zhí)行 “保護人質(zhì)”命令的過程中,未能保護自己而被綁架者 “擊斃”,算不算機器人違背了第三法則?
由此可見,機器人三法則自身就存在著嚴重的邏輯矛盾。
后來,阿西莫夫又補充了 “第零法則”,只是偷換了概念,把第一條的 “個人”換成了 “人類”,但是人類之間是有不同的利益集團的。例如,如果兩個集團或兩個國家發(fā)生武裝沖突,任何一方都認為自己是正義的,雙方都研發(fā)軍事機器人投入戰(zhàn)爭,做著傷害人類的事情。其結(jié)果是,機器人做和不做都不對;如果做的話就意味幫助一部分人傷害另一部分人,如果什么也不做的話機器人就違反第二法則了。
至今,又出現(xiàn)了對阿西莫夫機器人法則的補充意見。那些在阿西莫夫機器人三法則基礎上加以修改得出的所謂 “完善”一點的定律,其實也并不完美,而且走向了窮盡所有,可能走進制定規(guī)則的誤區(qū)。試想,連人類 (指令制定者)都無法判斷是否正確的行為,機器人又如何能夠得出正確的結(jié)論呢?在這個問題沒有解決之前,誰能說機器人做錯了?
機器人的發(fā)展也給現(xiàn)行法律帶來了嚴峻挑戰(zhàn)。
現(xiàn)有勞動法以保護勞動者為宗旨。而當大量工作崗位被機器人取代時,勞動法的適用廣度勢將大大縮減。
在全面迎來無人駕駛的時代,主要根據(jù)駕駛?cè)藛T過錯劃分責任的道路交通制度體系將被徹底顛覆。一旦發(fā)生交通事故,現(xiàn)有的駕駛員責任不復存在,汽車公司可能將成為保險公司最大客戶,交通法規(guī)或?qū)⒏膶憽?/p>
在人工智能時代,大量的作品可能由智能機器創(chuàng)作,如記者機器人撰寫新聞稿。這一切或?qū)㈩嵏铂F(xiàn)有的與知識產(chǎn)權(quán)相關的法律制度。
“高級案件管理”系統(tǒng),也被稱為 “機器人法官”。該系統(tǒng)能夠通過對既有數(shù)據(jù)的判例與分析,自動生成最優(yōu)的判決結(jié)果。與法官一樣面臨職業(yè)危機的還有律師、教師、藝術家等行業(yè)。在人工智能時代,法律也將重塑對他們的職業(yè)要求。
人工智能時代的法律話題或者才剛剛開始,人類社會對它的探索也將持續(xù)不懈。無論喜歡或者不喜歡,人工智能時代終將到來。這將是一個智能機器與人高度融合的時代。在這個時代,我們將與智能機器一起生活、一起工作、一起思考。傳統(tǒng)法律將面臨巨大挑戰(zhàn),法律觀念將被重新構(gòu)建。法律的終極關懷,不僅包括人,還包括智能機器。無論你喜歡或不喜歡法律都將重構(gòu),不得傷害人類與不得虐待機器人或?qū)⑼瑫r寫進憲法。
如同其他產(chǎn)品一樣,人工智能產(chǎn)品在法律領域的許多責任問題和安全問題需要引起世界各國和智能機器研發(fā)者的高度關注。在醫(yī)療領域,醫(yī)療機器人引發(fā)的醫(yī)療事故或?qū)嵤┑膼阂庑袨榈呢熑螁栴};在軍事和執(zhí)法領域,執(zhí)法機器人代行警察職能。具有反社會傾向的機器人將向人類伸出黑手,實施非法行為或恐怖襲擊。這些問題應當如何考慮與處理?因此需要解決許多相關的法律問題。
由于人形機器人可以移動,具有自主性,能夠通過內(nèi)置軟件做出決定,因此將提升機器人作業(yè)的安全性,但也將帶來更加復雜的法律問題。機器人制造商必須為其產(chǎn)品的不良后果負法律責任,甚至被起訴。
希望法律能夠規(guī)范人形機器人和其他智能機器的發(fā)展。特別是當超級智能機器變得越來越強大以至于超出人類控制時,這種能力可以幫助界定人機交互的界限。這需要我們確保對智能機器的控制、防止非法使用、保證智能機器獲取安全數(shù)據(jù),以及建立智能機器身份識別和跟蹤系統(tǒng)。
人類制訂智能機器 (包括智能機器人)法律的目的在于:通過完善的法律法規(guī),最大限度地利用智能機器具有的能力,引領它們的發(fā)展進入正確軌道,并防范它們可能帶來的消極影響,確保人工智能和智能機器以及人類社會的長治久安。
首先看看人工智能倫理問題出現(xiàn)的背景。
智能機器的發(fā)展關系人類的存亡。人工智能與智能機器的倫理問題應該引起全社會的關注,現(xiàn)代技術的進步讓人類社會置于風險之中。對于人工智能的倫理問題,要做好智能技術的控制,先控制后制造,在機器人的設計和生產(chǎn)中人類應有所保留。
人們所擔憂的應用服務機器人引發(fā)的風險與倫理問題,主要涉及兩個方面:一是小孩和老人的看護,另一是軍用自主機器人武器的發(fā)展。
孩子與機器人短期接觸可以提供愉悅的感受,還可以激發(fā)他們的興趣和好奇心。但是,機器人還不能作為孩子的看護者,因為孩子始終需要大人來照顧。過長時間與機器人相處,可能會造成孩子成長過程中不同程度的社會孤立。如果將孩子完全交給一個機器人保姆,讓機器人保姆照料孩子的安全,那么可能使孩子缺失社交功能。人口老年化程度加深促進了助殘機器人的發(fā)展。例如,喂食機器人、洗澡機器人、提醒用藥的監(jiān)控機器人等。老年人長期完全置于機器人照顧之下也是存在風險的。老年人需要與人接觸,需要看護者為他們提供日常護理工作。即使它們可以減輕老年人的親友的內(nèi)疚感,卻無益于解決老年人的孤獨問題。人們正在逐漸被現(xiàn)實世界中人與機器人之間的關系所誤導。
軍用機器人的應用也產(chǎn)生另一些道德問題。例如,美國在伊拉克和阿富汗配置了5000多個遙控機器人,用于偵察與排雷,也有少數(shù)用于作戰(zhàn)的重型武裝機器人。在作戰(zhàn)行動中,由地面機器人充當先鋒,當隱藏著的敵人攻擊時,無人駕駛偵察機發(fā)現(xiàn)敵軍位置,通知巡航中的戰(zhàn)斗機,然后,戰(zhàn)斗機發(fā)射導彈,命中目標。這一切行動都通過網(wǎng)絡由戰(zhàn)場上的美軍操控。地面武裝機器人和自主/半自主武裝無人機造成許多無辜群眾 (包括兒童、婦女)的傷亡。如在敘利亞、伊拉克、阿富汗經(jīng)常出現(xiàn)的那樣。
高端軍用無人機正在不斷智能化
通常,武器都是在人的控制下選擇合適的時機發(fā)動致命打擊。然而,軍用機器人可在無人控制的條件下自動鎖定目標并且推毀它們。這些倫理問題的出現(xiàn)是因為目前還沒有能夠在近距離遭遇戰(zhàn)中區(qū)別戰(zhàn)斗人員和無辜人員的運算系統(tǒng)。計算機程序需要一個非常清晰的非戰(zhàn)斗人員的定義,但目前還沒有這種定義。機器人被設計用于實施包括軍事活動或違法行為在內(nèi)的對抗人類的行動。自主機器人士兵將大大增加引發(fā)地區(qū)性沖突和戰(zhàn)爭的可能性。
人工智能和智能機器的倫理道德問題將關系到智能機器是繼續(xù)為我們?nèi)祟愃眠€是成為我們的敵人?
許多科幻影片的劇情和結(jié)局反映了人類對于他們的創(chuàng)造物可能進行反抗的恐懼。例如,影片《終結(jié)者》中人類為了生存權(quán)而與機器人開展戰(zhàn)斗。《黑客帝國》中,人們成為寄生機器人的俘虜;它們讓人類活著只是為了從人類身上獲取能量??ɡ谞枴P佩克在1921年創(chuàng)作的舞臺劇《羅薩姆的萬能機器人》劇中,機器人發(fā)動叛變并摧毀它們的人類主人。
人形機器人的發(fā)展引發(fā)對倫理道德的關注。如果不謹慎對待,那么機器人可能使我們受到傷害:造成傷害事故、實施故意傷害或犯罪行為、可能直接接觸我們的個人隱私信息,并把它泄露給公眾。
人形機器人已獲得廣泛應用,它們可以從事藝術表演、醫(yī)療實驗對象、招待工作、時裝表演。開發(fā)者力圖復制人類的表情與行為,然而它們當前所具有的功能與科幻小說描述的相差甚遠。對科技的恐懼感也將繼續(xù)出現(xiàn)。比如,有一位機器人科普書籍的作者給他的3歲女兒買了一個和她一樣高、能走路、會唱歌的機器人娃娃。當娃娃走向女兒并唱歌表演時,女兒不但沒有感到驚喜和跑過去擁抱娃娃,相反,她臉色變得煞白,尖叫著跑回房間,好像見到怪物和幽靈一樣。多年后他的3歲的外孫,在迪士尼樂園觀看人形機器人表演時也被嚇了一跳,為了讓外孫平靜下來,他只好把外孫帶離機器人表演現(xiàn)場。這些說明人類在面對機器人時會產(chǎn)生出于本能的恐懼感。這個問題值得研究。
地球上某種由人類創(chuàng)造出來的生物,對人類是危險的,而且可能存在最具毀滅性的威脅。人類如何才能讓智能機器具有同情心、責任心、同理心、負罪感、羞恥感和是非判斷能力,如何通過編程實現(xiàn)機器人道德?否則,人形機器人就可能具有反社會和毀滅人類的傾向。在生物工程技術的啟發(fā)下,機器人被制作的越來越像人類。仿生應用程序的開發(fā)要確保機器人作為有道德的生物存在。智能機器的智能構(gòu)建需要得到人類本性的啟發(fā),同時又要避免人類的故有缺點。我們希望制作出和善的智能機器,而不希望它們完全仿效人類,不希望它們仿效殘忍、自私、自以為是、為了一己私利而不擇手段等不良品性。
那么,人類是否需要對智能機器的權(quán)利加以限制?
人類賦予智能機器某些權(quán)利是合理的,智能機器應該擁有得到尊重的道德權(quán)利。不過,在賦予智能機器某些權(quán)利的同時,我們更應該對智能機器的權(quán)利進行限制。
智能機器和人工智能系統(tǒng)研發(fā)人員正在不斷努力,通過建立道德準則、指導方針以及將道德編制為相應算法以指導智能機器的行為,尋求解決問題的方法,以確保人工智能機器對人類是友好的。
許多學者認為,具有高度智能的機器會向人類要求更多的權(quán)利。這也提醒我們,技術上的可能并不能成為道德上的應當。我們是否應該對智能機器的發(fā)展做出某種制度上的限定,使其按照某種規(guī)范發(fā)展?對某種技術的應用范圍進行限制,這并不是全新的話題,比如許多國家已經(jīng)通過各種形式以至立法禁止克隆人。即使人們認為科學技術的研究不應該較多地受到倫理規(guī)范的限制,但至少應該對科技研究成果的應用范圍保持高度的警惕。關于智能機器的科學技術基礎至少包括人工智能、計算機科學技術與機器人學,對這些相關領域的科技成果的應用并不是無限度的。如果說克隆人的出現(xiàn)關乎人類尊嚴的話,那么智能機器的無限發(fā)展也將可能對人類的安全形成威脅。關于智能機器的發(fā)展限度等問題,政府部門、科技界、哲學界與法學界等不同領域的人員顯然需要精誠合作,共同努力解決相關問題。這已經(jīng)不是只存在于科幻小說與思辨哲學等領域的話題,而是一個日益緊迫的現(xiàn)實問題。
公眾和立法機構(gòu)將采取行動限制智能機器和人工智能技術的發(fā)展,而不是像原子彈和生化武器那樣要在人類遭受重大傷害后才加以限制。國際社會的科學家和工程師們正致力于建立適用于人形機器人開發(fā)與使用的“道德準則”。要努力確保人類對智能機器的控制,防止非法使用,保障智能機器獲取安全數(shù)據(jù),確立明確的識別與跟蹤智能機器的方法。需要制定相關法律保護人類免受變得越來越聰明能干、甚至某些能力超過人類的智能機器的傷害。
人工智能技術的發(fā)展給人類帶來福祉,但需要謹慎地對待智能機器發(fā)展過程中可能出現(xiàn)的問題,尤其要考慮如何編制友好的人工智能算法來使智能機器按照倫理道德標準行事。
有必要把人工智能的社會學問題提上議事日程。政府部門、科研機構(gòu)和學術團體,都要把人工智能社會學研究納入相應計劃,研究解決對策與辦法。人工智能可能出現(xiàn)的一些負面效應或新問題,如利用人工智能技術進行金融犯罪,智能駕駛車輛需要出臺相應的交通法規(guī)等。因此,需要建立相關的政策和法律法規(guī),避免可能風險,確保人工智能的正面效應。只有人工智能應用得好、把握得好,才能確保人工智能不被濫用,確保人工智能是天使而不是魔鬼。