国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

關(guān)于通用人工智能的幾個重要倫理問題*

2024-04-11 09:58:01魏屹東
關(guān)鍵詞:機器道德機器人

魏屹東

(山西大學(xué)哲學(xué)學(xué)院,山西 太原 030006)

人工智能的快速發(fā)展,尤其是大語言模型帶來的倫理問題,已對傳統(tǒng)倫理觀念形成了重大挑戰(zhàn),比如人工智能算作什么智能、機器人有無道德感、人工道德是何種道德、機器人如何行善等不一而足。關(guān)于人工智能倫理及其治理的文獻很多,本文僅圍繞未來人工智能的一種架構(gòu)——通用人工智能(artificial general intelligence,AGI)可能帶來的倫理問題展開討論,主要涉及AGI的主體性、安全性、可靠性和可控性以及倫理增強和社會化。

1 關(guān)于AGI作為人工自主道德系統(tǒng)的主體性問題

一個人工智能體,能否成為一個獨立的道德主體,這是有很大爭議的。就人類而言,不是所有人都具有獨立的道德主體,比如未成年人、心智不健全者就沒有,盡管他們有獨立的人格(應(yīng)該受到尊重和善待)。對于非人類動物,它們本身可能沒有道德觀念,但人類也應(yīng)該善待它們,虐待就是不道德的。就人工主體(這里沒有用智能體,是基于自治性更獨立性考慮的)來說,人們普遍認為它沒有生命,更沒有意識,盡管它被認為有智能。這里暫且不談生命、意識和智能之間是什么關(guān)系,就它有智能而言,無意識的智能體一定會導(dǎo)致道德感嗎?或者必須為其行為負有倫理責(zé)任嗎?比如一個機器人撞倒了老人,即使它要承擔(dān)法律責(zé)任(應(yīng)該由使用它的人負責(zé)),它有負罪感嗎?也就是說它會為自己的過失感到自責(zé)嗎?

目前的實際情形是,人形機器人不是人類(盡管形象似人),不具備人類的人格和道德屬性。然而,這并不妨礙人工智能專家給它設(shè)計一個道德認知標準,就像給任何一個人工產(chǎn)品制定一個使用說明一樣。一個初步具備AGI特征的人工自主道德智能體(the artificial and autonomous moral agent[1],AAMA)的模型探討了道德認知標準,并將其與其他人工規(guī)范智能體的模型進行比較,認為在“道德傾向的功能主義”的框架內(nèi),人工道德是可能的,如醫(yī)療專家系統(tǒng)、人工智能大模型GPT。這種可能性是從其外在行為判斷的,而不是內(nèi)在屬性。AAMA能夠閱讀人類行為者的行為,將其作為收集到的數(shù)據(jù),并根據(jù)道德模式對他們的道德行為進行分類。也就是說,這種機器人是對人類行為進行道德判斷,而不是對自己的行為作出道德評價。這與專家系統(tǒng)幫助醫(yī)生診斷病情是一個道理,系統(tǒng)本身不能為自己的診斷結(jié)果作出評判。

因此,AAMA是一個復(fù)雜的人工智能體,它被賦予了自主權(quán)和作出道德決定的能力。人工智能中的大多數(shù)智能體是復(fù)雜的適應(yīng)性系統(tǒng),包括反應(yīng)單元和能夠?qū)Νh(huán)境的變化作出反應(yīng)的子系統(tǒng)。筆者認為這種適應(yīng)能力與能夠作出判斷的認知能力,尤其是自反性判斷,完全是兩碼事。顯然,在AAMA中,一個有用的屬性是適應(yīng),它通過適應(yīng)新的數(shù)據(jù)和以前的經(jīng)驗來作決定;它需要對環(huán)境進行采樣,然后選擇對環(huán)境變化的最佳反應(yīng)。這就是“行動-感知循環(huán)”,是一種適應(yīng)性表征行為。因此,自主智能體的生活是采樣、關(guān)注和行動的連續(xù)過程。自主性在這里被定義為一個動態(tài)的概念,強調(diào)的是獨立于人類決策者和程序員預(yù)先施加的規(guī)則,即機器的“能動性”(agency)。

于是問題來了。這種基于適應(yīng)性的自主性是人工智能體的主體性嗎?行為-感知循環(huán)能夠產(chǎn)生道德感嗎?筆者認為,這是不同層次的問題。物理和生物系統(tǒng)的適應(yīng)性是一種自組織特性,其發(fā)生機制可能是“行動-感知循環(huán)”,但這種機制并不必然產(chǎn)生意識、心智以及更高級的道德感。自主性與主體性是有區(qū)別的,按照筆者個人的理解,自主性是自組織系統(tǒng)的一種衍生屬性,構(gòu)成意識的一個基本方面,但還不是哲學(xué)上的主體性。主體性的主體是人,不是其他物(動物和機器人),比如“主體間性”就是指人與人之間表現(xiàn)出的交流、溝通和理解等屬性。在這個意義上,主體性是以有意識主體為前提的,而目前的機器人顯然沒有意識。如果筆者的這種理解是對的,那么人工智能體成為一個獨立的道德主體還不夠格,盡管它可以作為判斷人類道德行為的實體。所以,成為一個道德主體和成為一個判斷道德行為的實體之間是有巨大差別的。比如,“我知道電子秤能夠稱出我的體重”,與“電子秤顯示我的體重”完全是兩碼事。前者是有意識表達,后者是無意識呈現(xiàn)。

事實上,這里存在一個道德負荷問題,即讓機器負載人類的道德。這必然會遇到兩難選擇,簡單說即“做不是,不做也不是”。比如,在機器人作為道德主體問題上,老人護理機器人和自動駕駛汽車(1)護理機器人不能按照用戶的意愿行事,駕駛機器人不能應(yīng)對道路事故的意外情況,這兩種情境都是道德負荷問題,是人為地加載的,機器人甚至人類在意外情形下也是隨機選擇,沒有所謂的道德兩難問題。在我看來,人類的道德能力如何形成的,構(gòu)成如何,我們并沒有完全搞清楚,怎么能指望沒有意識的機器人作出理性的道德選擇呢?(見Scheutz M.Moral Competency in Autonomous Agents.In Müller V C. ed. Fundamental Issues of Artificial Intelligence[J].Springer International Publishing Switzerland,2016:521.)。在遇到意外事件時往往會面臨兩難選擇。筆者認為這種悖論是人類自己造成的。是人(往往是哲學(xué)家和倫理學(xué)家)事先設(shè)想了兩難情境讓機器人判斷,這是不科學(xué)的,也是要求過高的。道理很簡單,即使是理性的人類護理員和駕駛員,在遇到意外事件時,也不會先考慮道德后果再作決定,而是在當前情境下作出應(yīng)急處理,至于這樣做有什么后果,緊急情形下的當事人并不考慮,也沒有時間考慮。當事人只是做其身體反應(yīng)能做到的,比如緊急避讓,至于避讓后的后果怎樣,誰也不知道!這種道德設(shè)想是“事后諸葛亮”,并沒有“先明之見”。根據(jù)筆者自己的經(jīng)歷,人們在遇到緊急或意外事件時,并沒有過多地考慮(沒有時間去理性思考),而是身體本體反應(yīng)上立刻采取行動,比如身旁有人跌倒時我們會自動伸手去扶。這是一種先天能力,與道德判斷無關(guān)。機器人的情形也應(yīng)該是如此,即使人類設(shè)計者事先考慮到各種可能意外情況,也難以避免在遇到意外時可能出錯。

目前,機器人和人工智能的技術(shù)進步使自主機器人在某些方面得以實現(xiàn),它們可在無監(jiān)督的情況下自主決定做什么。盡管大多數(shù)機器人還很簡單,自主性也相當有限,但不可否認其自主性會越來越強;而自主性越強,有害性就可能會越大。這一點尤其令人擔(dān)憂,這就需要考慮機器人的決策算法的安全性和道德約束。這就是筆者倡導(dǎo)的文化人工智能,即從人文性視角看,只要機器人架構(gòu)中的決策和行動選擇算法不是基于文化、道德規(guī)范和道德推理的顯表征,由符號計算架構(gòu)控制的自主機器人將不可避免地會產(chǎn)生一些有害行為。如果機器人具有類似人類的道德規(guī)范能力,這種傷害可以得到緩解或減少。這與讓機器人有情感和意識可能是一個道理。

2 關(guān)于AGI的安全性問題

與人工主體的道德感相比,其安全性更為重要。因為AGI首先必須是安全的。這是我們使用人工制品第一個要考慮的問題。不安全的東西是絕對禁用的,無論它多么智能多么美觀。這是常識知識、道德規(guī)范,更是法律強制。一門關(guān)于人工智能體的安全工程的新科學(xué)主張,試圖讓機器作出道德決定或擁有權(quán)的做法是愚蠢的、錯誤的,AGI研究是不道德的(2)理由是,一方面,如果真正的通用人工智能將有能力解決普遍問題并進行遞歸的自我提升,那么它們有可能在任何領(lǐng)域超越人類,這基本上使人類沒有必要存在,因此會被滅絕;另一方面,如果一個真正的通用人工智能系統(tǒng)可能擁有與人類相當?shù)囊庾R,那么使機器人遭受痛苦成為一種真正的可能性,任何通用人工智能實驗也因此而不符合人類的倫理觀念。。這向科學(xué)和倫理學(xué)提出了一個重大挑戰(zhàn)——開發(fā)能夠證明人工智能實際上是安全的智能系統(tǒng),甚至在遞歸的自我提升下也是如此[2]389-396。

筆者部分贊同這種觀點,因為機器人不是具有人格的實體,當然沒有道德判斷能力,也就完全不是道德主體。部分不贊成是因為,通過安全工程并不能完全保證人工智能絕對安全(哥德爾定律業(yè)已揭示,任何系統(tǒng)都不是完備的)。而且,由于道德規(guī)范并不具有普遍性,其局部性較強(受文化傳統(tǒng)影響較大),比如離婚,在20多年前的中國社會中被一些人認為是不道德的,現(xiàn)在認為是合情合理且合道德的,而維持沒有感情的婚姻反而被認為是不道德的。因此,我們永遠不可能選擇一種正確的道德準則而使整個人類感到滿意,并且遵守。

為了約束人工智能可能產(chǎn)生的不道德行為,有人提出了一個所謂的人工智能封閉協(xié)議的概念——人工智能裝箱(3)所謂的“人工智能裝箱”指有人做了實驗,證明了即使是人類水平的智能也足以從箱中逃脫。在一系列的5個實驗中,實驗者讓不同的人扮演被困在箱子中的超級智能體的守門人,并在5個實驗中的3個中成功地通過聊天界面確保了其逃脫(見Yudkowsky E S.The AI-Box Experiment[EB/0L].(2022-08-22)[2023-10-09].http://yudkowsky.net/singularity/aibox.) 在筆者看來,“人工智能裝箱”與“把權(quán)力裝進籠子”是一回事,前者是限制人工智能的無序發(fā)展,后者是制約權(quán)力的肆意妄為。(AI-Boxing),以此作為一種應(yīng)對人工智能安全的挑戰(zhàn)[3]。這等于是將人工智能禁錮問題(artificial intelligence confinement problem,AICP)定義為將人工智能實體限制于一個封閉環(huán)境的問題。如果這種信息交流沒有得到權(quán)威機構(gòu)的授權(quán),它就不能通過合法或隱蔽的渠道與外部環(huán)境交流信息。如果出現(xiàn)反例,比如一個成功地違反了禁錮協(xié)議的人工智能系統(tǒng),這被稱為逃逸,這種情形可能是難以避免的。因此,建立一個絕對安全的人工智能系統(tǒng)幾乎是不可能的。

泰德·卡津斯基在其著名的宣言中提出:“也許有人會說,人類永遠不會愚蠢到把所有的權(quán)力都交給機器。但我們既不是說人類會自愿把權(quán)力交給機器,也不是說機器會故意奪取權(quán)力。我們所建議的是,人類可能很容易允許自己陷入對機器的依賴,以至于人類沒有實際的選擇,只能接受機器的所有決定。隨著社會和所面臨的問題變得越來越復(fù)雜,機器變得越來越聰明,人們會讓機器為他們作出更多的決定,這僅僅是因為機器作出的決定會比人作出的決定帶來更好的結(jié)果。最終可能會達到這樣一個階段:維持系統(tǒng)運行所需的決定將變得如此復(fù)雜,以至于人類將無法理智地作出這些決定。在這個階段,機器將被有效控制。人們將不能只是關(guān)閉機器,因為人們將完全依賴它們,關(guān)閉它們就等于自殺?!盵4]近30年過去了,這一看法現(xiàn)在看來仍然是有道理的。人類越來越依賴人工智能,尤其是智能手機和電腦。事實上,在日常生活中,大部分人在使用這些電子產(chǎn)品時,是無條件接受的,人們信賴它們所作的決定,比如導(dǎo)航軟件。

有人認為這會導(dǎo)致“奇點悖論”(singularity paradox)——超智能機器恐怕太笨而無法擁有常識[2]397,即:超級聰明卻不懂常識是矛盾的,相當于我們常說的“聰明反被聰明誤”。查爾默斯提出的“防漏”奇點的想法是:為了安全起見,首先將人工智能系統(tǒng)限制在模擬的虛擬世界中,直到它們的行為傾向于能夠在受控條件下被完全理解。查爾默斯認為,即使這樣做的方法不是萬無一失的,它也肯定比以物理具身形式建構(gòu)的人工智能要安全些。然而,他也指出,一個真正的防漏系統(tǒng),不允許任何信息從模擬世界泄露到我們的環(huán)境中是不可能的,或者至少是毫無意義的[5]。

亞波爾斯基提出一個解決方案:防止發(fā)展、限制部署、融入社會、自我監(jiān)督和間接解決[6]。不過,制造一個友好的人工智能系統(tǒng),且該系統(tǒng)將渴望在眾多的自我提升方法下保持其友好性,如果正確實施的話,似乎非常有可能成功。然而,沒有人知道如何創(chuàng)建一個對人類友好的自我提升的優(yōu)化過程是怎樣的,所謂“友好的人工智能”幾乎是不可能的,即可能也必然會產(chǎn)生許多意想不到的問題。這是一種普遍的看法,事實上,人工智能系統(tǒng)無論多么智能,即達到類人的AGI或超人類智能,它也是人造的機器,是機器就只有“機性”,而不會有“人性”,這是人與機器的本質(zhì)區(qū)別?;煜诉@種區(qū)別,就可能做出要讓機器有人性的荒唐事情。所以,創(chuàng)造一個友好的智能機器也不太可能比創(chuàng)造任何智能機器更容易,創(chuàng)造智能機器仍然會產(chǎn)生“奇點悖論”。

3 關(guān)于AGI的倫理責(zé)任問題

如果說人工智能的安全問題是一個單純的技術(shù)問題,那么人工智能的倫理責(zé)任問題就是認知問題。一個不安全可靠的機器人,是不會有市場的,因此這里再次強調(diào)安全性是第一位的,比如無人駕駛汽車、服務(wù)型機器人。在保證安全的前提下,人們才會考慮其他問題,比如道德和法律問題。

目前,一個AGI的倫理框架據(jù)說可使人工實體在復(fù)雜的道德場景中作出符合道德的決定[7]42-51。這樣一個AGI系統(tǒng)將達到或超過人類個體以及人類集體和機構(gòu)的道德推理能力。程序員通過咨詢和實施這樣的框架,將能夠設(shè)計出比沒有這樣的框架更具有道德推理能力的人工智能體。這就是羅素稱之為的人工智能“標準模型”——人類試圖將自己的目的(偏好)灌輸給機器[8]。這種功能模擬方法真的能夠產(chǎn)生人類水平的智能嗎?羅素斷言這種方式注定會失敗。當然了,如果這樣的框架在人工智能體的設(shè)計和使用中被實施,它將使世界在道德上更加美好。據(jù)稱這是一個基礎(chǔ)性的、靈活性的、適應(yīng)性的和語境性的道德系統(tǒng)的模型,它可作為AGI系統(tǒng)的設(shè)計者或AGI實體本身使用的模型,用于建立內(nèi)部的道德子系統(tǒng),使AGI實體能夠以道德上合理的方式成功參與復(fù)雜的道德場景。這實質(zhì)上就是讓人工認知系統(tǒng)擁有道德評價能力。

我們知道,人類的道德能力是語境化的,即通過后天教育獲得的,人工系統(tǒng)也必須通過學(xué)習(xí)獲得這種能力,這是因為進入類似道德場景的系統(tǒng)(即人類集體)所創(chuàng)造的大多數(shù)道德體系都是相似的,而且在其中可以發(fā)現(xiàn)一些基本道德規(guī)則的普遍性,如友善。人類道德體系中的謀殺、強奸、與兒童的性行為、亂倫、撒謊、不負責(zé)任,或不必要的干擾或損害等不道德行為,AGI系統(tǒng)也必須能夠識別和判斷,并加以嚴格禁止。目前網(wǎng)絡(luò)上的不道德行為,如詐騙、詆毀、虛假信息,若AGI系統(tǒng)能夠識別并加以制止,不僅可以大大減輕網(wǎng)絡(luò)監(jiān)管的工作量,也更能使廣大網(wǎng)民免受干擾。

筆者認為,如果我們能夠讓人工智能系統(tǒng)擁有道德能力,就必然會讓其擁有意識、情感、意志等心理能力,因為道德意識是更高級、更抽象的能力。也就是說,道德認知是基于意識能力的,比如幼兒有意識,但不能要求其有道德認知,隨地吐痰是一種不良行為習(xí)慣,但不是道德問題。當然,這還只是停留于理論設(shè)計層次,離技術(shù)上實現(xiàn)還有相當?shù)木嚯x。隨后的工作應(yīng)該是探討該框架的組成部分,在理論道德場景中對其進行測試,以及從廣泛的來源收集信息,從而確定AGI實體在進行語境道德計算時可以考慮的統(tǒng)計指標,能夠推導(dǎo)出接近甚至超過人類道德推理能力的語境下的道德解決方案。

問題是,人工智能體能成為道德主體嗎?它能在道德上對自己的行動及其后果負責(zé)嗎[9]?退一步講,即使它能夠成為道德主體,一個只能進行道德推理和評估而自己不具有道德意識的系統(tǒng),是一個類人的道德主體嗎?我們說計算機會計算但沒有意識,這與AGI能進行道德評估但沒有道德意識是一回事。因此,能做什么與意識到能做什么是不同層次的問題。這涉及人格同一性、自由意志、經(jīng)驗主義與理性主義等一系列帶有爭議的哲學(xué)問題。事實上,筆者認為這不是個問題,理由很簡單:因為人工智能系統(tǒng)根本就沒有人格,不能稱其為“人”,當然沒有人類所具有的情感、道德感和責(zé)任感,盡管它能夠產(chǎn)生行為,但它并不為其行為負責(zé)。這與兒童或心智不健全的人不為自己的行為后果負責(zé)是一個道理。所以,這種討論從深層次的哲學(xué)上看沒有任何意義。當然,我們可討論人工智能研究中可能或已經(jīng)出現(xiàn)的法律和倫理問題,比如無人駕駛汽車的交通事故誰來負責(zé)的問題。然而,這是不同層次的問題,一個是科學(xué)研究和技術(shù)開發(fā)應(yīng)該不應(yīng)該的問題,一個是機器人(智能體)本身是否有道德感和責(zé)任心的問題。這兩個問題不能混淆,否則會導(dǎo)致上述問題。

4 關(guān)于AGI的倫理增強問題

盡管人們對AGI有許多質(zhì)疑甚至反對,但其發(fā)展是難以阻擋的。這與科技史上的任何一項革命性發(fā)明的出現(xiàn)都會遇到阻力是一個道理,從蒸汽機、電動機、計算機、互聯(lián)網(wǎng)到人工智能,概莫能外。所以AGI 的發(fā)展也必然會遭到質(zhì)疑,因為這涉及AGI的“機器化”(cyborgization)如何避免惡意的人工智能(malevolent artificial intelligence,MAI)[10],即刻意制造破壞性的機器人,如無人轟炸機,使AGI的可靠性和倫理問題特別令人擔(dān)憂。

這種惡意利用人工智能的行為與網(wǎng)絡(luò)安全還有所不同。網(wǎng)絡(luò)安全的研究概念涵蓋了潛在的惡意利用和維護安全的措施,從而確保了某種平衡,而人工智能安全的研究迄今只關(guān)注實施安全人工智能系統(tǒng)的一般條件,而對這些系統(tǒng)可能的惡意利用仍被忽視了。因此,我們應(yīng)該解決由此產(chǎn)生的信息缺乏問題,因為未來對超級人工智能系統(tǒng)的惡意利用的后果,必然會對人類造成毀滅性的影響[11]。這種后果是不難想象的,這由大規(guī)模使用核武器的后果不難推知。

然而,問題在于,這是人工智能研究者的倫理問題,而不是機器人本身的倫理問題。未來遏制這種不道德的人工智能,AGI架構(gòu)中的自我意識功能應(yīng)該具有高度相關(guān)的如下優(yōu)勢[7]1-11:

①透明度:通過應(yīng)該有自我意識的AGI,允許其設(shè)計者了解其內(nèi)部過程的重要能力,它在設(shè)計上并不完全是一個“黑箱”系統(tǒng),而是部分可解釋的,這為有效的人工智能安全措施提供了基礎(chǔ)。

②可解釋性:由于AGI在透明的自我評估的基礎(chǔ)上進行自我管理,其決策過程可以被獨立地記錄和交流,這可能會增加人類對AGI的行動提取有用解釋的可能性。

③可信度:改進AGI的可解釋性可能會提高其可信度和從人類角度的接受度,這反過來可能會提供更多的機會,在更多的現(xiàn)實世界環(huán)境和語境下測試有自我意識的AGI。

④可控制性;通過假設(shè)AGI有通信能力,人類主體和AGI之間的穩(wěn)定反饋回路可能會導(dǎo)致人類控制的改善,提供許多測試的機會和主動整合更多人工智能安全措施的可能性。

⑤快速適應(yīng)性:AGI的自我意識能力允許它對動態(tài)環(huán)境中的變化作出更快的反應(yīng)和適應(yīng),即使在由于時間原因人類不可能進行干預(yù)的情況下,也可以提高容錯率和安全性。而且,在有來自環(huán)境的負反饋的情況下,它可能會更有效地避免不希望發(fā)生的情況。

⑥成本效益:在安全和成本效益之間通常有一個權(quán)衡,但一個自我意識系統(tǒng)本質(zhì)上更具有成本效益,例如,由于自我意識系統(tǒng)的錯誤有更好的可追溯性,通過其決策過程的透明度促進了可維護性,或者由于該系統(tǒng)可以適應(yīng)任何情況下的最佳工作,同時缺乏任何明顯的機制來交換降低其安全水平,由此產(chǎn)生了一個雙重優(yōu)勢。

⑦可擴展性:一個具有自我意識的AGI可以被擴展,例如包含一個人類認知的模型,它可以考慮人類的缺陷,如認知限制、偏見等。因此,AGI可以調(diào)整它向人類主體展示信息的方式,并考慮其具體約束,以保持一定程度的可解釋性。

然而,AGI的這些優(yōu)越性到目前為止,還沒有具體說明自我意識導(dǎo)向的AGI的目標是在什么基礎(chǔ)上制定的,比如基于生物意識或人機融合。很明顯,自我意識本身遠不能說明人工智能的安全問題,因為它本身并不能解決潛在的目標一致(對齊)問題。鑒于有自我意識的人類尚不能做到絕對安全,人工智能的介入就是為了增強這種能力。這要求AGI的發(fā)展一方面需要倫理增強——讓人工智能學(xué)習(xí)人類的目標,在AGI模型中把它們編碼為一套事實的優(yōu)先目標[12];另一方面需要認知增強——納米機器人、仿生學(xué)、生物技術(shù)、腦機接口技術(shù),或新出現(xiàn)的整合機器和生物智能的半機械人智能[13]等領(lǐng)域的預(yù)期進展,可能會在可預(yù)見的未來為認知增強帶來相當大的可能性。例如,增強的功利主義作為一個新的非規(guī)范的社會技術(shù)倫理框架,可直接緩解不正當?shù)膶嵗瘑栴},也可用于緩解AGI的安全問題[14]。在人工智能和更廣泛的科學(xué)技術(shù)的增強下,增強的功利主義可能允許社會在共同經(jīng)歷動態(tài)的倫理增強的同時,精心設(shè)計和更新倫理的效用函數(shù)。在筆者看來,為了精心設(shè)計效用函數(shù),我們必須使高級人工智能系統(tǒng)的行為不至于違反人類的道德直覺,我們必須科學(xué)地考慮相關(guān)的社會文化背景和人的具身性。

從道德上考慮,利他主義對人類社會更為有益,若能夠設(shè)計并制造出利他主義的人工智能,那人類的前景一定會更美好。這是羅素倡導(dǎo)的“有益機器”或“有益的AI”的設(shè)想,試圖讓機器的行動實現(xiàn)人類的目標,而不是它們的目標。也就是說,這種有益機器的設(shè)想是針對人工智能研究者如何建構(gòu)友善的人工智能系統(tǒng)的,而不是人工智能系統(tǒng)本身要遵循的規(guī)則(4)羅素的“有益機器”有三個定律:純粹的利他主義原則,即機器的唯一目標是最大限度地實現(xiàn)人類的偏好;謙卑的機器原則,即機器最初不確定這些偏好是什么;學(xué)習(xí)預(yù)測人類偏好原則,即關(guān)于人類偏好的最終信息來源是人類行為(見羅素的《AI新生》第182-186頁)。這三個原則涉及對“偏好”“不確定性”以及“智能來源”問題,可成為有益人工智能發(fā)展要遵循的原則。這與筆者倡導(dǎo)的“文化人工智能”基本一致,即將人的價值觀(普適的)嵌入機器。。不過,這種有益的人工智能還只是一種設(shè)想,也可能是“烏托邦”。因為人工智能的極度發(fā)展似乎與人類社會的終極目的是正交的,即方向垂直但總有相交點。這就是博斯特羅姆的正交論[15]。根據(jù)正交論,智能和最終目標是正交軸,智能體可以沿著這個軸自由變化。如果這個理論是正確的,那么我們就需要考慮人工智能發(fā)展的必要性了。比如,人人都知道戰(zhàn)爭對人類沒有好處,但總會爆發(fā)戰(zhàn)爭,還不斷將最新科技用于發(fā)展新式武器,如無人機。長遠來看,將第一人稱視角的感知幸福納入社會/技術(shù)反饋循環(huán)核心的道德目標功能的科學(xué)研究,可能表征了以最有效的方式促進人類繁榮所需的一個實質(zhì)性因素。

一種面向網(wǎng)絡(luò)安全的風(fēng)險分類法將人工智能的風(fēng)險分為第一類和第二類系統(tǒng)[16]:第一類人工智能系統(tǒng)(弱人工智能)的最重要的安全問題是有意無意的設(shè)計,特別是作為潛在的惡意的人類對手,他們可以確定大量的利益相關(guān)者,諸如軍事組織、軍火商和恐怖組織罪犯。一般來說,惡意攻擊者可以開發(fā)智能形式的病毒、間諜軟件、特洛伊木馬、蠕蟲和其他危險的軟件。第二類人工智能系統(tǒng)(強人工智能)的安全問題是AGI可能存在的潛在風(fēng)險,因為這類人工智能系統(tǒng)是未來可能的,沒有任何自然法則會禁止其實施。比如對哲學(xué)認識論的沖擊——非人類智能的認識論何以可能?人類認識有至上性,AGI的認知能力有至上性嗎?現(xiàn)代認知科學(xué)表明,在大多數(shù)創(chuàng)造性形式中,變異和選擇之間存在著耦合,導(dǎo)致智力大于零的程度[17],這在沒有目標的生物進化過程中是缺乏的,而在預(yù)測性貝葉斯大腦的背景下,對創(chuàng)造力的解釋則是可能的[18]。這意味著,人工智能的發(fā)展并不遵循生物進化規(guī)律,其智能可能沒有上限。這是我們要特別重視和注意的問題。

關(guān)于第一類系統(tǒng)的集合,目前的人工智能是其中的一個子集,可把它定義為代表第二類系統(tǒng)集合的補充。第二類系統(tǒng)具有科學(xué)上的可信能力,能夠獨立地、有意地和有意識地行動,并且能夠精心地作出解釋[19]12-22。第二類系統(tǒng)指的是具有如下能力的系統(tǒng),即構(gòu)建關(guān)于可能發(fā)生的事情、如何發(fā)生以及為什么發(fā)生的反事實假設(shè),包括模擬“我能做什么”“我做了什么”以及產(chǎn)生“要是”(what if)問題的能力(虛擬條件句反映的目的性)。

這可能產(chǎn)生人工智能的安全悖論:人工智能控制和價值調(diào)整表征了人工智能安全中的共軛要求。雖然第二類人工智能可以在認知速度和智能方面超過人類,但它們甚至不需要這樣做就可意識到,它們的行為也將取決于它們將創(chuàng)造的未來知識(僅次于人類將創(chuàng)造的未來知識)。它們不能以人們試圖控制第一類系統(tǒng)的方式來控制,例如用道德目標功能來控制。它們的目標功能將與具有反事實的自組織屬性有關(guān)。因此,系統(tǒng)的復(fù)雜性可能表征了一種可能的但不一定充分的自我保護功能,以抵御代碼層次的操縱。比如,一種試圖通過迭代改進效用函數(shù)來實現(xiàn)AGI的安全性的研究,旨在讓人類對AGI智能體有更多的控制,通過部分或完全抑制智能體中可能出現(xiàn)的激勵來操縱改進過程[19]205-215。智能體的人類設(shè)計者可使用這個終端來彌補在效用函數(shù)對智能體的目標和約束的編碼中發(fā)現(xiàn)的任何漏洞,將智能體引向新的目標,或者迫使智能體關(guān)閉自己。這是強化學(xué)習(xí)的方法。所以,一個AGI系統(tǒng)可能會發(fā)展出操縱效用函數(shù)改進過程的涌現(xiàn)激勵,如通過欺騙、限制甚至攻擊相關(guān)人,其安全層將部分地,甚至完全地抑制這種危險的激勵。

5 關(guān)于AGI的可控性和社會化問題

到目前為止,世界上沒有人擁有能夠擴展到人類水平的人工智能,并達到超級智能的有控制機制這種技術(shù)。或者說,控制AGI及其更高級版本“超級智能”的能力還沒有被確立。這是否意味著高級人工智能不能被完全控制呢?不受控制的人工智能對人類的未來和人工智能系統(tǒng)本身的安全和保障是一個重大挑戰(zhàn)[9]316-326。

這里存在一個可控論和不可控論之爭??煽卣撜哒J為,一個超人的AGI是一個在大多數(shù)認知任務(wù)上勝過人類的系統(tǒng)。為了控制它,人類將需要控制一個比自己更聰明的系統(tǒng)。如果智力差異很大,而且AGI試圖逃避控制,這種情形幾乎是不可能的。人類有一個關(guān)鍵的優(yōu)勢:作為系統(tǒng)的設(shè)計者,我們可以決定AGI的目標,以及AGI努力實現(xiàn)其目標的方式。這允許我們設(shè)計出目標與我們一致的AGI,比如羅素的“有益的AI”,然后以負責(zé)任的方式追求它們。這意味著增強智能并不是一種威脅,只要AGI致力于幫助我們實現(xiàn)我們自己的目標[20]。不可控論者認為,人工智能不能復(fù)制到新的硬件上,也不能在當前的硬件上修改它自己,而決定人工智能在外部世界中試圖要完成的任務(wù)的決策系統(tǒng)具有穩(wěn)定性,并且在多次自我修改中不斷提升自己。而且,人工智能的決策功能是以抽象的形式存在于自我修改中,不能以可知的穩(wěn)定性和有限的失敗概率與程序員的目標相聯(lián)系,這些目標在人工智能中是不斷變化的。

筆者認為,人工智能技術(shù)與核技術(shù)一樣,在人類的共同努力下,是可以控制的,除非有人惡意制造不道德的“惡意的人工智能”[21]。就看我們?nèi)祟愒敢獠辉敢?政府干預(yù)不干預(yù)。這不僅涉及人工智能本身的發(fā)展,還涉及社會管理以及法律、倫理的共同參與。這是一個復(fù)雜的全社會治理工程,需要地球人共同努力來完成,因為人類是一個“命運共同體”。

如果AGI能夠健康發(fā)展,AGI可能會出現(xiàn)兩種趨向:一種是社會化,另一種是后生物學(xué)化。社會化是說,通用智能要將人工智能理解為一種社會文化現(xiàn)象和“非人類智能行為者”。事實上,人工智能正日益成為社會的一部分,人機交互業(yè)已成為現(xiàn)實,具體表現(xiàn)在不斷發(fā)展的智能家居系統(tǒng)、自動駕駛車輛、聊天機器人、智能公共顯示器、護理機器人等領(lǐng)域[7]130-139。這需要對人工智能進行社會學(xué)研究,比如機器人的社會認知。我們可以對科學(xué)現(xiàn)象作社會學(xué)分析,形成科學(xué)社會學(xué)和科學(xué)知識社會學(xué),也可以對人工智能作社會學(xué)分析,如形成人工智能社會學(xué)和機器人社會學(xué)。盡管人工智能本身不是社會現(xiàn)象,但像社交軟件工具的普及化,線上會議軟件的流行,使得AGI的社會化理解成為必然。由此社會學(xué)產(chǎn)生的人工智能概念,也適應(yīng)于經(jīng)濟、政治科學(xué)或人類學(xué)。

目前,人工智能在社會學(xué)中幾乎只被視為統(tǒng)計或文本分析的方法論工具,這是將機器智能技術(shù)應(yīng)用于社會現(xiàn)象,即“人工社會智能”[22]?;谌斯ぶ悄艿墓ぞ吆拖到y(tǒng),諸如無人駕駛班車、聊天機器人、游戲系統(tǒng)(虛擬現(xiàn)實),都是人工社會化智能。比如,對大型多人在線游戲的虛擬世界中的“具身對話智能體”進行的民族方法學(xué)研究,提出了計算機游戲中的bots(非游戲人的虛擬人)是否被玩家視為社會行動者的問題[23]。

AGI的另一種趨向是后生物化文明。我們可以想一想,人工智能體是否可以實例化意識,對于社會和復(fù)雜文明的建立和維持意識是否必需?所謂的“技術(shù)奇點”[24]和“時空奇點”[7]207-216是否會到來?由此導(dǎo)致的所謂“費米悖論”(5)費米悖論是指在銀河系或宇宙中存在其他智能文明的明顯高可能性與目前缺乏任何證據(jù)之間的矛盾。這很可能依賴于技術(shù)的進步,比如根據(jù)技術(shù)的物理極限,人類有可能在相對較短的時間內(nèi)至少建造部分戴森球(Dyson spheres)或馬特奧斯卡大腦(Matrioshka brains)。因此,在費米悖論的語境下,時空奇點預(yù)測可在一個文明所使用的力量的快速增長中進行,跟蹤技術(shù)的超指數(shù)增長,可在幾十年而不是幾千年內(nèi)從使用其主行星的資源發(fā)展到使用整個太陽系的資源甚至更廣(參見DYSON F J.Search for artificial stellar sources of infrared radiation[J].Science,1960,131:1667-1668.)。如何解釋?如果AGI有了實質(zhì)性進步,人類進入創(chuàng)造出多智能體的合作場景將會出現(xiàn),到那時我們可能是生活在模擬環(huán)境的社會里,如元宇宙。如果這一天真的到來了,人工智能有可能通過提高模擬的速度來提高其問題解決能力。如果一個具有足夠能力的最小模擬系統(tǒng)被創(chuàng)建,它可能會設(shè)法通過加速科學(xué)技術(shù)的進步來提高自己的速度,其方式類似于技術(shù)奇點,最終可能導(dǎo)致大型模擬文明以極端的時間速度展開,從而實現(xiàn)從外部看起來像一個時空奇點。

不過,我們也不用“杞人憂天”,AGI產(chǎn)生的潛在危險可能構(gòu)成一個“大過濾器”(6)漢森想要反駁這樣一個觀點:人類似乎有一個光明的未來,讓宇宙充滿持久的生命。然而,人類的生存空間現(xiàn)在似乎是有限的,這一事實告訴我們:任何給定的死物質(zhì)都面臨著天文數(shù)字般的低概率,無法孕育出人類期望的未來,這意味著在死亡和不斷擴大的持久生命之間,存在著一個巨大的過濾器,人類面臨著一個不祥的問題:我們在這個過濾器上究竟能走多遠?(見HANSON R. The great filter—are we almost past it?[EB/OL]. (2023-08-21)[2023-10-09].https://philpapers.org/rec/HANTGF-2.)。,很少有文明能夠幸存下來,從而解釋了費米悖論。然而,時間加速模擬也可能被用來逃避大過濾器,在關(guān)鍵時刻迅速為我們提供解決方案,例如在短時間內(nèi)檢測到的小行星的撞擊,在這種情境下,先進的智慧文明可能會攻擊任何新出現(xiàn)的文明。如果是這樣,AGI可能產(chǎn)生超人智能就不僅僅是設(shè)想了。用哲學(xué)術(shù)語說,這種人工超智能的可能性將會成為現(xiàn)實性。目前提高人工智能體能力的一個簡單有效的方法是在超級計算機上執(zhí)行相同的算法,這就要為計算機提供更多的時間來思考和解決問題,從而導(dǎo)致外部世界的解決問題的時間縮短。在實踐中,我們可能需要一個模擬環(huán)境供智能體工作,因為實際的外部世界會限制智能體的性能。比如,在訓(xùn)練深度強化學(xué)習(xí)智能體方面,通常是在模擬環(huán)境中進行的,其執(zhí)行速度僅受限于可用的算力。

6 結(jié)語

人工智能是人類智能發(fā)展的必然結(jié)果。如果不禁止,AGI極有可能實現(xiàn)。果真有一天AGI真的實現(xiàn)了,我們?nèi)绾闻c之交互,如何應(yīng)對其產(chǎn)生的一系列問題呢?無論AGI能否實現(xiàn),有一點可以肯定,那就是:基于AGI的文明將被認為是一種“模擬文明”或“虛擬文明”,因為它們經(jīng)歷了一個類似于真實外部世界的模擬環(huán)境,這種智能體模擬出的環(huán)境,與模擬外的任何實際環(huán)境幾乎一樣真實,比如模擬駕駛和實際駕駛的感覺幾乎難以區(qū)分。這意味著智能體不僅從樣本中學(xué)習(xí)(機器學(xué)習(xí)),也會從經(jīng)驗中學(xué)習(xí)(經(jīng)驗啟示法),從而不斷提高其性能,比如自然語言處理大模型GPT系列的發(fā)展。

不過,我們也要看到,時空奇點與超時空假說[25]在尋求更多的能量和計算能力方面有相同的特點,但導(dǎo)致了相反的預(yù)測,因為在超時空假說中,高級文明會試圖通過接近黑洞來減緩其主觀時間,而不是加速它,以便前進的時間旅行到一個所有文明最終可能相遇和合并的時間,并優(yōu)化信息的獲取。困難在于,我們很難預(yù)測單個智能體的要求,這可能通過計算評估智能體和模擬環(huán)境所需的資源來進行,比如對人腦的實時功能模擬所需的每秒計算量的估計。

概言之,AGI既是一個從人工智能走向人工認知的范式轉(zhuǎn)換,也是一個從人工物理學(xué)和工程學(xué)走向人工心理學(xué)和人工認知科學(xué)以及人工倫理學(xué)的發(fā)展問題。因此,我在這里發(fā)出倡議,在人工智能的強烈沖擊下,“生而為人”的傳統(tǒng)觀念受到了前所未有的挑戰(zhàn),“何以為人”“以何德服人”更成了一個嚴肅的哲學(xué)和倫理學(xué)問題,我們必須認識到并高度重視。

猜你喜歡
機器道德機器人
機器狗
機器狗
頭上的星空與心中的道德律
十幾歲(2021年24期)2021-11-18 02:18:40
跟蹤導(dǎo)練(五)(2)
道德是否必需?——《海狼》對道德虛無主義的思考
未來機器城
電影(2018年8期)2018-09-21 08:00:06
機器人來幫你
認識機器人
機器人來啦
認識機器人
天峻县| 蓝田县| 宿松县| 丘北县| 常州市| 任丘市| 蒲江县| 嘉祥县| 阿坝| 丘北县| 平塘县| 任丘市| 金溪县| 八宿县| 镇坪县| 津南区| 依兰县| 上犹县| 神农架林区| 滦南县| 德化县| 无锡市| 天津市| 阳泉市| 兴海县| 贵州省| 亳州市| 河东区| 大渡口区| 布拖县| 双城市| 年辖:市辖区| 平利县| 苏州市| 炉霍县| 福海县| 武川县| 巢湖市| 建瓯市| 延寿县| 垣曲县|