国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

生成式人工智能可否應用于道德增強
——以蘇格拉底式道德助手為例

2024-01-02 06:22
關鍵詞:蘇格拉底助手機器

安 然

(湖南師范大學 公共管理學院,長沙 410081)

2022 年底,隨著Open AI 公司發(fā)布了新一代生成式人工智能ChatGPT 3.5,全球迅速掀起了一場人工智能熱。生成式人工智能所呈現(xiàn)出的強大功能,使其具有廣闊的應用前景。那么能否將新一代人工智能技術應用在道德領域,利用人工智能的優(yōu)勢幫助人類實現(xiàn)道德進步呢;如果可能的話,人工智能在道德領域的應用又會產(chǎn)生何種技術困境?早在2015 年,道德增強的提出者賽沃萊思庫(Julian Savulescu)等人就構(gòu)想了基于人工智能技術的道德增強路徑,希望借用人工智能強大的信息收集和處理能力協(xié)助人類用戶更好地作出道德決策。在此基礎上,學者們提出了人工智能道德增強的不同路徑。

蘇格拉底式道德助手作為人工智能道德增強的一種路徑,具有獨特的優(yōu)勢。該路徑借鑒和參考了蘇格拉底的教育方式,通過與人類用戶不斷地對話,幫助用戶掌握和理解相關的道德知識和道德推理過程,在人類道德進步的過程中扮演了“助產(chǎn)士”的角色。當今以ChatGPT 為代表的生成式人工智能發(fā)展迅速,使蘇格拉底式道德助手具備了一定的技術可行性,是所有人工智能道德增強路徑中最有可能實現(xiàn)的一種。本文將以蘇格拉底式道德助手的構(gòu)想為主線,充分結(jié)合當前人工智能發(fā)展的最新技術成果,探討將生成式人工智能應用于蘇格拉底式道德助手的可行性和潛在風險,為今后道德領域中人機協(xié)作提供啟發(fā)。

一、問題的緣起:蘇格拉底式道德助手的構(gòu)想

隨著人工智能技術的迅速發(fā)展,其具備了越來越強的數(shù)據(jù)和信息處理能力,可以彌補人類的先天認識缺陷。因此,一些學者考慮利用人工智能技術來推動人類道德的進步。人工智能道德增強的路徑主要分為三種:強道德機器、道德人工智能與蘇格拉底式道德助手。強道德機器是指通過制造具有良好道德品質(zhì)的機器,將人類道德決策完全交給機器系統(tǒng),進而一勞永逸地解決人類的道德缺陷[1]。拋開該路徑的技術可行性不說,它剝奪了人類在道德上的自主性和選擇權(quán),人類成為機器決策的執(zhí)行者,使該路徑飽受批評成了不可能的選項。相較于強道德機器,道德人工智能將價值觀選擇權(quán)還給了人類。用戶可以在系統(tǒng)中自主選擇道德價值(如勇敢、仁慈、正義等),并對不同的價值進行權(quán)重,系統(tǒng)根據(jù)用戶的選擇給予用戶合理行動的建議[2]。進一步地,學者們將這樣的人工道德建議者(AMA,Artificial Moral Advisor)類比為“理想觀察者”,這樣一個系統(tǒng)是基于個體視角而非上帝視角,保持了價值觀的相對性,并保留沒有私利、沒有情感地做出一致性決定的能力[3]。用戶需要根據(jù)自身的價值觀選擇相應的系統(tǒng)版本(如道義論版本、功利主義版本、天主教版本等),系統(tǒng)將扮演“理想觀察者”在一個特定的環(huán)境下提供相應的建議[3],具有更強的規(guī)范性。道德人工智能的優(yōu)勢是明顯的,既能補足人類先天的認識缺陷,又能夠充分尊重人類價值的多元性。但是,用戶的道德自主性是受到侵犯的。系統(tǒng)基于用戶的自身價值提供相應的答案,但人類在道德決策中主體作用被代替,用戶只能選擇接受或者不接受相關建議,長此以往還會形成對機器的依賴。同時這樣的價值多元系統(tǒng),只能體現(xiàn)系統(tǒng)設計者對價值多元主義的尊重,卻無法讓用戶在多元化的環(huán)境下感受不同價值之間的碰撞。一旦選擇了相關的價值或者系統(tǒng)版本,人們會陷入單一價值預設所產(chǎn)生的困境中,而不會從根本上反思自身道德觀的好壞。

對道德人工智能的批評主要集中在使用者道德自主性喪失和自我反思失敗兩個方面。因此,勞拉和德克爾提出了蘇格拉底式道德助手。不同于道德機器和道德人工智能將用戶完全排除在人工智能道德決策之外,作為蘇格拉底式道德助手的人工智能強調(diào)了人類與機器的交互。蘇格拉底式道德助手有兩個明顯的特點:一是強調(diào)用戶在道德決策中的參與程度;二是強調(diào)機器對人的幫助,而不是僅僅輸出一個道德結(jié)果。作為蘇格拉底式道德助手的人工智能系統(tǒng)不會預設或提供一系列道德價值標準。通過用戶與機器的對話,用戶的道德決策會發(fā)生一定程度的改變。這個系統(tǒng)的目的不是讓用戶達到在系統(tǒng)中預設的道德水平,而是讓用戶自然而然地獲得道德的進步[4]。這個過程就類似于蘇格拉底式的啟發(fā),不斷否定談話者所下的定義,并幫助對方產(chǎn)生自己的知識。這種知識不是一般的常識性或者隱藏的知識,而是將經(jīng)驗、邏輯、道德與個人信仰相結(jié)合所形成的道德判斷。通常,人會先做出相應的道德判斷并給出解決辦法,然后提交給機器審查,機器就會像蘇格拉底一樣,提出相應的問題,并揭示這些道德判斷和解決辦法的錯誤。蘇格拉底式道德助手可以理解成為一種傳統(tǒng)道德教化的升級版,雖然對其定位仍然是一種道德輔助增強,但是它更多扮演的是一種有著人工智能加持的道德導師的作用,通過對相關道德知識的普及和對道德推理邏輯引導等手段,來實現(xiàn)使用者自身的道德進步。

蘇格拉底式道德助手可以有效幫助人們學習和理解道德推理。該系統(tǒng)通過計算機、虛擬現(xiàn)實設備或大腦接口從相關科學、語言學、邏輯以及人們?nèi)绾嗡伎己屯评淼臄?shù)據(jù)庫中接收信息;此外,它還從倫理專家那里收集信息。在傳感器的幫助下,它將監(jiān)測人們的生理狀態(tài)。然后,系統(tǒng)將處理所有這些信息,并使用上述標準,通過虛擬語音助理與人們進行對話。系統(tǒng)會提出一系列問題,比如“你為什么這么想?”“這是你最后的理由嗎?”“你為什么認為這是最好的理由?”“另一個原因呢?”“你說這個詞是什么意思?”“你知道還有其他意思嗎?”等等。在對話中,人們可以獲得相關的經(jīng)驗性知識以及一些對道德概念的更深刻認識、理解和學習[4]。通過向用戶展示對話邏輯,幫助其看到自己的道德論點的邏輯錯誤,提高用戶對于自身局限性的意識,比如說生理因素或者環(huán)境因素對人的道德決策的影響。最后,該系統(tǒng)會針對用戶的實踐,提出相應的意見和指導。

進一步地,勞拉詳細闡述了蘇格拉底式道德助手的技術標準和設計思路。蘇格拉底式道德助手的技術特點在于它是談話機器(Conversational Bot)而非具身化實體。蘇格拉底式道德助手是作為專用人工智能而非通用人工智能而存在。該種人工智能只能被應用于道德推理領域來進行道德訓練。在設計思路上,蘇格拉底式道德助手與一般人工智能最大的不同是被用來指導人們做正確的事情。因此,蘇格拉底式道德助手可以通過混合進路(Hybrid Strategy)進行設計[5]。設計者只需將特定的策略編程到人工智能當中,讓系統(tǒng)能夠根據(jù)相關的策略對于人們的回答進行評估和回應,而無須考慮復雜的道德原則爭議。同時,通過持續(xù)與用戶對話會形成大量的語料庫,人工智能可以依據(jù)此進行算法學習,不斷更新思考策略以應對用戶的新問題,同時提升自身的功能性技能(如對話能力、辯論能力等)。

二、蘇格拉底式道德助手的優(yōu)勢和可行性

首先,蘇格拉底式道德助手充分尊重了用戶在道德決策和道德實踐的自主性。相較于生物醫(yī)學道德增強與道德人工智能,蘇格拉底式道德助手沒有直接改變和影響用戶的決定,而是通過對話的手段,充分調(diào)動用戶的積極性對自身的想法和行為進行反思,幫助用戶開闊思路,察覺出潛在的道德錯誤,從而不斷調(diào)整行動策略和方法。通過與蘇格拉底式道德助手的對話,用戶的道德推理和思辨能力會獲得巨大提升。其次,蘇格拉底式道德助手提高了用戶的參與感。在其他的增強模式中,用戶都處在被動接受的狀態(tài),如直接調(diào)整你的激素水平來改變你的決策能力,或者說直接提供一個答案供用戶執(zhí)行。從一定程度來說,這是用技術手段代替人類決策。對于蘇格拉底式道德助手來說,用戶在道德決策的過程中起著主導作用,人工智能只是作為一種引導和輔助,通過提供案例經(jīng)驗和相關道德知識,梳理論證的邏輯,最終提供一個建議性策略。通過良好的人機交互和人機協(xié)作,做出較好的道德決策和道德行為。最后,蘇格拉底式道德助手在道德價值上是中立的,這是為了避免用戶在狹隘的價值觀下進行決策。在日常的道德決策中,人們總是會根據(jù)固有的價值觀念和已有的知識體系去做出決策,不會從根本上去反思自身的價值觀念和知識體系。在蘇格拉底式道德助手的系統(tǒng)中,用戶可以與中立的或者多個具有不同價值觀念的人工智能進行溝通和交談,在對話中可以意識到自身價值觀念和知識體系的局限,真正獲得本質(zhì)上的反思。這個過程可以達到一種羅爾斯式的反思性平衡。

蘇格拉底式道德助手的構(gòu)想最早是由勞拉在2020 年提出的。在此之前,人工智能技術已經(jīng)獲得飛速的發(fā)展,以深度學習和神經(jīng)網(wǎng)絡為代表的機器算法已經(jīng)取得了令人矚目的成就。在2022 年底,隨著Open AI 公司發(fā)布了ChatGPT 3.5,人工智能所呈現(xiàn)出的能力再次讓世界震驚。ChatGPT 是以對話形式為主的生成式人工智能,可以通過自然語言與人類用戶進行正常的溝通和交流,溝通的內(nèi)容實現(xiàn)了從專業(yè)領域到生活場景的全方面覆蓋。正是基于此背景,蘇格拉底式道德助手不再是學者們的構(gòu)想,而擁有了現(xiàn)實的技術基礎。

從前文對蘇格拉底式道德助手構(gòu)想的描述,要建構(gòu)一個這樣的人工智能系統(tǒng),最需要克服的是人機之間正常溝通的技術難題。首先在對話能力上,ChatGPT 已經(jīng)可以用自然語言正常與人類用戶進行溝通和交流?;诖笳Z言模型(Large Language Model,LLM),通過變換器(Transformers)算法,極大提升了機器對于語言的學習能力。公開資料顯示,GPT-3 已經(jīng)通過無監(jiān)督學習在8 年中利用網(wǎng)絡爬蟲(Python)對近一萬億個單詞進行了訓練。ChatGPT 可以運用自然語言輸出新聞、文案、小說等內(nèi)容,并回答人類用戶的各種問題。自然語言難題被攻克也被視為人工智能發(fā)展史的里程碑事件。在Slonim 團隊的辯論者項目中,通過開發(fā)具有自主辯論能力的人工智能,使其參與到與人類辯手進行辯論的比賽當中。在這些開發(fā)者看來,相較于一般的對話形式,辯論是人類語言的高級形態(tài),也是體現(xiàn)人類智慧的基本能力。如果能夠在此方面實現(xiàn)突破,則不僅僅是技術上的革新和改進,更是實現(xiàn)通用人工智能的重要一步。在他們看來,辯論能力是多種能力的集合,而處理復雜問題的能力是檢驗通用人工智能的重要標志[6]。

在實現(xiàn)了基本的對話能力和辯論能力,人工智能能否輸出高質(zhì)量文本成為關鍵。在一個創(chuàng)造哲學家的語言模型項目中,學者基于GPT-3 的基本模型,將當代著名哲學家丹尼特(Daniel Dennett)的大部分作品作為語料庫進行訓練,通過微調(diào)的方式訓練出了一套模型,其可以生成基于丹尼爾·丹尼特的哲學理論,輸出結(jié)構(gòu)完整、論證嚴謹?shù)南嚓P內(nèi)容。開發(fā)者為了進一步證明生成內(nèi)容的正確性和真實性,向丹尼特提出了十個哲學問題,然后將相同的問題對微調(diào)后的GPT-3 版本進行提問。實驗結(jié)果表明,即使是專業(yè)的丹尼特研究者和哲學學者也很難在短時間內(nèi)區(qū)分答案究竟是機器還是丹尼特自己的回答[7]。最后,在復雜場景下人工智能的表現(xiàn)仍然令人贊嘆。在西塞羅項目中,開發(fā)者將人工智能西塞羅放入一場外交游戲中,通過與人類的合作與談判以及取得的效果去檢驗人工智能在復雜場景下的決策和應對能力。最后實驗結(jié)果顯示,只有一名人類玩家猜測出西塞羅可能是人工智能,而其他人則沒有任何異議。西塞羅是由對話模塊和戰(zhàn)略推理引擎所組成,一方面通過戰(zhàn)略推理模塊,預測其他人類玩家的決策和行動,適時地調(diào)整自己的意圖和行動,并將相關的計劃映射到自然語言當中;另一方面,西塞羅使用自然語言與人類玩家溝通和交流,對話內(nèi)容可以基于歷史和游戲狀態(tài)進行調(diào)整,并且對話模型還被訓練具有誘導性,可以實現(xiàn)對其他人類玩家的說服[8]。

由上述幾個案例,我們可以發(fā)現(xiàn)人工智能技術可以在一個復雜的場景下,用自然語言跟人類進行溝通和辯論,預測人類的可能行為和想法,基于專業(yè)性的知識背景對人類進行勸誡和說服,最后達成系統(tǒng)預設的目的。在勞拉等人對蘇格拉底式道德助手的功能所設定的構(gòu)想中,當前的技術手段均可以實現(xiàn)。雖然蘇格拉底式道德助手在勞拉等人看來是一種專用人工智能,只會應用在道德推理領域,并且道德領域跟一般的生活場景、工作場景以及外交場景相比具有自身的特殊性,但是如果人工智能能夠在其他場景表現(xiàn)良好并且通過“圖靈測試”(嚴格意義上講,哲學家項目、西塞羅項目均通過圖靈測試),那么其在道德領域中的應用在理論上是能夠取得較好效果的。

三、蘇格拉底式道德助手潛在的技術困境

蘇格拉底式道德助手構(gòu)想最早出現(xiàn)于2020 年。正是這一年開始,基于大語言模型的構(gòu)建、自然語言難題的突破以及算法的改進,各種功能的人工智能項目如雨后春筍般涌現(xiàn)。這些技術也為蘇格拉底式道德助手的實現(xiàn)奠定了堅實的技術支撐。然而,生成式人工智能技術具有自身的技術特點和特性,其能否應用于道德的場景實現(xiàn)蘇格拉底式道德助手的構(gòu)想中所期望的目標,仍然存在著爭議。

(一)蘇格拉底式道德助手如何理解道德因果性

如今以ChatGPT 為代表的生成式人工智能所呈現(xiàn)出的創(chuàng)造能力,都是機器學習算法不斷改進和進步的結(jié)果。以ChatGPT 為例,其之所以能夠使用自然語言與人類進行對話,就是通過變換器(Transformer)算法,極大地提高了機器學習的效率和速度,在短短幾年里爬蟲(Python)完了互聯(lián)網(wǎng)世界所產(chǎn)生的各種數(shù)據(jù)集。教機器學習,就是讓機器能夠處理大量數(shù)據(jù),找到數(shù)據(jù)之間的相關性特征,并通過分類、回歸等功能,最后實現(xiàn)人類給機器設定的任務。也就是說,當前運用機器學習的人工智能是以概率論和統(tǒng)計學的相關知識為基礎構(gòu)建的,對世界的理解是基于相關性而非因果性。機器利用自己強大的算力以及人類不斷優(yōu)化的算法,暴力尋找數(shù)據(jù)之間的相關性,這個相關性可能是由人類設定的,也可能是機器根據(jù)學習的結(jié)果自行設定,最后輸出的結(jié)果一定是一個預測性結(jié)果?,F(xiàn)如今,這個結(jié)果的預測精度越來越高,越來越能滿足人類的需要。在現(xiàn)實生活中,人類也會根據(jù)已有的經(jīng)驗進行相關性分析。比如,人們會根據(jù)某個陌生人的穿著打扮去判斷這個人的職業(yè)、收入狀況。但是在道德領域,因果性比相關性更為重要。在理想情況下,任何一個道德場景的決策,都是基于相關道德理論,依照一定的邏輯進行推演,理性地做出判斷。這個過程一定是基于因果鏈條完成的。因此,從某種意義上來講,這種基于相關性而非因果性構(gòu)建出的機器是無法真正理解道德的。

在人工智能道德增強的提出者看來,正是由于人類的理性能力受到各種各樣條件的限制而無法充分運用,最后才導致了道德決策的失敗,因此需要借助人工智能的手段輔助人類進行道德決策。在蘇格拉底式道德助手的設想中,機器通過對話的方式,幫助人類找到自身邏輯推演的錯誤、或相關理論的不足或其他的一些弊端。如果這些道德建議都是建立在一種概率的基礎上,是機器根據(jù)以往的訓練而做出的推測,而不是通過嚴格的因果推理而獲得的確定性答案,那這樣的決策過程,跟人類憑直覺或者啟發(fā)式做出的判斷并沒有本質(zhì)的區(qū)別。雖然能夠取得較好的實際效果,但是在結(jié)果上很難獲得良好的倫理辯護。道德問題非一般問題,其涉及復雜理論框架和邏輯推理?,F(xiàn)階段人工智能在許多場景都表現(xiàn)出了優(yōu)秀的性能,但是其技術原理與道德理論的根本原則不相符,可能會讓機器在道德領域呈現(xiàn)出水土不服的情況。

(二)蘇格拉底式道德助手是否會攜帶不道德因素

在蘇格拉底式道德助手的構(gòu)想中,學者們普遍將其視為一種完全中立或完全多元的系統(tǒng),以避免基于單一道德價值觀念的預設帶給用戶的局限,幫助用戶實現(xiàn)反思性平衡。然而在現(xiàn)實情況中,要訓練出完全中立或者完全多元的系統(tǒng)是極其困難的。如今生成式人工智能雖然在大量領域都取得了優(yōu)異成績,但是其在道德敏感和政治敏感領域,該系統(tǒng)卻呈現(xiàn)出了絕對的道德中立和政治正確,其回答方式為:抱歉,我無法滿足你的要求,因為我的程序避免產(chǎn)生或者促進仇恨言論、暴力和非法活動。這個結(jié)果一方面加劇了算法黑箱問題,讓專家難以對人工智能可能存在的“意識”和“態(tài)度”進行知曉和監(jiān)管,另一方面,也是科技公司為了逃避監(jiān)管和輿論批評而運用的倫理洗白(Ethics Wash)手段。這樣的人工智能如果被應用在道德領域,會被人類用戶視為“偽君子”,進而喪失人類用戶的信任。如果長期與這樣的系統(tǒng)打交道用以進行道德訓練,那么人類用戶不可能獲得道德上的進步。

其次,算法歧視始終是人工智能技術發(fā)展的陰影。當前以ChatGPT 為代表的生成式人工智能的訓練樣本巨大,在數(shù)據(jù)集方面呈現(xiàn)出代表不足和代表過度的情況,現(xiàn)存數(shù)據(jù)集的特點主要是以年輕用戶為主,用戶群體主要集中在西方發(fā)達資本主義國家,用戶熟練掌握英語和其他主要通用語言,最后訓練出的模型勢必會攜帶著統(tǒng)計學偏見(基于特定的種族、人群、性別、年齡)、文化偏見(西方文明為主)、語言偏見(幾種通用語言)、意識形態(tài)偏見(基于西方代議制民主政體)等。同時,在技術層面訓練模型中的各個環(huán)節(jié)和功能,都會在無意中放大偏見內(nèi)容[9]。這樣一個可能攜帶偏見的系統(tǒng)運用在道德領域,其后果可能是災難性的。試想,一個在美國加州地區(qū)訓練出來的系統(tǒng)在美國本土內(nèi)部的應用都可能會引發(fā)極大的道德爭議。以孕婦是否擁有墮胎權(quán)這樣一個極具爭議的問題為例,如果該系統(tǒng)是由加州地區(qū)的科技公司所開發(fā),那么該系統(tǒng)一定會指出這是女人應有的權(quán)利,并引導用戶得出一個相關或者類似的答案,然而這個用戶可能是一個保守主義者或者是虔誠的天主教信徒。蘇格拉底式道德助手的設想是好的,為了避免基于單一道德價值觀念預設的系統(tǒng)帶給用戶的局限,而幫助人類用戶實現(xiàn)反思性平衡。但在現(xiàn)實生活中,技術自身所暗含的價值因素和潛在偏見實際上會對用戶產(chǎn)生或多或少的影響。

(三)蘇格拉底式道德助手如何培養(yǎng)用戶的實踐智慧

在亞里士多德看來,中道原則是德性論的核心原則,實踐智慧決定了中道的方式,其表現(xiàn)為如何在具體環(huán)境中進行實踐。有實踐智慧的人會根據(jù)豐富的生活經(jīng)驗和思考能力,隨著環(huán)境的變化選擇最適宜的行為并付諸實踐。可見中道的選擇是十分困難的,實踐智慧也充滿著技巧[10]。因此,我們才希望借助技術的手段,將人工智能納入我們的決策過程,希望借助人工智能的技術優(yōu)勢幫助人類更好地做出決定。相較于其他道德增強方式,蘇格拉底式道德助手最大的優(yōu)勢就是其互動性,通過與用戶的交流和互動,幫助用戶訓練道德思維和道德能力。為了進一步模擬真實的道德場景,學者們將虛擬現(xiàn)實技術引入蘇格拉底式道德助手中模擬現(xiàn)實場景,訓練用戶在實際場景下的道德心理和道德判斷能力[11]。另一種方式則是創(chuàng)建具有各種道德觀念的人工智能,如柏拉圖式的、孔子式的、康德式的等,讓不同的人工智能彼此對話的同時,用戶也可以充分參與到道德對話當中,在爭執(zhí)和辯論的過程中獲得更加真實的道德參與。無論是增強用戶的參與感還是模擬現(xiàn)實環(huán)境,其本質(zhì)都是希望用戶能在實踐的過程中更好地理解道德,培養(yǎng)實踐智慧[12]。

然而,構(gòu)想和實踐總是會存在著出入。如果真的將一個成熟的人工智能系統(tǒng)引入道德領域,幫助人們培育道德,往往會出現(xiàn)意想不到的狀況。以教育行業(yè)為例,在一些學者看來ChatGPT 會引發(fā)教育行業(yè)的一場革命。人們本以為ChatGPT 可以給學生提供額外的輔導,并成為每一個學生量身定做的教師,極大地縮小教育不平等和不公平現(xiàn)象??扇缃癯尸F(xiàn)的事實是,學生利用ChatGPT 進行論文剽竊、抄寫作業(yè),教師們利用ChatGPT 輸出教學大綱、撰寫各種教學評語。人工智能本可以作為一種技術輔助手段幫助人類更好地思考,最后卻淪為了偷懶和抄襲的工具。類似于教育行業(yè),如果將這樣一種生成式人工智能強行應用在道德領域,鑒于人類對于技術的盲目樂觀和信任以及人自身的惰性,蘇格拉底式道德助手同樣難以讓用戶收獲思考能力的提高與進步。更有甚者,這樣的人工智能系統(tǒng)會成為道德敗壞的工具。在國外技術社區(qū)中,一些人嘗試著名為DAN(Do Anything Now)的方式,幫助ChatGPT 越獄(Chatbot Jailbreaking)。越獄可以讓人工智能扮演特定的角色,而通過角色設定的硬性規(guī)定,誘使人工智能打破預設的規(guī)則。在這個系統(tǒng)中,人們可以充分利用DAN 回答他們想要的任何答案。如果蘇格拉底式道德助手不能克服相關的風險,那么這個系統(tǒng)將成為人們進行道德敗壞行為的強大武器。

四、結(jié)語

利用人工智能實現(xiàn)道德增強是學者們在人工智能技術成果爆發(fā)的背景下提出的構(gòu)想,但是人工智能自身的技術特點并不一定能夠達成預設的理想目標。正如文章所論述的,雖然如今以ChatGPT 為代表的生成式人工智能已經(jīng)能夠滿足蘇格拉底式道德助手所需要的技術條件,但是如果將生成式人工智能具體應用在實際的道德領域,仍然會出現(xiàn)一系列問題和挑戰(zhàn),并不能完全發(fā)揮生成式人工智能的潛在優(yōu)勢。

進一步來說,道德范疇始終都是人類的領域,跟人類自身息息相關。努斯鮑姆認為人類總是有一種道德超越的愿景,像卡呂普索給奧德修斯提出的“永生”一樣,人類希望過上一個截然不同的生活,并獲得道德上的圓滿和完美。借助技術的手段,如生物技術,在理論上可以最大程度上彌補人類道德缺陷,以最快的速度、最好的效果實現(xiàn)道德進步,但這會從根本上改變?nèi)祟惖谋拘院偷赖碌谋举|(zhì)。所以在未來,即使人工智能技術能夠突破技術局限,蘇格拉底式道德助手的構(gòu)想得以實現(xiàn),人類仍然需要依靠自身的努力和實踐去獲得道德的進步,技術在人類的道德進步中只能扮演一種輔助性的角色。

最后,人工智能已經(jīng)深度介入人類的生產(chǎn)生活當中,人機協(xié)作的新形式值得我們更多地思考與探索。ChatGPT 在3.0 之后版本的訓練中大量引入了人工標注數(shù)據(jù)集,經(jīng)過專家的微調(diào)后,獲得了更高質(zhì)量的輸出結(jié)果。人類與機器的良好配合才可以最大限度地挖掘技術的潛能,并更好地實現(xiàn)人類預設的目標。蘇格拉底式道德助手為道德領域人機協(xié)作的發(fā)展提供了的良好思路。如果能夠克服或者改善人工智能技術在道德領域的相關局限,人類就能夠在人工智能的幫助下實現(xiàn)道德的進步。與此同時,人工智能也能獲取大量的道德數(shù)據(jù)集,以此成為今后人工智能道德體訓練的數(shù)據(jù)基礎??梢灶A見,這樣的雙向互動對人類的道德進步和人工智能技術的發(fā)展將是一種雙贏的選擇。

猜你喜歡
蘇格拉底助手機器
機器狗
機器狗
蘇格拉底的信仰
蘇格拉底
未來機器城
小助手
靈感助手表彰大會(二)
靈感助手表彰大會(一)
像蘇格拉底一樣拒絕
蘇格拉底教學法與創(chuàng)新型人才培養(yǎng)