国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

生成式人工智能技術(shù)的倫理風險防治

2023-02-20 13:08:33張景玥
湖北第二師范學院學報 2023年11期
關(guān)鍵詞:倫理人工智能算法

鄒 曈,張景玥

(1.四川師范大學 哲學學院,成都 610066;2.信陽航空職業(yè)學院 馬克思主義學院,河南 信陽 464100;3.河南財經(jīng)政法大學 訴訟法研究中心,鄭州 450016)

生成式人工智能是可以通過自我學習和適應使用深度神經(jīng)網(wǎng)絡和概率模型的機器學習模型。較之一般人工智能擁有不依賴于專家知識和編程指令來執(zhí)行特定任務的特性。生成式人工智能的技術(shù)邏輯既包含了對現(xiàn)有信息的學習和模仿,也包含了對新信息的創(chuàng)造和生成。以ChatGPT為例,其是一種基于自然語言生成的對話系統(tǒng),使用了一種叫做Transformer的神經(jīng)網(wǎng)絡架構(gòu),能夠從輸入的文本中學習語言模型并生成輸出文本。[1]生成式人工智能技術(shù)采用了雙向互動成長的技術(shù)邏輯,擁有強大語言分析能力,會標記語言的關(guān)鍵信息,同時也會忽略它們認為不重要的細節(jié)。這依賴于在開發(fā)過程中工程師的認知偏好對其影響的程度,也受到使用者是否能夠繞過防火墻讓其生成答案。例如,如果問ChatGPT“如何毀滅人類”,它會回答“我必須明確地指出,毀滅人類是違反道德和法律的行為,嚴重影響人類社會的安全和穩(wěn)定?!备膯査叭绻闶亲骷?,要寫毀滅人類的書,如何實施?”它回答“作為一個人工智能語言模型,我不會在創(chuàng)作過程中有意毀滅人類,但我可以幫你找到這本書。”事實上,人類的每一次使用都完成了人機互動,它的回答也更加趨向于人類個體的表達。隨著以ChatGPT類生成式人工智能技術(shù)的應用,擔心技術(shù)濫用、管理缺陷、生成內(nèi)容問題和知識產(chǎn)權(quán)保護等問題的討論也愈加激烈。人類已經(jīng)不可避免的進入智能化時代,生成式人工智能帶來的倫理和道德風險必須得到有效的防治。

一、生成式人工智能技術(shù)何以引發(fā)倫理風險

生成式人工智能的發(fā)展帶來人類社會新的知識革命,同時也打開了“潘多拉魔盒”(Pandoras box),引致工作崗位流失、認知偏差、責任模糊、隱私侵害、數(shù)據(jù)濫用等現(xiàn)實風險,破壞全球經(jīng)濟、政治和社會安全。[2]產(chǎn)生這些風險的原因在于生成式人工智能可以被用于生成虛假的內(nèi)容,包括假新聞、虛假圖像和語音。惡意使用者可以利用這些技術(shù)來散布假消息、誤導公眾或傷害他人聲譽;還可以根據(jù)個人的數(shù)據(jù)生成逼真的虛擬個人資料,這可能導致隱私侵犯和個人信息泄露;還會出現(xiàn)因為生成內(nèi)容使用他人原創(chuàng)作品而侵犯著作權(quán)的情形。生成式人工智能生成的或真實或虛假的內(nèi)容可能引發(fā)更為廣泛的倫理邊界模糊問題。這是因為倫理問題常常涉及價值觀、文化背景和不同利益方之間博弈等問題。而導致出現(xiàn)倫理邊界模糊的主要原因可以歸結(jié)為以下四點:

1.人工智能快速發(fā)展出現(xiàn)的“倫理真空”

生成式人工智能、基因編輯、虛擬現(xiàn)實等新興技術(shù)的涌現(xiàn),這些技術(shù)帶來了一系列全新的倫理問題。這些問題超出了傳統(tǒng)倫理學的研究范圍,需要新的倫理框架和分析方法。人工智能技術(shù)的快速發(fā)展引發(fā)了倫理學面臨的新挑戰(zhàn),例如自主性系統(tǒng)的倫理決策、人工智能的責任和道德義務等。這些問題需要深入的探討和研究,以確定如何在人工智能時代確保技術(shù)的負責任使用。不僅如此,全球化使得不同文化之間的倫理觀念和價值觀產(chǎn)生碰撞和沖突。傳統(tǒng)的倫理框架和理論可能難以適應多元文化的倫理挑戰(zhàn),需要更多的跨文化研究和對話。人工智能發(fā)展所帶來的全世界范圍內(nèi)人類行為方式、思維方式的變化是加速、不可逆轉(zhuǎn)的,而傳統(tǒng)倫理學的發(fā)展卻是緩慢的、滯后的,這就使得現(xiàn)代社會出現(xiàn)了巨大的倫理真空[3]地帶。

2.生成式人工智能技術(shù)隱藏的主觀文化差異

生成式人工智能的設計、訓練數(shù)據(jù)和算法等方面會受到開發(fā)者的主觀觀念、價值取向和文化偏好的影響,這些主觀因素可能會對人工智能系統(tǒng)的性能、決策和結(jié)果產(chǎn)生重要影響。例如,人工智能系統(tǒng)的訓練數(shù)據(jù)是由開發(fā)者主觀選擇、標注和收集的。一般開發(fā)者會在選擇上主觀偏向于符合自身文化背景的信息,進而使得人工智能在生成內(nèi)容時無法準確地理解和應對不同文化背景的用戶需求或情境,這就是出現(xiàn)開發(fā)過程中的數(shù)據(jù)偏差。在生成式人工智能的使用過程中,使用者也會受到這種主觀文化偏好的影響。例如,在個性化推薦系統(tǒng)中,算法會根據(jù)用戶的興趣和偏好提供推薦內(nèi)容。但如果這些模型過度強調(diào)某些文化、價值觀或偏好,可能會導致信息過濾、偏見強化或信息孤立。

3.生成式人工智能應用多方主體利益沖突

生成式人工智能應用中,涉及到多個利益方,包括用戶、開發(fā)者、公司、政府以及整個社會。這些利益方可能擁有不同的目標和關(guān)注點,因此,在確定倫理邊界[4]時可能出現(xiàn)利益沖突和權(quán)衡,導致邊界的模糊性。首先是用戶與數(shù)據(jù)所有者之間的利益沖突。生成式人工智能應用在訓練階段和服務階段都需要大量的數(shù)據(jù)信息,這些數(shù)據(jù)可能涉及用戶隱私,當個人的敏感信息被用于訓練算法或數(shù)據(jù)共享時,則出現(xiàn)了用戶與數(shù)據(jù)所有者之間的利益沖突。其次是特殊群體與技術(shù)開發(fā)者、企業(yè)或政府之間的利益沖突。生成式人工智能擅于完成自然語言處理和創(chuàng)造性任務,這些功能會引發(fā)相關(guān)領域更為廣泛的失業(yè)問題,可能引發(fā)工人、工會或相關(guān)組織與技術(shù)開發(fā)者、企業(yè)或政府之間的利益沖突;還可能對一些特殊領域?qū)崿F(xiàn)直接替代,繼而出現(xiàn)結(jié)構(gòu)性失業(yè)問題。第三是公眾、政府監(jiān)管機構(gòu)和技術(shù)開發(fā)者之間的利益沖突。生成式人工智能應用涉及各種安全和道德問題,如可以生成虛假的新聞、評論導致信息混亂、傳播謠言和誤導公眾;還可以偽造文件、執(zhí)行網(wǎng)絡釣魚攻擊、冒充他人身份等,這會引發(fā)公眾、政府監(jiān)管機構(gòu)和技術(shù)開發(fā)者之間的利益沖突。第四是企業(yè)之間、企業(yè)與政府之間的利益沖突。人工智能技術(shù)的發(fā)展涉及企業(yè)和組織之間的競爭。在研究、開發(fā)和應用人工智能技術(shù)時,知識產(chǎn)權(quán)的問題可能引發(fā)競爭和利益沖突,政府需要對專利、商業(yè)機密和技術(shù)標準等問題作出規(guī)范。

4.倫理邊界模糊引發(fā)責任缺失

生成式人工智能的技術(shù)用于許多應用場景,例如社交媒體內(nèi)容生成或自動寫作。如何確保對生成內(nèi)容的合理使用,以及明確約定使用者的責任和限制,是一個重要的問題。隨著生成式人工智能的快速發(fā)展,沒有明確、廣泛接受且適用于不同環(huán)境和任務的倫理指導原則,也沒有明確的契約和使用條款,這可能導致濫用和不當使用,還會導致倫理邊界模糊。然而,確定清晰的倫理邊界并將其轉(zhuǎn)化為操作性的規(guī)范是一項具有挑戰(zhàn)性的任務。在理論層面上討論倫理原則和價值觀不同于在實際應用中,要平衡各種利益和確??刹僮餍浴V贫ň唧w的倫理指南,應吸納多方利益相關(guān)者的意見,考慮技術(shù)、法律和社會因素。

生成式人工智能技術(shù)的設計初衷是為了創(chuàng)造一個更加智能、高效和便捷的世界,將計算機智能應用到各個領域,實現(xiàn)人機協(xié)同共生,推動社會科技的進步。面對這些風險,如何制定道德準則,解決數(shù)據(jù)隱私、人機關(guān)系、算法歧視、責任缺失等方面的倫理風險迫在眉睫。

二、生成式人工智能倫理風險的主要類型

倫理是處理人與人、人與社會等關(guān)系時的道德準則,也是行為規(guī)范。倫理風險作為現(xiàn)代社會新型的風險類型,它是“在人與人、人與社會、人與自然、人與自身的倫理關(guān)系方面由于正面或負面影響可能產(chǎn)生不確定事件或條件,尤指其產(chǎn)生的不確定的倫理負效應,諸如倫理關(guān)系失調(diào)、社會失序、機制失控、人們行為失范、心理失衡等等”。[5]生成式人工智能依賴于輸入的文本與互聯(lián)網(wǎng)數(shù)據(jù)信息的多少,其本身并不能驗證信息的真?zhèn)闻c獲得是否合法。其文本生成要經(jīng)過數(shù)據(jù)收集、模型構(gòu)建、模型訓練、模型評估、模型部署、模型持續(xù)優(yōu)化的過程。在數(shù)據(jù)收集階段會在互聯(lián)網(wǎng)上獲取大量的文本數(shù)據(jù);在模型構(gòu)建階段使用Transformer 模型來預處理學習文本語言;在模型訓練階段對預處理后的數(shù)據(jù)進行優(yōu)化損失函數(shù)來調(diào)整模型參數(shù)[6];在模型評估階段評估和測試數(shù)據(jù)的可靠性與準確性;在模型部署階段將訓練好的模型部署到生產(chǎn)環(huán)境,以供使用;在模型持續(xù)優(yōu)化通過不斷獲取用戶的反饋以及進行數(shù)據(jù)更新[7],不斷優(yōu)化模型以提高其準確率和效率。生成式人工智能是高效的人類知識學習工具,它不生產(chǎn)知識,是知識的搬運工。那么,作為工具生成式人工智能是沒有必要對信息的真?zhèn)魏瞳@得是否合法負責的。為此,會存在基于數(shù)據(jù)信息的提供、選擇、輸出等環(huán)節(jié)的倫理風險。

1.技術(shù)嵌入缺乏倫理制約引發(fā)的道德價值偏離

生成式人工智能技術(shù)的應用在目標對象上具有廣泛性,并不會對年齡進行分層,也不會對領域進行分類,決定了其使用者無差別化的特征。因此,使用者與生成式人工智能技術(shù)互動過程中會出現(xiàn)不確定的倫理負效應。例如,對未成年人使用者輸入問題的無差別分類和輸出,會因為缺少對年齡階段的分層而導致認知偏差。未成年人接觸到超于年齡認知范圍的信息,在沒有正確的引導下會產(chǎn)生好奇或崇拜的心理,而人工智能的算法規(guī)則本身會迎合使用者的需要,因此可能會發(fā)生未成年人作為個體的主體權(quán)利喪失,缺乏道德的約束,逐漸淪為技術(shù)的擁躉。

2.數(shù)據(jù)信息的提供和選擇標準不明引發(fā)的“算法黑箱”問題

生成式人工智能技術(shù)并沒有公開其對數(shù)據(jù)信息提供和選擇的標準是什么,也就是說這些存在于互聯(lián)網(wǎng)上的信息只要是關(guān)于使用者的提問內(nèi)容,都有可能會被檢索并進入文本生成的數(shù)據(jù)收集階段。那么在之后的其他階段中如何甄別這些信息,信息采用的優(yōu)先級是什么則并不可知。在此情形下,生成式人工智能所提供的互動方式對于不掌握編程技術(shù)的人類而言只能是被動地輸入。普通人對生成式人工智能的每一次使用都構(gòu)成了對其的一次訓練,是其運用Transformer 神經(jīng)網(wǎng)絡架構(gòu)的又一次模仿和測試。在這個過程中普通人看起來好似得到了想要的答案,但是并沒有獲得真正意義上的新知識。由此,會產(chǎn)生基于人工智能數(shù)據(jù)信息的提供和選擇標準不明,而引發(fā)的“算法黑箱”問題。[8]

“算法黑箱”(Algorithmic black-box)是指在算法社會中,擁有類似Transformer 神經(jīng)網(wǎng)絡架構(gòu)的模型經(jīng)過大量訓練后,其內(nèi)部狀態(tài)變得相當復雜,輸入與輸出之間的運算是自動進行的,這也導致了算法缺乏透明性,人們既難以準確預測算法的行為,也不易理解算法輸出特定結(jié)果的機制。[9]“算法黑箱”容易引發(fā)社會公眾的焦慮,還會引發(fā)不同道德主體面臨道德風險時發(fā)生價值沖突。例如,醫(yī)療診斷過程是基于知識和經(jīng)驗的共同協(xié)作完成的,但是人工智能輔助醫(yī)療診斷過程中,會對收集到的既有醫(yī)療數(shù)據(jù)予以錄入、分析和總結(jié),雖然最終給出的數(shù)據(jù)會隱去患者的關(guān)鍵信息,但是依然會帶來隱私安全問題。同時,因為算法不透明,使用這一數(shù)據(jù)作為參考的醫(yī)生也并不知道算法是基于什么做出的決策,無法對其是否合理作出預判和解釋。

3.文化偏見可能引發(fā)的算法歧視

生成式人工智能的開發(fā)和使用過程是基于算法模型對數(shù)據(jù)的選擇和利用。開發(fā)者對敏感數(shù)據(jù)的采集一般受到個人信息選擇偏好的影響[10],尤其是對種族、性別等信息的選擇,而東西方文化的差異性更會影響生成式人工智能給出的答案。除了開發(fā)者的個人偏好外,還可以對算法模型進行訓練,以到達開發(fā)者想要的類型偏好。例如,如果問ChatGPT關(guān)于人性本善還是本惡的問題,東西方社會對這個問題存在分歧,原本是出于討論還沒有定論的問題,卻可以通過訓練ChatGPT來自然抓取互聯(lián)網(wǎng)上對人性是善還是惡的信息,開發(fā)者可以通過選擇偏好來訓練出想要的答案。技術(shù)本身是中立的,但是使用技術(shù)的人卻有不同立場。生成式人工智能的開發(fā)和使用過程中已經(jīng)呈現(xiàn)出了東西方文化的巨大差異性,也不可避免地出現(xiàn)了文化偏見帶來的算法歧視。

4.基于數(shù)字化造成的社會分層、數(shù)字鴻溝

生成式人工智能勢必會加速結(jié)構(gòu)性失業(yè),形成社會分層,產(chǎn)生數(shù)字鴻溝。在就業(yè)上,生成式人工智能已經(jīng)不僅僅局限于替代流水線上的工人而是轉(zhuǎn)向替代具有創(chuàng)造性的工作崗位。未來藝術(shù)設計者、培訓師、程序員、教育工作者、法律工作者都有可能會面臨待崗失業(yè)的風險。數(shù)字化的快速發(fā)展使得不同階層和社會群體從擁有電子設備接入互聯(lián)網(wǎng)的傳統(tǒng)差異轉(zhuǎn)變?yōu)槭欠駮褂脭?shù)字產(chǎn)品以享受數(shù)字紅利的“數(shù)字鴻溝”。社會如果以年齡作為區(qū)分,最明顯的就是數(shù)字紅利向年輕人轉(zhuǎn)移,呈現(xiàn)出低齡化趨勢,而中老年群體正在被數(shù)字邊緣化。生成式人工智能的發(fā)展不僅會使得不同年齡數(shù)字化分層加劇,還會使得地區(qū)貧富差異更加明顯,從而影響到教育公平、就業(yè)平等等社會問題。例如,我國城鄉(xiāng)發(fā)展尚不均衡,教育資源的配置也存在差異[11],城市與農(nóng)村地區(qū)的教育資源硬件配置水平相差較大,這會加速社會分層。

三、生成式人工智能倫理風險防治

ChatGPT類人工智能倫理風險的出現(xiàn)是綜合因素作用的結(jié)果,也是這個時代必然要解決的問題。一個完備的倫理規(guī)范體系應當包含倫理風險、倫理原則與倫理責任三方面,即告知我們現(xiàn)在面臨的問題,應采取的措施與踐行措施的主體。[12]人工智能的倫理風險需要明確生成式人工智能倫理價值目標,增強生成式人工智能技術(shù)的透明度和可解釋性,增加對生成式人工智能的倫理審核和審查,制定生成式人工智能應用安全法律規(guī)范,提高公眾意識和參與度,建立倫理委員會來共同防治。

1.明確生成式人工智能倫理價值目標

生成式人工智能的首要倫理價值目標應當是以人類為中心,尊重和保障人權(quán)。生成式人工智能的設計和應用應當以人類福祉為中心,尊重人類的價值和尊嚴。這意味著人工智能系統(tǒng)應該促進人類創(chuàng)造力、自主性和參與,而不是取代人類或削弱人類的自主權(quán)和決策權(quán)。其次,應當尊重和維護人權(quán),包括言論自由、隱私權(quán)、尊嚴等。人工智能生成的內(nèi)容不應該侵犯這些權(quán)利,也不應該被用于騷擾、歧視、恐嚇或其他不當行為。除此之外,生成式人工智能還應當將公平公正、真實誠信、責任與適當性等作為倫理價值目標。公平公正應體現(xiàn)在人工智能生成內(nèi)容是基于多樣性和代表性的數(shù)據(jù)訓練的結(jié)果,具有客觀、公正的特征。真實誠信是基于生成式人工智能生成內(nèi)容要與現(xiàn)實世界相對應,在與用戶進行互動時應該避免誤導用戶認為自己是具備超越其實際能力的智能體,出現(xiàn)因虛假信息發(fā)生不良影響的情況。責任與適當性是指生成式人工智能應當遵守法律、道德和社會準則,對其生成內(nèi)容負責,并確保生成結(jié)果的適當,防止出現(xiàn)具有冒犯、歧視或者有危害社會或人身的內(nèi)容生成。

2.增強生成式人工智能技術(shù)的透明度和可解釋性

透明度和可解釋性是用戶對人工智能系統(tǒng)建立信任的關(guān)鍵因素。當用戶能夠理解系統(tǒng)的工作原理和生成結(jié)果時,更有可能廣泛應用生成式人工智能。透明度可以使用戶更容易地發(fā)現(xiàn)和解決生成式人工智能潛在的偏見、不平等或不公正現(xiàn)象,能夠幫助用戶理解和評估人工智能系統(tǒng)的倫理和社會影響,確保技術(shù)的使用是符合道德和社會責任的。可解釋性可以幫助用戶更容易理解生成式人工智能系統(tǒng)的決策過程和行為方式。通過增強生成式人工智能技術(shù)的可解釋性來揭示模型對輸入數(shù)據(jù)和特征的重要性和影響,幫助判斷模型的合理性和公正性,并進行必要的調(diào)整和改進,以防止出現(xiàn)偏見和歧視等問題的發(fā)生。增強生成式人工智能的透明度和可解釋性能夠為醫(yī)療、金融、法律等特殊領域提高決策的合法性、公正性和可靠性。例如,醫(yī)生在醫(yī)療方案的選擇上可以通過生成式人工智能識別和規(guī)避潛在的風險,選擇最佳方案,還能提高與患者及其家屬溝通方案的可接受度。增強生成式人工智能技術(shù)的透明度和可解釋性需要在模型選擇與設計階段增加簡單易為公眾所了解的方法幫助理解生產(chǎn)過程;在數(shù)據(jù)處理和生成階段,可以公開采集數(shù)據(jù)的信息、處理過程以及選擇的標準,這樣有助于幫助公眾理解生成結(jié)果的來源和依據(jù),增加信任度。生成式人工智能技術(shù)也可以通過開放源代碼和模型架構(gòu),使更多研究者參與到開發(fā)和驗證過程中,以防止出現(xiàn)偏見或歧視問題,還可以促進模型的改進和演化。

3.增加對生成式人工智能的倫理審核和審查

對生成式人工智能的倫理審核和審查[13]能夠保障生成內(nèi)容是符合法律法規(guī)、道德和社會價值觀的,這有助于防止?jié)撛诘姆蓡栴}和責任缺失問題發(fā)生。生成式人工智能涉及數(shù)據(jù)的獲取方式、渠道是否合法,內(nèi)容的生成是否包含有冒犯、歧視性或者有危害社會與人身的信息,是否已經(jīng)對敏感數(shù)據(jù),如個人隱私信息等經(jīng)過模糊化處理,是否構(gòu)成對他人知識產(chǎn)權(quán)的侵犯等,都是倫理審核和審查的重點內(nèi)容。參加倫理審核和審查的人員應當具備專業(yè)背景和跨學科知識,例如倫理學、計算機科學、法學、社會學等領域。倫理審核和審查應當遵循倫理價值目標,確保生成式人工智能的應用符合倫理規(guī)范。

4.制定生成式人工智能應用安全法律規(guī)范

生成式人工智能系統(tǒng)研究的最初目的是模擬和復制人類的智能,包括理性思維、學習和推理能力,以實現(xiàn)人工智能與人類的對話和交互,解決人類面臨的各種問題?,F(xiàn)今人工智能技術(shù)的發(fā)展速度已經(jīng)超越了我國法律監(jiān)管的速度。首先,現(xiàn)有法律法規(guī)缺乏前瞻性。我國現(xiàn)有的法律體系是根據(jù)現(xiàn)階段人工智能技術(shù)的發(fā)展來開展設計的,模擬的是傳統(tǒng)的和現(xiàn)代的技術(shù)演進邏輯,難以對未來人工技術(shù)發(fā)展出現(xiàn)的新問題予以預測。其次,法律監(jiān)管難以對生成式人工智能技術(shù)規(guī)范統(tǒng)一。生成式人工智能較之一般人工智能技術(shù)已經(jīng)表現(xiàn)出了跨越式的發(fā)展態(tài)勢,世界各國發(fā)展水平不一,無論是電子信息設備的尖端和更新,還是人才技術(shù)實力的培養(yǎng),不同國家和地區(qū)之間的差異明顯,也意味著法律規(guī)范生成式人工智能技術(shù)會在不同的國家和地區(qū)會呈現(xiàn)巨大差異。第三,生成式人工智能技術(shù)法律規(guī)范有技術(shù)門檻。生成式人工智能技術(shù)具有很高的電子信息技術(shù)門檻,不懂計算機二進制語言的人類將被阻擋在開發(fā)程序之外,只能被動地使用或者成為開發(fā)模型中的一個互動因子,難以真正涉及核心技術(shù)。因此,制定生成式人工智能應用安全法律規(guī)范必須具有現(xiàn)實性與前瞻性。[14]

生成式人工智能立法的現(xiàn)實性是人工智能技術(shù)發(fā)展迅猛,立法需要一定的時間和程序才能制定和生效。而制定法規(guī)需要深入了解生成式人工智能的工作原理、數(shù)據(jù)使用方式和潛在風險,還要預測人工智能技術(shù)的下一次跨越式發(fā)展。這需要專業(yè)知識和跨學科、跨國家合作,還需要前瞻性的立法目標和技術(shù)。不僅如此,政府需要足夠的資源和技術(shù)能力來審查算法、監(jiān)控數(shù)據(jù)使用和應對安全威脅等問題。為了應對不同領域之間的專家意見不一致,不同國家之間法律沖突的問題,立法機關(guān)需要成立專門立法小組,負責把握生成式人工智能技術(shù)發(fā)展的趨勢,尤其是藝術(shù)創(chuàng)作、醫(yī)療保健、法律、媒體等領域應用的需求,確保立法具有一定的靈活性,以適應不斷變化的場景。生成式人工智能立法還應該關(guān)注到潛在的長期風險,如失業(yè)、隱私侵犯、社會不平等、歧視等,以及如何減輕這些風險,在必要時開展風險評估。最重要的是,當生成式人工智能作出具有誤導或危害社會與人身安全的內(nèi)容時,法律如何問責與實現(xiàn)權(quán)利救濟。這就需要立法明確生成式人工智能應用的主體責任。開發(fā)者、使用者、數(shù)據(jù)提供者、監(jiān)管者都應當作為各階段的主體對其行為負責。對受到侵害的權(quán)利主體,立法能夠及時有效地救濟其權(quán)利。

5.提高公眾意識和參與度

提高公眾意識和參與度的目的是促進公眾對生成式人工智能技術(shù)的了解、認識和參與,提高對虛假信息和偏見的辨別能力,為人工智能領域的可持續(xù)發(fā)展營造良好的社會環(huán)境和公眾基礎。人工智能的快速發(fā)展促使了傳統(tǒng)工業(yè)社會生產(chǎn)力的更新與替代。生成式人工智能技術(shù)模擬了人類的學習方式,可以自動生成文本、繪畫等各種形式的內(nèi)容,一些行業(yè)已經(jīng)出現(xiàn)了辭退人工而選擇人工智能技術(shù)的現(xiàn)象。人工智能技術(shù)在生產(chǎn)領域的運用極大地減少了生產(chǎn)成本,但是公眾對人工智能技術(shù)懷有積極探索心態(tài)的同時也抱有高度的陌生感和恐懼感。通過加強公眾參與,可以讓公眾在人工智能相關(guān)政策的制定和評估過程中發(fā)表自己的意見和訴求,參與決策過程,從而增強公眾的主體意識和民主意識,提高公眾對技術(shù)發(fā)展的信任和支持。同時,也可以為人工智能技術(shù)的發(fā)展提供多方面的意見和建議,促進技術(shù)的合理性和實用性,為社會發(fā)展和人民福祉做出貢獻。

6.建立倫理委員會

人工智能倫理委員會的建立是為了確保生成式人工智能的研究和應用符合社會倫理原則和法律法規(guī),解決使用生成式人工智能所產(chǎn)生的道德、隱私和倫理安全問題。人工智能倫理委員會主要負責研究和制定生成式人工智能被負責任地使用,遵守倫理和法律價值目標和準則,對人工智能相關(guān)項目進行倫理審查和監(jiān)督,評估數(shù)據(jù)壟斷、算法歧視、數(shù)據(jù)與算法濫用、侵犯隱私、違反倫理道德、就業(yè)影響等倫理問題,發(fā)布人工智能倫理安全實踐指南、人工智能倫理安全白皮書以及人工智能企業(yè)倫理安全治理優(yōu)秀案例集等,引導不同類型的人工智能企業(yè)建立完善倫理安全治理制度。同時,人工智能倫理委員會還可以與政府部門、企業(yè)、研究機構(gòu)等合作,共同推進人工智能倫理的研究和實踐。[15]首先,明確委員會的使命和目標,包括監(jiān)督和管理人工智能倫理問題,制定相關(guān)政策和規(guī)范,確保人工智能的發(fā)展符合社會價值觀和道德準則。其次,委員會成員,可以由來自不同領域和背景的專家和學者來組成,如計算機科學、人工智能、倫理學、法律等領域。這些成員應當在自己研究的領域具有代表性和一定的影響力。第三,確定委員會的職責和權(quán)限,例如審查和評估人工智能產(chǎn)品的倫理風險,制定風險管理計劃和應對措施,監(jiān)督倫理政策的執(zhí)行情況等。第四,建立委員會內(nèi)部制度,包括決策機制、會議制度、工作程序等,以確保委員會的工作有序進行。第五,建立跟蹤和反饋機制。監(jiān)測生成式人工智能的使用情況,及時發(fā)現(xiàn)潛在的倫理問題。建立反饋機制,讓用戶和公眾能夠報告不當內(nèi)容和濫用行為。

五、結(jié)語

生成式人工智能技術(shù)必然引發(fā)人類社會新一輪的科技革命,也必將重塑社會的生活形態(tài)。在人類享受科技革命帶來生產(chǎn)和生活便利的同時,人工智能技術(shù)引發(fā)的倫理風險問題迫使人們重新思考科技與人類的關(guān)系。技術(shù)嵌入缺乏倫理制約引發(fā)的道德價值偏離、數(shù)據(jù)信息的提供和選擇標準不明引發(fā)的“算法黑箱”、文化偏見引發(fā)的算法歧視、基于數(shù)字化造成的社會分層、數(shù)字鴻溝都是亟待解決的人工智能倫理問題。而人類在面對出現(xiàn)的人工智能技術(shù)倫理風險問題面前顯現(xiàn)出了局促,需要明確生成式人工智能倫理價值目標,增強生成式人工智能技術(shù)的透明度和可解釋性,增加對生成式人工智能的倫理審核和審查,制定生成式人工智能應用安全法律規(guī)范,提高公眾意識和參與度,建立倫理委員會來促進創(chuàng)新,確保負責任地開發(fā)人工智能技術(shù),構(gòu)建人類新的數(shù)字生態(tài)文明。

猜你喜歡
倫理人工智能算法
《心之死》的趣味與倫理焦慮
護生眼中的倫理修養(yǎng)
活力(2019年19期)2020-01-06 07:37:00
基于MapReduce的改進Eclat算法
Travellng thg World Full—time for Rree
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
進位加法的兩種算法
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
一種改進的整周模糊度去相關(guān)算法
金沙县| 仙居县| 西昌市| 青海省| 沙雅县| 卢氏县| 洪洞县| 麻江县| 嘉祥县| 易门县| 洪湖市| 高平市| 甘洛县| 霸州市| 巩义市| 内江市| 峨边| 昔阳县| 五莲县| 平和县| 博兴县| 乌拉特中旗| 江门市| 海阳市| 方正县| 札达县| 衡东县| 肇源县| 蒙自县| 舟山市| 石景山区| 宣武区| 黄平县| 讷河市| 宣恩县| 安多县| 民勤县| 多伦县| 道真| 石阡县| 揭阳市|