国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

教育人工智能倫理的解析與治理

2022-06-16 01:35苗逢春
中國電化教育 2022年6期
關(guān)鍵詞:倫理算法人工智能

摘要:該研究力圖揭示人工智能倫理治理需應(yīng)對的私有數(shù)字治理體把控的人工智能倫理霸權(quán)、全球人工智能治理失序和主權(quán)國家人工智能治理滯后的現(xiàn)狀。從機器決策與人文實踐互動的維度界定人工智能倫理問題分析框架,剖析基于數(shù)據(jù)和算法的預(yù)測和決策引發(fā)的典型倫理問題。在此框架下,辨析教育人工智能倫理問題的主要表現(xiàn)形式和教育作為培養(yǎng)人工智能倫理價值觀和倫理行事能力的主渠道作用,探索教育人工智能倫理治理與教育智能升級統(tǒng)一與同步的制度再建空間和實踐方向。

關(guān)鍵詞:數(shù)字私有治理體;人工智能倫理問題分析框架;教育人工智能倫理;生物圈整體視域中的價值觀;公平和非歧視;倫理影響評估框架;數(shù)據(jù)政策

中圖分類號:G434 文獻標識碼:A

真正的人工智能時代必定是以多層次、全領(lǐng)域的“人機協(xié)作”為基礎(chǔ)[1]。人機協(xié)作的層次包括人類個體與智能技術(shù)的互動、人類群體與群體智能技術(shù)之間技術(shù)媒介干預(yù)下的人際關(guān)聯(lián)、主權(quán)國家的智能治理以及國際智能技術(shù)合作與競爭、人機協(xié)作與環(huán)境和生態(tài)系統(tǒng)的相互制約等。人類社會與人工智能技術(shù)的協(xié)作目前仍處于試錯、糾錯的探索階段。這個階段的典型特征之一是私營數(shù)字技術(shù)提供商在數(shù)據(jù)、算法和計算能力等方面相對于主權(quán)國家公共機構(gòu)和個體應(yīng)用者擁有越來越不平衡的絕對優(yōu)勢,形成了以個人或集團形式存在的私有數(shù)字霸權(quán)。私有數(shù)字霸權(quán)在國家和社群層面,通過智能財富聚集進一步加劇了長期存在的財富不平等和發(fā)展機會不平等;在人與人的關(guān)系層面,無倫理管制的人工智能技術(shù)強化了已有的各類歧視,引發(fā)新型歧視,并會擴散憎恨言論、侵害文化多樣性;在個體與技術(shù)關(guān)系層面,則已顯現(xiàn)通過侵犯數(shù)據(jù)隱私的商業(yè)謀利以及“技術(shù)誘導(dǎo)、人類仆從”等影響深遠的倫理問題。

2021年11月,聯(lián)合國教科文組織(以下簡稱“教科文組織”)發(fā)布的《人工智能倫理問題建議書》(Recommendation on Ethics of AI)(以下簡稱《建議書》)[2]試圖為管制人工智能倫理問題,提供一份國際準則文書。本研究旨在探析《建議書》背后隱藏的多元化全球治理格局和治理困境,澄清人工智能倫理問題的核心范疇,解讀基于生物圈整體可持續(xù)發(fā)展框架下的人文主義價值觀,揭示教育人工智能倫理問題的既有表現(xiàn)形式和潛在人文危害。在此基礎(chǔ)上,理解《建議書》提出的人工智能倫理問題治理原則和實踐建議,探索實現(xiàn)智能技術(shù)創(chuàng)新和倫理管制統(tǒng)一與同步的制度再建空間和實踐方向。

一、《建議書》的治理效力和治理范圍

(一)《建議書》的全球視角與領(lǐng)域局限

《建議書》是教科文組織在其世界科學(xué)知識與技術(shù)倫理委員會(World Commission on the Ethics of Scientific Knowledge and Technology, COMEST)基礎(chǔ)上任命的特設(shè)專家組擬定的。在起草過程中,教科文組織廣泛咨詢了193個會員國、其他國際機構(gòu)以及非政府組織的意見和建議,并由教科文組織第四十一屆全體大會審議通過,是第一份關(guān)于人工智能倫理問題的國際準則性文書。該《建議書》“以國際法為依據(jù)、采用全球方法制定”,具有開放的全球視角。但其對人工智能倫理問題的闡釋和治理建議,僅限定于該組織管轄的教育、科學(xué)、文化、傳播與信息等職能領(lǐng)域。這一人為限定的四五個職能領(lǐng)域的視域,既在一定程度上模糊人工智能倫理問題應(yīng)然的邏輯分析框架,也限制了其對教育領(lǐng)域人工智能倫理問題的深度剖析。

(二)從國家視角理解《建議書》的治理效力

教科文組織不具備制定國際法的資質(zhì),其全球治理主要以其全體大會審議通過的國際公約、建議書和宣言等國際規(guī)則文書作為依據(jù)。這些文書對相關(guān)簽約國或簽約團體有一定的法律綁定約束力,但教科文組織不能強制干預(yù)主權(quán)國家的法律制定或越過主權(quán)國家對其法律事務(wù)實施長臂管轄。主權(quán)國家基于對相關(guān)理念的國際共識和本國法律慣例確定執(zhí)行義務(wù),屬于柔性立法和執(zhí)法的范疇。具體而言,必須在《建議書》法定的治理權(quán)限內(nèi),理解其界定的目標,落實預(yù)期治理效力。

1.為各國法律框架內(nèi)的人工智能倫理立法提供國際規(guī)則框架:《建議書》將倫理視為對人工智能技術(shù)進行規(guī)范性評估和指導(dǎo)的動態(tài)管制基礎(chǔ),各國通過制定通用數(shù)據(jù)隱私保護法、跨領(lǐng)域的人工智能倫理法律和相關(guān)領(lǐng)域內(nèi)的倫理法規(guī)等界定《建議書》的實踐效力。

2.為解決跨國糾紛和開展國際合作提供參考框架:人工智能技術(shù)具有極強的跨國滲透性,其引發(fā)的倫理追責和管制大多跨越本國法律框架,須通過國際合作來應(yīng)對。《建議書》為各國與國際組織、非政府組織、企業(yè)和科學(xué)界的合作提供人工智能倫理治理原則和制度框架。

3.為各國跨部門、跨界協(xié)調(diào)制度建設(shè)提供價值觀和原則引導(dǎo):各會員國有義務(wù)將《建議書》的原則正式知會相關(guān)政府部門,并根據(jù)建議書的建議,考慮建立國家人工智能倫理治理委員會,協(xié)調(diào)其內(nèi)部相關(guān)部門之間的協(xié)作同治。中國《關(guān)于加強科技倫理治理的意見》[3]明確提出建立“國家科技倫理委員會”,是首個響應(yīng)這一倡議的國家級治理機制。

4.為社會和個體選擇技術(shù)服務(wù)和開展技術(shù)應(yīng)用提供倫理準則:為社會和個人接受或拒絕人工智能技術(shù)、從不同人工智能系統(tǒng)中選擇合適技術(shù)服務(wù)提供倫理影響評估依據(jù),并為引導(dǎo)機構(gòu)和個人符合倫理地應(yīng)用人工智能技術(shù)提供行為準則。

(三)從全球治理格局出發(fā),應(yīng)對數(shù)字私有治理體和人工智能治理失序

聯(lián)合國系統(tǒng)一直踐行的是主權(quán)國家作為主導(dǎo)治理體的國家中心主義治理范式,即通過主權(quán)國家公共治理體的立法和執(zhí)法來支持跨國治理機構(gòu)的全球治理理念在國家、機構(gòu)和個人層面的落實。20世紀90年代中期“全球治理”的概念確立以來,跨國治理體在與主權(quán)國家合作的基礎(chǔ)上,同時強調(diào)公民社會是支持全球治理的重要行為者,并奠定由主權(quán)國家公共治理體、跨政府全球治理體和民間社會治理體構(gòu)成的全球治理格局。2011年以來,移動寬帶技術(shù)逐步普及,帶動了高壟斷性數(shù)字化社交平臺和移動應(yīng)用的普及和泛在化應(yīng)用。2015年之后,人工智能技術(shù)領(lǐng)域的最新技術(shù)突破與移動數(shù)字社交媒體深度聯(lián)姻,加劇了私營數(shù)字平臺開發(fā)商與公共治理機構(gòu)和公民用戶之間在數(shù)據(jù)、算法和計算能力等方面的壓倒性不對稱。智能化數(shù)字平臺的成熟與新冠肺炎疫情助推的數(shù)字平臺普及在2020年發(fā)生歷史性的重疊,到2021年1月,全球社交媒體用戶達到全球總?cè)丝诘?3.6%[4]。壟斷性數(shù)字平臺持有者事實性地定義并實施了其私有治理規(guī)范,宣示了數(shù)字私有治理體的崛起以及跨政府治理體、主權(quán)國家公共治理體、公民社會治理體和數(shù)字化私有治理體構(gòu)成的數(shù)字化全球治理格局成型[5]。其中,數(shù)字私有治理體在全球治理格局中仍處于人工智能倫理霸權(quán)地位,具體體現(xiàn)為:(1)數(shù)字私有治理體是人工智能倫理問題的主要肇事者:資本逐利驅(qū)動的人工智能提供商借助與用戶之間對數(shù)據(jù)、算法和運算能力的不對稱,在用戶并非完全知情和明確同意的情況下,收集用戶數(shù)據(jù)、識別用戶行為模式、引導(dǎo)或誤導(dǎo)用戶線上線下社交活動和消費行為。(2)數(shù)字私有治理體商充當一定時空內(nèi)人工智能倫理的立法者:在通用數(shù)據(jù)保護條例難以管轄的場景內(nèi),數(shù)字私有治理體充當著人工智能應(yīng)用行為規(guī)則制定者的角色;(3)數(shù)字私有治理體部分充當倫理法規(guī)的執(zhí)法者:在倫理法規(guī)的空白期和空白領(lǐng)域,當用戶間、用戶與供與應(yīng)商間產(chǎn)生倫理糾紛時,私營平臺提供商充當糾紛調(diào)解員的角色。46C60839-5885-4AF5-B938-B88A33D947B3

數(shù)字私有治理體的數(shù)字強勢地位,削弱了主權(quán)國家公共治理體對人工智能倫理問題的管理能力,是治理格局向去主權(quán)國家中心主義方向發(fā)展的技術(shù)誘因。主權(quán)國家治理體針對新興數(shù)字化倫理問題的法律供給和執(zhí)法能力遠遠滯后于人工智能技術(shù)的迭代創(chuàng)新和滲透速度。全球超過一半的人口幾乎每天都在使用移動社交應(yīng)用,用戶數(shù)據(jù)每時每刻都被背后隱藏的私營人工智能運營商挖掘和操控。在此背景下,數(shù)據(jù)隱私保護法是管制各領(lǐng)域人工智能倫理問題的前提性通用法律,更應(yīng)是應(yīng)對已發(fā)侵權(quán)行為的緊急保護法。但截止到目前,全球仍有超過三分之一的國家沒有制定任何形式的通用數(shù)據(jù)保護條例用以確保公民在“被人工智能技術(shù)應(yīng)用時”其數(shù)據(jù)隱私和安全不受侵犯[6]。除了一般性的數(shù)據(jù)保護法規(guī)之外,對人工智能在具體領(lǐng)域中應(yīng)用產(chǎn)生的倫理問題,全球各國基本處于立法空白和管制失序階段。

二、人工智能倫理問題分析框架:典型倫理問題及其發(fā)生機理

(一)《建議書》界定的人工智能倫理問題核心范疇

鑒于“人工智能”定義的復(fù)雜性,《建議書》僅對可能引發(fā)倫理問題的人工智能系統(tǒng)的內(nèi)涵和外延進行了操作性界定,即“整合模型和算法的信息處理技術(shù),這些模型和算法具備生成學(xué)習(xí)和執(zhí)行認知任務(wù)的能力,從而在物質(zhì)環(huán)境和虛擬環(huán)境中實現(xiàn)預(yù)測和決策等結(jié)果。在設(shè)計上,人工智能系統(tǒng)借助知識建模和知識表達,通過對數(shù)據(jù)的利用和對關(guān)聯(lián)性的計算,可以在不同程度上實現(xiàn)自主運行”。盡管《建議書》一再重申“人工智能系統(tǒng)有關(guān)的倫理問題涉及其生命周期的各個階段(從研究、設(shè)計、開發(fā)到配置和使用等各階段)”,但其例舉的典型倫理問題和相關(guān)建議主要指向一個核心范疇,即基于數(shù)據(jù)與算法的預(yù)測和決策及其影響的外顯行為對人的基本權(quán)利、尊嚴以及對環(huán)境和生態(tài)系統(tǒng)的現(xiàn)實威脅和潛在倫理風(fēng)險。針對實體人工智能及其產(chǎn)生的倫理問題,《建議書》未系統(tǒng)而深入進行闡釋并提出治理建議??梢岳斫鉃椤督ㄗh書》在人機界面和智能設(shè)備相關(guān)倫理問題領(lǐng)域有意或無意留有空白。

(二)人工智能倫理問題分析框架

本研究提出如表1所示的人工智能倫理問題分析框架。

該框架基于人工智能倫理問題的核心范疇,即“基于數(shù)據(jù)與算法的預(yù)測與決策及其影響的外顯行為和實體設(shè)備對人的基本權(quán)利、尊嚴及對環(huán)境和生態(tài)系統(tǒng)的現(xiàn)實威脅和倫理風(fēng)險”,以及三個維度即“人文維度”“技術(shù)維度”與“歷史發(fā)展維度”。以下是借助該框架對人工智能倫理問題發(fā)生機理的概要分析。

1.人工智能倫理問題的技術(shù)維度和主要技術(shù)誘因

人工智能倫理問題的“技術(shù)維度”,即基于數(shù)據(jù)與算法的預(yù)測與決策的人工智能系統(tǒng)生命周期。本研究從引發(fā)倫理問題的關(guān)鍵技術(shù)節(jié)點出發(fā)界定下述向度:數(shù)據(jù)的產(chǎn)生與保存、數(shù)據(jù)及數(shù)據(jù)設(shè)備的訪問權(quán)與控制權(quán)、基于數(shù)據(jù)與算法的預(yù)測與決策影響的外顯行為、智能人機界面及智能設(shè)備等實體人工智能。

(1)數(shù)據(jù)的產(chǎn)生與保存

在“數(shù)據(jù)的產(chǎn)生與保存”的技術(shù)節(jié)點,主要的倫理技術(shù)誘因是數(shù)據(jù)來源的可靠性和數(shù)據(jù)采集過程的合法合規(guī)性。主要倫理風(fēng)險包括在數(shù)據(jù)擁有者不知情或未授權(quán)前提下的數(shù)據(jù)收集、無意采用的錯誤信息(Misinformation)、有意采用的虛假信息(Disinformation)或虛假數(shù)據(jù)來源、通過算法實現(xiàn)的數(shù)據(jù)的可靠性及其價值取向(比如“自動化新聞報道”(Automated Journalism)產(chǎn)生的數(shù)據(jù))以及數(shù)據(jù)保存過程產(chǎn)生的數(shù)據(jù)安全及其相關(guān)的人身和財產(chǎn)安全等。

(2)數(shù)據(jù)及數(shù)據(jù)設(shè)備的訪問權(quán)與控制權(quán)

在“數(shù)據(jù)的訪問與控制”的技術(shù)節(jié)點,主要的倫理技術(shù)誘因是數(shù)據(jù)獲取設(shè)備和數(shù)據(jù)獲取能力等面的平等性、包容性以及數(shù)據(jù)擁有者對自身數(shù)據(jù)的訪問和控制權(quán)限。主要倫理風(fēng)險包括數(shù)字設(shè)備和數(shù)字技能的不平等導(dǎo)致的國際和國內(nèi)各社群間的數(shù)字鴻溝,數(shù)據(jù)保護法缺失導(dǎo)致對數(shù)據(jù)擁有權(quán)、訪問權(quán)和遷移權(quán)等的界定模糊和權(quán)力侵害。

(3)基于數(shù)據(jù)與算法的預(yù)測與決策及其影響的外顯行為

在“基于數(shù)據(jù)與算法的預(yù)測與決策”的技術(shù)節(jié)點,主要的倫理技術(shù)誘因是來自數(shù)據(jù)操控和算法設(shè)計責任人的無意偏見、有意歧視和蓄謀算法詐騙等。主要倫理風(fēng)險包括:數(shù)據(jù)標簽歧視、算法推送歧視、機器決策的技術(shù)短板導(dǎo)致的決策和行為干預(yù)風(fēng)險,有意用隱形算法推薦來控制人的意志或誘導(dǎo)人的行為,以及通過機器決策壓制人的自主性等。

(4)智能人機界面及智能設(shè)備等實體人工智能

在“智能人機界面及智能設(shè)備”的技術(shù)節(jié)點,主要倫理技術(shù)誘因來自研發(fā)和應(yīng)用人體干預(yù)性智能設(shè)備或人類行為監(jiān)控智能設(shè)備中隱含的即時和長遠倫理問題。主要倫理風(fēng)險包括可穿戴和可植入智能設(shè)備對人體生理和心理的干預(yù)、智能監(jiān)控設(shè)備等的隱私和安全侵犯等。

2.人工智能倫理問題的人文維度和主要類別

人工智能倫理問題的“人文維度”即人類借助技術(shù)以個體、社群、國家以及整個人類為單位生活、生產(chǎn)、學(xué)習(xí)及其與環(huán)境和生態(tài)系統(tǒng)互動的不同層次?!叭宋木S度”主要包括以下彼此關(guān)聯(lián)的向度:人類個體、人與人互動的群體、以主權(quán)國家形式存在的人與人關(guān)系體、人與環(huán)境及生態(tài)系統(tǒng)的互動。

(1)人類個體

在“人類個體”與智能技術(shù)的互動向度,主要倫理問題表現(xiàn)為在各技術(shù)節(jié)點上,人類個體作為被收集數(shù)據(jù)和被推送決策的客體和自然人以及作為應(yīng)用技術(shù)的主體和法人所產(chǎn)生的倫理問題。已顯現(xiàn)的倫理問題按技術(shù)節(jié)點排列,依次包括:個人數(shù)據(jù)隱私侵害、個人數(shù)據(jù)安全疏漏;訪問和使用個體數(shù)據(jù)所需的個體數(shù)字設(shè)備和數(shù)字技能鴻溝、個體部分喪失在人工智能系統(tǒng)(如智能社交平臺)中產(chǎn)生的自我數(shù)據(jù)的擁有權(quán)和控制權(quán)限(例如訪問權(quán)、刪除權(quán)、遷移權(quán)等);智能平臺借助算法推送內(nèi)容壓制信息搜索和探究的自主性、借助算法推送形成的高誘導(dǎo)性個體“信息繭房”(Information Cocoons)、針對個體的高利害性機器決策;算法誘導(dǎo)所致人機互動成癮和人格障礙;人體干預(yù)性智能設(shè)備對身心的刺激和干預(yù)及其長遠影響。46C60839-5885-4AF5-B938-B88A33D947B3

該向度內(nèi)影響最全面深遠的倫理問題是算法推送和算法誘導(dǎo)產(chǎn)生的個體信息繭房和機器決策對人類決策與人類行為自主性的壓制。

(2)人與人互動

在“人與人互動”的向度主要包括人類群體之間在技術(shù)媒介干預(yù)下的人際交往以及人類群體與群體智能技術(shù)之間的互動,這些復(fù)雜過程中已顯現(xiàn)的倫理問題依次包括:社交媒體強化虛假信息、錯誤信息和仇恨言論表達形態(tài)的誘惑性和說服力并倍增其在人際交往中的大規(guī)模擴散與進一步誤傳、弱勢群體數(shù)據(jù)代表性不足(例如,因殘障人士和老年人等弱勢群體人口中網(wǎng)民比例較低、在線活動痕跡過淺,導(dǎo)致這些群體在人工智能技術(shù)中的數(shù)據(jù)代表性不足);接觸和應(yīng)用智能技術(shù)的性別鴻溝,低收入社群、殘障人士、語言弱勢群體、文化弱勢群體等各類弱勢群體在接觸和應(yīng)用智能設(shè)備中的數(shù)字化排斥或數(shù)字化邊緣化,智能技術(shù)財富聚集(AI Wealth Concentration)及貧富差距加劇等;數(shù)據(jù)標簽及算法推送中針對女性及其他弱勢群體的歧視和偏見(例如,數(shù)字社交平臺早期人工智能算法多將女性標簽化為護士等職業(yè)而將男性標簽化為醫(yī)生和工程師等職業(yè),早期智能客服系統(tǒng)(Chatbots)將女性物化(Objectify)為“女仆”等)、算法操縱輿論導(dǎo)致的群體價值觀繭房、智能技術(shù)攜帶的強勢語言和文化對土著語言和文化多樣性的威脅;算法誘導(dǎo)的虛擬社交成癮導(dǎo)致的現(xiàn)實社交隔離、針對弱勢群體的監(jiān)控行或侵犯性設(shè)備、智能設(shè)備將人類尤其是缺乏獨立行事能力的人群物化為數(shù)據(jù)等。

該向度內(nèi)影響最全面深遠的倫理問題是借助社交媒體隱藏的算法,誘導(dǎo)社群不自覺地形成群體信息繭房并在此基礎(chǔ)上演化出價值觀繭房,以此控制社群的價值判斷和社會行為。

(3)以主權(quán)國家形式存在的人與人關(guān)系體

“以主權(quán)國家形式存在的人與人關(guān)系體”與智能技術(shù)的互動向度,主要表現(xiàn)為國家內(nèi)部的智能公共治理以及國際智能技術(shù)合作與競爭。該向度顯現(xiàn)的倫理問題依次包括:主權(quán)國家法律針對人工智能應(yīng)用中人的權(quán)利和基本自由的治理缺失、國家數(shù)據(jù)安全保護能力和國際數(shù)據(jù)安全鴻溝;數(shù)據(jù)挖掘所需的數(shù)字基礎(chǔ)設(shè)施國際鴻溝、對國家數(shù)據(jù)主權(quán)控制的國際鴻溝、算法與計算能力的國際鴻溝;智能制造產(chǎn)業(yè)鏈對本國就業(yè)與勞動力需求的影響、智能公安與智能國家安全系統(tǒng)中的倫理問題、智能公共治理領(lǐng)域(智能技術(shù)應(yīng)用于社會服務(wù)、大眾傳媒、民主實踐等)的倫理問題;公眾甚至私人場所使用監(jiān)控性或侵犯性設(shè)備產(chǎn)生的倫理問題等。

該向度內(nèi)影響最全面深遠的倫理問題是人工智能財富聚集導(dǎo)致發(fā)展中國家進一步失去國際數(shù)字化競爭力以及本土語言和文化續(xù)存能力,而最尖銳的倫理問題是在必要的智能公安系統(tǒng)與限制大眾智能監(jiān)控之間找到適當?shù)钠胶狻?/p>

(4)人與環(huán)境及生態(tài)系統(tǒng)

“人與環(huán)境及生態(tài)系統(tǒng)”向度主要表現(xiàn)為人類開發(fā)應(yīng)用智能設(shè)備的過程中對環(huán)境和生態(tài)系統(tǒng)的影響,主要體現(xiàn)在設(shè)備生產(chǎn)供應(yīng)鏈、能耗鏈和實體廢棄物鏈的生態(tài)影響。該向度顯現(xiàn)的倫理問題依次包括:用于數(shù)據(jù)管理和運算的大規(guī)模數(shù)字化設(shè)備的碳排放和環(huán)境污染;數(shù)據(jù)標簽和算法設(shè)計中對動物福利(Animal Welfare)、環(huán)境保護及生態(tài)系統(tǒng)可持續(xù)發(fā)展的無意忽視和有意掠奪;以強勢人類群體短期利益為核心剝削弱勢群體利益的數(shù)據(jù)決策和行為干預(yù);實體智能設(shè)備全生命周期中的能耗、碳排放和電子廢棄物等。

該向度內(nèi)最容易被忽視但已產(chǎn)生最嚴重影響的倫理問題是數(shù)字化技術(shù)在為解決全球變暖提供可行性的長遠解決方案之前,其本身已成為全球變暖的最大罪因之一。據(jù)2019年的估算,全球數(shù)字設(shè)備產(chǎn)生的碳排放占全球總排放量的2.3—3.7%,相當于整個航空業(yè)的排放總量[7]。故而,該向度的深遠倫理問題是:人工智能技術(shù)長遠發(fā)展的碳排放會進一步累加并成為全球變暖的更大罪因,還是未來人工智能技術(shù)創(chuàng)新可協(xié)助人類發(fā)現(xiàn)大規(guī)模碳中和解決方案并加速氣候變暖拐點的來臨?

3.人工智能倫理問題的歷史發(fā)展維度和潛藏倫理問題預(yù)判

人工智能倫理問題的“歷史發(fā)展維度”即技術(shù)發(fā)展和人機協(xié)作的迭代發(fā)展視角,包括“已知”和“未知”人工智能技術(shù)及其引發(fā)的倫理問題兩個向度。已知技術(shù)應(yīng)用場景中隱含著進一步演變分化并影響下一代人類的人工智能倫理問題脈絡(luò),已隱現(xiàn)或未知的技術(shù)創(chuàng)新也必定會引發(fā)未知的新倫理問題。需要對智能技術(shù)發(fā)展的連續(xù)性和代際跳躍性及其倫理影響有動態(tài)審查和敏感預(yù)判,并采取行業(yè)自律和治理監(jiān)督相結(jié)合的預(yù)防機制。

在未知技術(shù)創(chuàng)新及其可能引發(fā)的倫理問題向度,應(yīng)重點關(guān)注新技術(shù)與人類的未知互動場景和未知的深遠人文影響,包括:智能技術(shù)的未知發(fā)展趨勢與未知的人機互動模式對人機協(xié)作中人的主體意識和尊嚴的深層次沖擊;未來人工智能在某些領(lǐng)域超越和部分取代人類智能的階段,對智能時代“什么是人”及“人的價值”的深遠影響;智能時代虛擬與現(xiàn)實環(huán)境強融合場景中的認知模式和社會交往模式的重塑及其對未成年人世界觀形成的影響;數(shù)據(jù)作為一種新型個人財富對主權(quán)國家法律和公民行為體系的沖擊;關(guān)于強人工智能時代數(shù)字技術(shù)能否為環(huán)境和生態(tài)系統(tǒng)的可持續(xù)發(fā)展提供顛覆性解決方案的技術(shù)哲學(xué)追問等。

三、人工智能倫理治理的價值觀與原則

(一)改良的人文主義價值觀:生物圈整體視域中的個體權(quán)利、社會包容和發(fā)展多樣性

人類長期以來默認的發(fā)展模式是基于單一人類中心主義的哲學(xué)范式,這種無視其他生物、環(huán)境和生態(tài)系統(tǒng)壓力的發(fā)展模式“為追求增長和發(fā)展,我們?nèi)祟愖屪匀画h(huán)境不堪重荷,現(xiàn)已危及我們自身的生存”?!安粩鄶U大的社會和經(jīng)濟不平等、氣候變化、生物多樣性喪失、超出地球極限的資源使用……是當前這個歷史轉(zhuǎn)折點的標志”[8]。應(yīng)對人類社會面臨的歷史性生存危機,全球治理機構(gòu)呼吁借鑒生物中心主義(Biocentrism)的倫理學(xué)觀點,建構(gòu)人與生物圈一體的整體可持續(xù)發(fā)展哲學(xué)視域,即從人與其他生物平等、所有生物在生物圈中均具有獨特內(nèi)在價值的出發(fā)點來審視倫理問題和發(fā)展模式。確立人與人互聯(lián)的整體發(fā)展概念,即每個人和每個社群都屬于一個更高層次的整體而且只有人類整體的每個組成部分都能平等發(fā)展時,才有可能構(gòu)建和平、公正、包容的社會并確保整體可持續(xù)發(fā)展。確立人與環(huán)境和生態(tài)系統(tǒng)互聯(lián)的整體觀念,克制對自然資源的訴求并盡量中和消費各類資源過程中產(chǎn)生的破壞。這一生物圈整體論視域中的改良人文主義是界定《建議書》價值觀的哲學(xué)立論基礎(chǔ)。46C60839-5885-4AF5-B938-B88A33D947B3

(二)人工智能倫理治理價值觀釋義

《建議書》秉承了聯(lián)合國1948年發(fā)布的《世界人權(quán)宣言》[9]及隨后諸多關(guān)于人權(quán)保護的國際共識文書,將尊重人的基本權(quán)利和基本尊嚴、尊重包容和平等、尊重性別平等確立為不應(yīng)撼動的價值觀基石。

1.尊重每個個體的基本權(quán)利、基本自由以及平等的尊嚴

(1)尊重每個人生而固有和平等的尊嚴和價值:人類設(shè)計和使用任何工具都應(yīng)服務(wù)于人,都必須以維護人的基本尊嚴和權(quán)利為道德出發(fā)點。在人工智能系統(tǒng)的整個生命周期內(nèi),都應(yīng)承認每個人固有和平等的價值,不得對某種種族、性別、年齡、語言、宗教、政治見解、民族、族裔、社會出身、經(jīng)濟或社會條件、殘障情況的群體有歧視或邊緣化的主觀意圖和行為。

(2)防止人機互動中的“技術(shù)主導(dǎo)、人類仆從”關(guān)系:人工智能應(yīng)否和能否部分超越和取代人類甚至控制人類的自主行為是關(guān)于人與人工智能關(guān)系的終極技術(shù)哲學(xué)憂慮。目前公認的智能倫理價值觀對此有不容置疑的主張:在人工智能系統(tǒng)生命周期的任何階段,尤其是面向人類用戶推送內(nèi)容、做出診斷、建議行為干預(yù)時,都不能借助人工智能控制人類,或賦予技術(shù)控制地位并從而將人的身體、經(jīng)濟、社會、政治、文化或精神等置于仆從或從屬地位。

(3)防止弱勢群體和獨立行事能力較弱群體被物化:在過于強調(diào)基于數(shù)據(jù)和算法的機器決策時,容易有意或無意將人的認知和情感等分解和標簽為數(shù)據(jù),忽略人的自主性而將人作為物體來分析,即人的物化。人與人工智能系統(tǒng)互動中,尤其是為弱勢群體或行為能力虛弱的個體部署人工智能輔助系統(tǒng)時,人不應(yīng)被物化,其固有的尊嚴不應(yīng)受到損害。

(4)將人工智能技術(shù)引入司法實踐時應(yīng)以尊重人權(quán)和自由為前提:在探索借助人工智能技術(shù)輔助法規(guī)檢索、法律舉證和推理、智能執(zhí)法等智能司法實踐時,應(yīng)以尊重、捍衛(wèi)人的基本權(quán)利為前提,以協(xié)助保護人的基本權(quán)利和自由為目的。必須避免算法歧視、智能執(zhí)法侵犯人權(quán)、司法決策過度依賴技術(shù)而破壞司法公正等行為。

2.確保和平公正的人際互動和社會生活

人工智能支持的社交媒體是既可促進和平與正義對話,也可以激化仇恨言論的雙刃劍。應(yīng)引導(dǎo)促進和平、包容、公平的人工智能技術(shù)設(shè)計和技術(shù)應(yīng)用。監(jiān)督人工智能技術(shù)設(shè)計以及相關(guān)技術(shù)應(yīng)用的責任主體,避免制造、發(fā)布和擴散仇恨言論或有意引發(fā)歧視與仇恨的虛假信息。不得將人工智能用于限制個體和社區(qū)的自由和安全,或有意用于激化群體對立。

3.確保人類社會發(fā)展的多樣性、包容性和平等性

人類對生活方式和“生活質(zhì)量”的定義只要不侵犯他人人權(quán)、自由或尊嚴,應(yīng)由個人或社群自主來決定。人工智能技術(shù)的數(shù)據(jù)分析和算法推送極易將強勢數(shù)字群體或設(shè)計者的意愿強加于人,故此,在設(shè)計和應(yīng)用智能系統(tǒng)時應(yīng)尊重個體和社群對生活和發(fā)展方式的多樣性選擇包括是否采納人工智能技術(shù)的基本選擇。不應(yīng)有意將人工智能技術(shù)用于限制信仰、不同意見和多樣化表達形式,不能濫用模式識別技術(shù)等否認個體差異和個人經(jīng)驗。此外,應(yīng)賦能在數(shù)字化基礎(chǔ)設(shè)施、受教育機會、數(shù)字技能以及法律制度建設(shè)等領(lǐng)域落后的國家或社群,支持其獲得平等數(shù)字化發(fā)展和平等參與倫理治理的機會。

4.追求人與環(huán)境和生態(tài)系統(tǒng)的協(xié)調(diào)發(fā)展

當聚焦人工智能數(shù)據(jù)和算法本身時,其生命周期遠端的實體生產(chǎn)供應(yīng)鏈、能耗鏈和實體廢棄物鏈對環(huán)境和生態(tài)系統(tǒng)的影響極易被忽視。應(yīng)確認人工智能系統(tǒng)會對環(huán)境和生態(tài)系統(tǒng)整體造成深遠影響的關(guān)鍵環(huán)節(jié),人工智能系統(tǒng)生命周期中的所有行為主體都應(yīng)確保將其中的氣候變化和環(huán)境風(fēng)險降到最低,并引導(dǎo)人工智能的設(shè)計、開發(fā)和應(yīng)用為人與自然環(huán)境之間的多樣化共存和可持續(xù)發(fā)展作出貢獻。

(三)人工智能倫理治理的原則

1.判斷人工智能技術(shù)合理性的“相稱性和不損害”原則

“相稱性”原則(Proportionality,又稱為“比例原則”)是所有治理制度的最重要原則,是指治理主體實施管理行為時應(yīng)兼顧目標的實現(xiàn)和保護目標人群的基本權(quán)利,如果目標的實現(xiàn)可能對人的基本權(quán)利造成不利影響,則這種不利影響應(yīng)被限制在盡可能小的范圍和限度之內(nèi),二者應(yīng)有適當?shù)谋壤T跊Q定是否使用人工智能系統(tǒng)以及選用何種人工智能方法時,應(yīng)從以下方面評估技術(shù)手段在實現(xiàn)目標方面的相稱性:(1)適當性子原則:人工智能方法或某一特定系統(tǒng)能實現(xiàn)預(yù)期的合法目標,或至少是有助于達成目標的適當手段;(2)合法性子原則:所選擇的人工智能方法不違背本《建議書》或其他法律法規(guī)的基本價值觀;(3)必要性子原則:在嚴謹?shù)目茖W(xué)數(shù)據(jù)或論證基礎(chǔ)上,人工智能方法切合具體情況。應(yīng)避免迷信人工智能技術(shù)的變革力量、忽視人的主觀能動性的“技術(shù)解決方案主義”(the Technological Solutionism)。

同時強調(diào)在決定是否選擇人工智能技術(shù)方案時的“不損害”原則,應(yīng)確保落實風(fēng)險評估程序以避免有可能對人類身心安全、人權(quán)和基本自由、社群或者對環(huán)境和生態(tài)系統(tǒng)造成損害的技術(shù)方案。在機器決策會產(chǎn)生不可逆轉(zhuǎn)或難以逆轉(zhuǎn)的影響或者涉及生死抉擇時,應(yīng)由人類作出最終決定。

2.“數(shù)據(jù)隱私權(quán)保護”原則

隱私權(quán)是人的基本權(quán)利和尊嚴不可或缺的組成部分,是人的自主權(quán)的基礎(chǔ)。人工智能系統(tǒng)的整個生命周期,尤其是數(shù)據(jù)的收集、使用、共享、歸檔、存儲、查詢和刪除方式,都必須以尊重和保護隱私作為最基本原則。主權(quán)國家治理體應(yīng)借鑒國際數(shù)據(jù)保護原則和標準,制定本國有關(guān)收集和使用個人數(shù)據(jù)、保護數(shù)據(jù)主體數(shù)據(jù)隱私權(quán)、對算法系統(tǒng)開展隱私影響評估等方面的法律框架。

3.人工智能對環(huán)境和生態(tài)系統(tǒng)影響的“可持續(xù)發(fā)展原則”

“可持續(xù)發(fā)展原則”首先應(yīng)被納入是否采納人工智能技術(shù)和選擇何種技術(shù)方案的評估程序,以人工智能技術(shù)對人類與環(huán)境和生態(tài)系統(tǒng)互聯(lián)共存的顯性和潛在影響作為評估原則,充分考慮其對其他多方面動態(tài)可持續(xù)發(fā)展目標的綜合和深遠影響。其次,針對數(shù)據(jù)密集型或資源密集型并對環(huán)境有高風(fēng)險的系統(tǒng),應(yīng)參考對稱性原則,尋求數(shù)據(jù)、能源和資源簡約型人工智能方案,禁用會對環(huán)境造成嚴重負面影響的人工智能系統(tǒng)。46C60839-5885-4AF5-B938-B88A33D947B3

4.“安全、安?!痹瓌t

人工智能系統(tǒng)應(yīng)事先預(yù)防、事中避免基于數(shù)據(jù)和算法的預(yù)測、決策及其行為干預(yù)對人類、環(huán)境和生態(tài)帶來的無意傷害(安全風(fēng)險)以及安全漏洞或安全隱患(安保風(fēng)險)。提高人工智能的安全性的具體方法包括研發(fā)可持續(xù)和保護隱私的數(shù)據(jù)獲取框架,研制可利用優(yōu)質(zhì)數(shù)據(jù)更好地訓(xùn)練和驗證人工智能模型的新型算法等。

5.“公平和非歧視”原則

人工智能行為者應(yīng)以保障一切形式的公平和非歧視為原則。具體包括:(1)包容性原則:采用包容性設(shè)計原則確保殘障人士、女童和婦女、以及文化、語言等弱勢群體的人群均有機會從人工智能提供的便利中受益,并保護當?shù)鼗蛲林缛涸谡Z言、文化等方面的多樣性。(2)非歧視或去偏原則:應(yīng)通過數(shù)據(jù)標簽和算法設(shè)計中的系統(tǒng)“去偏”(Bias Agnostic)設(shè)計,最大限度去除人工智能系統(tǒng)中基于主動意愿的歧視或偏見,并評估和減少無意歧視。(3)主權(quán)國家內(nèi)部平等原則:努力消除國內(nèi)數(shù)字鴻溝,促進不同地區(qū)、不同經(jīng)濟文化背景的社群獲取和應(yīng)用人工智能的公平性。(4)國際平等發(fā)展與參與原則:通過國際合作,支持技術(shù)落后國家共享人工智能技術(shù)的惠益并積極參與人工智能系統(tǒng)的設(shè)計、開發(fā)與分享。采用開放標準和互操作性原則,縮小人工智能治理鴻溝、數(shù)據(jù)獲取和管理鴻溝、以及在數(shù)字基礎(chǔ)設(shè)施和數(shù)字技能等方面的鴻溝。(5)突出人工智能倫理治理中的性別平等:倫理影響評估應(yīng)包含橫向性別平等視角,防止在人工智能系統(tǒng)內(nèi)植入性別刻板印象和歧視性偏見,并對已有歧視進行自評和糾正。鼓勵女性平等參與人工智能研究和有關(guān)行業(yè)就業(yè),確保女性不會被排除在人工智能驅(qū)動的數(shù)字經(jīng)濟之外。

6.人工智能系統(tǒng)的“透明性和可解釋性”原則

人工智能系統(tǒng)的透明性(Transparency)和可解釋性(Explainability)是確保人的權(quán)利和其他倫理原則得以執(zhí)行的必要條件。透明性和可解釋性原則與數(shù)據(jù)隱私、系統(tǒng)安全等原則之間存在矛盾和張力,應(yīng)結(jié)合具體情況,在兩者間尋求合理的平衡。

人工智能系統(tǒng)的透明性是為支持服務(wù)對象、治理監(jiān)督機構(gòu)和其他利益攸關(guān)者的知情權(quán),公開關(guān)于人工智能系統(tǒng)的數(shù)據(jù)收集和管理框架、數(shù)據(jù)標簽和清洗方法、影響特定預(yù)測或決策的算法、技術(shù)部署和應(yīng)用模式等方面的適當信息,以增進對人工智能系統(tǒng)的信任。對于影響個體的人工智能系統(tǒng)決策,個人有權(quán)了解用作決策的技術(shù)或決策過程,并有權(quán)申訴糾正侵犯其權(quán)利的決定。

可解釋性是指人工智能系統(tǒng)設(shè)計特定的流程和方法,使人類用戶能夠理解和溯源算法模塊的輸入、輸出和運行及其對系統(tǒng)結(jié)果輸出的影響??山忉屝允峭该餍缘募夹g(shù)前提,是一項確保技術(shù)服務(wù)于人類的技術(shù)設(shè)計原則。在系統(tǒng)運行的結(jié)果會對用戶產(chǎn)生長遠、難以逆轉(zhuǎn)和高風(fēng)險的影響時,則須強制對系統(tǒng)決策可能導(dǎo)致的行為干預(yù)提供有意義的解釋??山忉屝栽瓌t的執(zhí)行須面對人工智能代際發(fā)展中的“不可解釋性”技術(shù)難題。在第二代人工智能技術(shù)尤其是深度學(xué)習(xí)算法模型中,客觀存在難以解釋的多層深度學(xué)習(xí)模型學(xué)習(xí)結(jié)果的難題及其導(dǎo)致的與技術(shù)原理和過程有關(guān)的“技術(shù)黑箱”。為此,技術(shù)界已在探索為深度學(xué)習(xí)算法的不可解釋性提供可能的破解路徑和方法,如孿生系統(tǒng)路徑(Twinsystems)[10]、對話路徑(Dialog Model)[11]等。在技術(shù)服務(wù)于人的原則下必須堅守的倫理立場是:不存在人工智能的絕對不可解釋性。如果存在處理過程和結(jié)果都絕對不可解釋的人工智能技術(shù),這些技術(shù)應(yīng)被禁止用于人類??山忉屝栽瓌t的長遠意義是引導(dǎo)開發(fā)更具有魯棒性(Robustness)和可解釋性的第三代人工智能基礎(chǔ)理論和方法。

7.“人類監(jiān)督和決策終極責任”原則

目前人工智能系統(tǒng)決策采用的數(shù)據(jù)和算法等均由人類賦予。為此,設(shè)計、控制和應(yīng)用人工智能系統(tǒng)的人應(yīng)是所有倫理問題的終極責任者。人類可借助甚至部分依賴人工智能系統(tǒng)支持人類決策,但相關(guān)自然人和法人的最終責任和問責不能推脫給人工智能系統(tǒng),智能系統(tǒng)決策與干預(yù)的任何節(jié)點產(chǎn)生的倫理和法律責任都應(yīng)歸咎于自然人或法人實體。是否將人的控制權(quán)讓渡給人工智能系統(tǒng)也要由人類來決定,在涉及生死抉擇的場景中,不應(yīng)任由人工智能系統(tǒng)決定。

8.“責任和問責”原則

可從以下層面理解針對相關(guān)責任人的責任和問責原則。

(1)轄區(qū)內(nèi)適應(yīng)性治理:各國治理機構(gòu)應(yīng)根據(jù)國家法律和國際法,在其轄域和實際控制范圍內(nèi),承擔各自的人工智能倫理治理責任。比如,對在其境內(nèi)生成或經(jīng)過其國境的數(shù)據(jù)進行監(jiān)管等。

(2)實際作為追責:基于人工智能系統(tǒng)作出的決定和行動,其倫理責任和義務(wù)最終都應(yīng)指向人工智能行為者在人工智能系統(tǒng)各節(jié)點中承擔的實際角色和作為來追責。

(3)監(jiān)測問責機制:問責制的技術(shù)指標應(yīng)涵蓋對相關(guān)技術(shù)和行為是否違反人權(quán)法規(guī)、倫理標準以及對環(huán)境和生態(tài)系統(tǒng)的影響等各個方面。問責制的實施流程應(yīng)強調(diào)人工智能系統(tǒng)及其應(yīng)用的可審計和可追溯性,并建立綜合的監(jiān)測問責機制包括倫理影響評估機制、審計機制、盡職調(diào)查機制、保護舉報者制度等,確保對問責制的多方監(jiān)測和有效落實。

四、人工智能技術(shù)倫理治理:法規(guī)框架和治理機制

人工智能倫理價值觀和原則,需要通過具體的立法和執(zhí)法、政策供給和制度建設(shè)實施和落實。這些通用法律框架和跨領(lǐng)域制度建設(shè),也為教育人工智能倫理的治理提供了基礎(chǔ)性保障。

(一)跨學(xué)科、跨界倫理影響評估

本研究根據(jù)人工智能倫理問題分析框架,建議如表2所示的人工智能倫理影響評估框架。

1.制定人工智能倫理影響評估框架:倫理影響評估應(yīng)參考上述價值觀和原則,從對人的權(quán)利和自由、環(huán)境和生態(tài)系統(tǒng)潛在的影響以及可能引發(fā)的其他倫理問題出發(fā)設(shè)計評估指標,并根據(jù)評估結(jié)果酌情出臺預(yù)防、緩解和監(jiān)督風(fēng)險的預(yù)案和其他保障機制。同時,考慮強制風(fēng)險測試機制,即針對存在潛在風(fēng)險的系統(tǒng),應(yīng)強制要求在投放市場之前對其進行廣泛的測試。46C60839-5885-4AF5-B938-B88A33D947B3

2.事先盡職調(diào)查:盡職調(diào)查在調(diào)查技術(shù)服務(wù)提供機構(gòu)資質(zhì)基礎(chǔ)上,應(yīng)核準人工智能系統(tǒng)是否合法合規(guī),核查其目前和未來的大規(guī)模應(yīng)用是否會損害包容性和加劇貧富差距和數(shù)字鴻溝,并調(diào)查基于數(shù)據(jù)和算法的決策建議對人類決策自主權(quán)可能產(chǎn)生的社會學(xué)和心理學(xué)影響。

3.倫理影響監(jiān)督、監(jiān)測和審計框架:人工智能倫理影響的監(jiān)督監(jiān)測應(yīng)由公共管理部門主導(dǎo),并制定和實施可監(jiān)測人工智能系統(tǒng)生命周期各階段(包括用于決策的算法的性能、數(shù)據(jù)以及參與這一過程的人工智能行為者)的監(jiān)測機制,確立針對算法、數(shù)據(jù)和設(shè)計流程以及系統(tǒng)其他層次的外部審計和監(jiān)測機制,確保人工智能系統(tǒng)的可審計性、可追溯性和可解釋性,并酌情向公眾開放。

(二)倫理治理和監(jiān)管機制

人工智能治理和監(jiān)管機制應(yīng)包括倫理自評、評審準入、立法監(jiān)督、損害補救等方面。

1.損害調(diào)查和補救機制

由于全球人工智能治理準則和法規(guī)的滯后,人工智能應(yīng)用領(lǐng)域已存在大量倫理違法違規(guī)案例。倫理治理應(yīng)首先判定和補救已有的人權(quán)和數(shù)據(jù)隱私等方面的損害。針對智能技術(shù)應(yīng)用可能引發(fā)損害的高風(fēng)險場景,建立損害調(diào)查、損害應(yīng)對和補救機制。應(yīng)強制執(zhí)行人工智能系統(tǒng)的可審計性和可追溯性要求,為私營部門和公共部門合作執(zhí)行補救機制提供執(zhí)法前提。同時,強化公共機構(gòu)調(diào)查執(zhí)行能力,并與科研機構(gòu)和其他利益攸關(guān)方合作調(diào)查。

2.柔性準入證書機制

私營人工智能系統(tǒng)已滲透到各個領(lǐng)域而且新系統(tǒng)每時每刻都在加速滲透。應(yīng)對數(shù)字私有治理體的挑戰(zhàn),公共治理體應(yīng)針對人工智能系統(tǒng)制定國家人工智能倫理治理策略并考慮人工智能系統(tǒng)準入證書機制,并在此基礎(chǔ)上開展必要的國際證書互認。準入證書機制應(yīng)對人工智能系統(tǒng)、數(shù)據(jù)以及相關(guān)應(yīng)用是否合乎倫理準則等方面進行審查,同時確保后續(xù)開發(fā)的技術(shù)魯棒性以及持續(xù)的倫理合規(guī)性。針對新舊系統(tǒng)更替階段,啟動準入證書重新考核和更新機制。但準入證書機制應(yīng)盡量簡化行政程序以避免妨礙小企業(yè)或初創(chuàng)企業(yè)、科研機構(gòu)的創(chuàng)新。

3.已有和擬用人工智能系統(tǒng)的倫理自評機制

對現(xiàn)有和擬推廣的人工智能系統(tǒng)進行透明的自我評估,評估采用人工智能系統(tǒng)相對于目標是否適當以及是否違反國際或本國相關(guān)法律,以決定是否禁止某些系統(tǒng)。同時,應(yīng)鼓勵建立企業(yè)和企業(yè)聯(lián)盟人工智能倫理自律機制。

4.人工智能倫理影響監(jiān)督、審計和監(jiān)測的長效機制

面對具有很高技術(shù)難度和復(fù)雜應(yīng)用場景的人工智能實施倫理評估、審計和監(jiān)測是落實人工智能倫理治理的重點也是難點。應(yīng)協(xié)調(diào)公共管理機構(gòu)、私營部門和公民組織及其他相關(guān)部門建立合作監(jiān)督、審計和監(jiān)測倫理影響的長效機制,并考慮設(shè)立獨立運作的人工智能倫理委員會或高級別人工智能治理官員等機制和崗位。同時,探索建立人工智能倫理委員會或負責官員的國際交流與合作機制。

5.人工智能倫理治理法律框架及其執(zhí)行

應(yīng)參照本《建議書》修正現(xiàn)行的或制定新的有關(guān)人工智能倫理的國家立法,并根據(jù)技術(shù)發(fā)展現(xiàn)狀提供執(zhí)法指導(dǎo)框架。國家立法在參考國際標準文書基礎(chǔ)上,應(yīng)考慮當?shù)噩F(xiàn)有文化和社會背景包括習(xí)俗和宗教慣例,支持地方政府制定符合國家法律框架的地方法律法規(guī)。法律框架應(yīng)呼應(yīng)上述對人工智能系統(tǒng)的透明度和可解釋性的要求,并在法律框架內(nèi)建立或強化法定的監(jiān)督、審計和監(jiān)測框架和具有法律效力的問責制和責任制,包括調(diào)整責任人框架,確保最終責任和問責落實到自然人或法人。增強司法系統(tǒng)根據(jù)相關(guān)法律,對人工智能倫理問題做出判定的能力。

6.技術(shù)保障機制:平等包容的數(shù)字生態(tài)系統(tǒng)和安全去偏的人工智能系統(tǒng)

促進適合本地需求的數(shù)字生態(tài)系統(tǒng)建設(shè),確保全體公民能包容、公平地使用數(shù)字生態(tài)系統(tǒng)和人工智能系統(tǒng)。提高人工智能開發(fā)團隊和訓(xùn)練數(shù)據(jù)集的多樣性和包容性,以確保人工智能系統(tǒng)反映多樣和包容的人口代表性、文化和社會多樣性。

主權(quán)國家公共治理機構(gòu)應(yīng)在保障人工智能系統(tǒng)的安全和安保方面發(fā)揮主導(dǎo)作用,分析可衡量及可檢測的安全和透明度等級,并據(jù)此對潛在安全和安保風(fēng)險開展戰(zhàn)略研究并制定和執(zhí)行安保措施。在鼓勵系統(tǒng)設(shè)計者的倫理自評和自律基礎(chǔ)上,建立檢舉違法違規(guī)披露機制(或“吹哨人機制”),及時發(fā)現(xiàn)和監(jiān)管人工智能系統(tǒng)設(shè)計和應(yīng)用中的有意歧視或偏見、虛假信息和錯誤信息。

(三)通用數(shù)據(jù)政策框架

基于數(shù)據(jù)和算法的預(yù)測和決策引發(fā)的倫理問題是人工智能倫理的核心領(lǐng)域之一,數(shù)據(jù)是當下各領(lǐng)域人工智能技術(shù)開發(fā)與迭代更新的最核心要素,也是數(shù)字化經(jīng)濟活動、公共服務(wù)和個人生活中最重要的生產(chǎn)力要素和數(shù)字化個人財產(chǎn)。對數(shù)據(jù)這一核心要素進行系統(tǒng)界定、管制和潛能發(fā)掘,是人工智能倫理問題治理的根基。數(shù)據(jù)戰(zhàn)略的主要目標是對人工智能系統(tǒng)訓(xùn)練數(shù)據(jù)的質(zhì)量和方法進行持續(xù)評估以確保合法合規(guī)性和魯棒性(包括數(shù)據(jù)收集和選擇過程的適當性、合理的數(shù)據(jù)安全和保護措施、可解釋性等),鼓勵數(shù)據(jù)共享和基于數(shù)據(jù)的協(xié)作創(chuàng)新等。

1.采納國際數(shù)據(jù)隱私保護法律

各國尤其是尚未制定一般數(shù)據(jù)保護條例的國家,可借鑒國際數(shù)據(jù)保護法律框架,例如,歐盟于2018年5月在全歐盟生效并對世界各地企業(yè)均有廣泛影響的《一般數(shù)據(jù)保護條例》(General Data Protection Regulation,GDPR)[12]。各國應(yīng)就國際法律框架在本國的生效做出制度安排,要求和監(jiān)督私營企業(yè)在內(nèi)的所有人工智能行為者遵守現(xiàn)行國際標準。

2.制定國家數(shù)據(jù)政策框架

各國在一般數(shù)據(jù)保護條例立法和執(zhí)法方面普遍滯后,應(yīng)盡快制定國家層面數(shù)據(jù)政策框架或修訂現(xiàn)有框架。數(shù)據(jù)政策框架需從政策實體領(lǐng)域和執(zhí)行程序兩個方面規(guī)劃。

從政策實體領(lǐng)域來看,一般包括以下政策要件。

(1)個人隱私數(shù)據(jù)和敏感數(shù)據(jù)保護:尤其是一旦泄露會給個人造成特殊傷害或行事困難的數(shù)據(jù),包括:與犯罪、刑事訴訟、定罪以及相關(guān)安全措施有關(guān)的數(shù)據(jù);生物識別、基因和健康數(shù)據(jù);與種族、膚色、血統(tǒng)、性別、年齡、語言、宗教、政治見解、民族、族裔、社會出身、與生俱來的經(jīng)濟或社會條件、殘障情況或任何其他特征有關(guān)的個人數(shù)據(jù)。數(shù)據(jù)隱私保護的法律慣例之一是在人工智能倫理影響評估中強制加入適當?shù)膫€體隱私影響評估和隱私泄露社會經(jīng)濟影響評估。46C60839-5885-4AF5-B938-B88A33D947B3

(2)個體數(shù)據(jù)擁有權(quán):確保數(shù)據(jù)主體訪問、獲得、管理和控制其個人數(shù)據(jù)的權(quán)利,尤其確保數(shù)據(jù)主體享有遷移和刪除其在人工智能系統(tǒng)中個人數(shù)據(jù)的權(quán)利和能力。

(3)數(shù)據(jù)收集和處理的透明性和合法性:確保數(shù)據(jù)收集和處理方法的透明性和敏感數(shù)據(jù)處理方法的適當性,包括數(shù)據(jù)用于商業(yè)目的(例如定向廣告推送)或跨境轉(zhuǎn)移時的數(shù)據(jù)保護立法等。

(4)數(shù)據(jù)的穩(wěn)健性(或魯棒性):推動將優(yōu)質(zhì)和穩(wěn)健的數(shù)據(jù)集用于訓(xùn)練、開發(fā)和使用人工智能系統(tǒng)。在可行的前提下,投資建立開放、可信、多樣化、基于有效法律框架的黃金標準數(shù)據(jù)集(Gold Standard Datasets),鼓勵制定數(shù)據(jù)集標注標準。

(5)倡導(dǎo)開放數(shù)據(jù)和數(shù)據(jù)共享:通過評估已有一般性信息獲取和數(shù)據(jù)管理的監(jiān)管框架,結(jié)合人工智能領(lǐng)域的特殊要求,建立開放數(shù)據(jù)和數(shù)據(jù)共享相關(guān)機制。一般認為,公共機構(gòu)所有的數(shù)據(jù)或者公共財政資金資助的數(shù)據(jù)和源代碼應(yīng)被視為開放數(shù)據(jù),并以此為基礎(chǔ)建立開放式數(shù)據(jù)庫。

從政策執(zhí)行程序來看,要考慮以下執(zhí)行策略。

(1)數(shù)據(jù)問責和監(jiān)測機制:制定切實可行的數(shù)據(jù)問責方案和問責機制以及數(shù)據(jù)監(jiān)測機制。

(2)采用設(shè)計保護隱私(Privacy by Design)方法:確保從系統(tǒng)設(shè)計開始即實施數(shù)據(jù)隱私保護原則,并確保人工智能系統(tǒng)全生命周期各階段的隱私保護。

(3)數(shù)據(jù)共享機制:提高數(shù)據(jù)處理工具、數(shù)據(jù)集和數(shù)據(jù)存儲系統(tǒng)界面等方面的互操作性,支持公共和私營部門建立可信和安全的數(shù)據(jù)共享空間和協(xié)作平臺,包括建立針對數(shù)據(jù)的國際或國內(nèi)數(shù)字共同體(Digital Commons)等機制共享優(yōu)質(zhì)數(shù)據(jù)。

五、教育人工智能倫理:結(jié)構(gòu)性剖析與治理制度建設(shè)

教育系統(tǒng)是與其他系統(tǒng)密不可分的社會系統(tǒng)的整體組成部分,教育系統(tǒng)采用的人工智能技術(shù)均基于通用的智能技術(shù)基礎(chǔ)設(shè)施和通用人工智能底層技術(shù),并遵循相同的基于數(shù)據(jù)與算法的預(yù)測與決策過程。故此,教育系統(tǒng)應(yīng)用智能技術(shù)過程中顯現(xiàn)和隱藏的倫理問題與一般性人工智能倫理問題有同源的技術(shù)誘因和同質(zhì)的發(fā)生機理。同時,在應(yīng)用場景、作用對象以及教育對倫理的反向賦能等方面,又分化出獨特的倫理問題表現(xiàn)形式。

(一)剖析教育人工智能倫理問題及其表現(xiàn)形式

教育人工智能倫理是在教育系統(tǒng)這一特殊應(yīng)用領(lǐng)域中,基于對真實性要求更高的數(shù)據(jù)和更無歧視的算法,針對包括未成年人在內(nèi)的學(xué)習(xí)者做出預(yù)測和決策的過程中產(chǎn)生的倫理問題。同時,教育系統(tǒng)承擔的培養(yǎng)人工智能倫理知識、技能和相關(guān)價值觀念并以此對人工智能倫理治理發(fā)揮的反向賦能作用,也被納入教育人工智能倫理的范疇。教育人工智能倫理的特殊性主要源自以下四個方面:被收集數(shù)據(jù)和被推送決策的對象以及作為應(yīng)用技術(shù)的主體涉及到未成年群體;作為知識來源和課程內(nèi)容的數(shù)據(jù)對真實性的要求更為嚴謹;教育不僅僅是人工智能技術(shù)應(yīng)用的領(lǐng)域,教育本身也是一種應(yīng)被保護的基本人權(quán);教育承擔著人工智能倫理教育的反向賦能作用。教育人工智能倫理問題也可通過上述相同維度進行剖析,并顯現(xiàn)出如表3所示的具體倫理問題表現(xiàn)形式。

1.教育人工智能倫理問題的特殊技術(shù)誘因

(1)數(shù)據(jù)的產(chǎn)生與保存

教育領(lǐng)域中,數(shù)據(jù)的產(chǎn)生與保存作為倫理技術(shù)誘因的特殊性體現(xiàn)在:作為知識來源和課程內(nèi)容的數(shù)據(jù)對其真實性有嚴苛的要求,未成年人數(shù)據(jù)隱私的高敏感性以及未成年人對收集其數(shù)據(jù)的知情權(quán)和同意授權(quán)的復(fù)雜性,錯誤信息和虛假信息對學(xué)生獲取知識、形成價值觀的深遠影響等。

(2)數(shù)據(jù)及數(shù)據(jù)設(shè)備的訪問權(quán)與控制權(quán)

教育數(shù)據(jù)的訪問與控制向度的倫理技術(shù)誘因的特殊性體現(xiàn)在以下三個方面:首先,教育是人的一項基本權(quán)利,而數(shù)字技術(shù)已成為保障教育供給的必備手段之一,數(shù)字鴻溝由此成為數(shù)字化學(xué)習(xí)鴻溝的直接誘因。而殘障人士、少數(shù)語言群體等弱勢群體能否有機會借助智能技術(shù)打破視聽和語言障礙開展正常學(xué)習(xí),也成為影響學(xué)習(xí)包容性的技術(shù)因素;其次,未成年人對數(shù)據(jù)的擁有權(quán)和控制權(quán)、監(jiān)護人對未成年人數(shù)據(jù)訪問和控制的授權(quán)引發(fā)的特殊倫理問題;第三,對學(xué)習(xí)者終身學(xué)習(xí)進程中的所學(xué)課程、結(jié)果評價和證書認定的數(shù)據(jù)管理和訪問、證書驗證和公證等過程均會引發(fā)倫理問題。

(3)基于數(shù)據(jù)與算法的預(yù)測與決策及其影響的外顯行為

基于教育數(shù)據(jù)與算法做出預(yù)測與決策向度的倫理問題技術(shù)誘因的特殊性表現(xiàn)為:對學(xué)習(xí)進度較慢學(xué)生的教育數(shù)據(jù)標簽歧視,對女童或其他弱勢群體的數(shù)據(jù)標簽歧視和未來職業(yè)定向的刻板印象,智能學(xué)習(xí)管理系統(tǒng)中缺乏人類干預(yù)時算法決策的偏誤,依賴機器決策對學(xué)習(xí)者智力、能力和社會情感做出判斷和預(yù)測的風(fēng)險等。

(4)智能人機界面及智能設(shè)備等實體人工智能

在教育領(lǐng)域中采納和部署人工智能設(shè)備向度的倫理問題技術(shù)誘因的主要表現(xiàn)為:學(xué)習(xí)者尤其是未成年學(xué)習(xí)者穿戴人體干預(yù)性智能設(shè)備的即時和深遠身心影響以及本人和監(jiān)護人對后果的知情權(quán),對教學(xué)場所內(nèi)安裝隱私侵犯性智能教育管理設(shè)備的知情權(quán)和同意授權(quán)。

2.教育人工智能倫理問題的人文維度和特殊表現(xiàn)形式

(1)個體學(xué)習(xí)者、教師和家長

面向作為自然人的個體師生和家長收集數(shù)據(jù)和推送算法決策,并在組織師生在教學(xué)中應(yīng)用人工智能技術(shù)時,會涉及缺乏獨立價值觀判斷能力和獨立行事能力的未成年人群體。在個體層面引發(fā)的特殊教育人工智能倫理問題依次包括:未成年人數(shù)據(jù)隱私,尤其是作為絕對隱私并應(yīng)被禁止收集的未成年學(xué)生數(shù)據(jù)以及教育人工智能技術(shù)的數(shù)據(jù)需求之間的倫理權(quán)衡[13];師生和家長數(shù)據(jù)在教育信息管理系統(tǒng)中的數(shù)據(jù)安全問題;數(shù)字設(shè)備鴻溝和數(shù)字技能鴻溝導(dǎo)致的數(shù)字化學(xué)習(xí)機會不平等,教育信息管理系統(tǒng)中的個體師生和家長的數(shù)據(jù)控制權(quán);依賴機器決策導(dǎo)致的師生教與學(xué)主觀能動性的喪失[14],算法推送教學(xué)內(nèi)容導(dǎo)致的個體知識繭房,借助機器決策開展高利害測評和預(yù)測中的倫理風(fēng)險(如高利害性考試和就業(yè)傾向預(yù)測對個體的影響等);課堂或其他學(xué)習(xí)場景中的穿戴性或人體干預(yù)性智能設(shè)備對學(xué)生隱私和學(xué)生自主性的侵害以及對學(xué)生身心健康的影響。46C60839-5885-4AF5-B938-B88A33D947B3

教育對個體人工智能倫理治理的反向賦能作用主要表現(xiàn)為支持人工智能人文主義價值觀和人工智能基本素養(yǎng)培養(yǎng),包括面向所有公民的數(shù)據(jù)素養(yǎng)和算法素養(yǎng)普及。

(2)學(xué)習(xí)者互動、師生互動和學(xué)校家長溝通

教育領(lǐng)域中通過師生互動和合作交流的知識學(xué)習(xí)、情感關(guān)愛、價值觀教育以及支持教育服務(wù)的更寬泛的人際交流和社會活動,日益受到人工智能技術(shù)的顯性影響或隱形干預(yù)。其中的獨特教育人工智能倫理問題,按技術(shù)誘因排列依次包括:錯誤信息被作為知識來源廣泛傳播誤導(dǎo)知識的科學(xué)性,關(guān)于歷史和社會事件的虛假信息、仇恨言論的擴散誤導(dǎo)學(xué)生形成歧視情感、相互敵視態(tài)度和崇尚暴力等扭曲價值觀;數(shù)據(jù)標簽和算法設(shè)計造成的女性刻板印象和歧視對其學(xué)業(yè)和職業(yè)選擇的誤導(dǎo);數(shù)據(jù)及算法歧視導(dǎo)致弱勢群體自我認知偏差,局限于強化事實性知識記憶的算法推送導(dǎo)致的課程內(nèi)容繭房和教法誤導(dǎo);濫用智能教學(xué)設(shè)備取代教師職能和威脅教師工作的機器替代誤區(qū),以及將教育過程物化為基于數(shù)據(jù)或數(shù)值的機器決策和操控過程。

教育可通過強化媒體和信息素養(yǎng)教育反向培養(yǎng)教師和學(xué)生群體甄別信息、判斷知識的科學(xué)性和比較分析輿論觀點的能力;同時,通過針對女童和婦女的數(shù)字技能和人工智能能力培養(yǎng),可提高女性參與數(shù)字化領(lǐng)域科研與就業(yè)的能力,反向促進性別平等。

(3)主權(quán)國家教育體系

由于人工智能技術(shù)的高跨國滲透性,主權(quán)國家教育體系即便未主動采納和部署人工智能技術(shù)方案,其學(xué)生、教師和家長的數(shù)據(jù)也已被私有數(shù)字治理體收集并借此操控教育提供者和受教育者的行為,并由此引發(fā)須緊急應(yīng)對的倫理問題。國家教育體系層面的教育人工智能倫理問題依次包括:對教育提供者和受教育者教育數(shù)據(jù)隱私的界定和保護,國家各層面數(shù)字教育平臺的數(shù)據(jù)安全;國家內(nèi)部地區(qū)間數(shù)字學(xué)習(xí)設(shè)施鴻溝,教育數(shù)據(jù)主權(quán)控制力的國際差異,在教育數(shù)據(jù)挖掘的算法與算力方面的國際差異;國際和國內(nèi)智能制造產(chǎn)業(yè)鏈對本國就業(yè)能力培養(yǎng)和課程目標界定的影響;全國性、大規(guī)模智能教育管理和智能考試系統(tǒng)中的倫理問題;教育場所的監(jiān)控性或隱私侵犯性設(shè)備引發(fā)的倫理問題。

在該向度內(nèi),教育可反向賦能國家層面的人工智能人才培養(yǎng)與儲備、提高人工智能國際競爭力。

(4)人與環(huán)境及生態(tài)系統(tǒng)

教育信息化是整個社會信息化的重要組成部分,教育信息化進程中的人工智能技術(shù)應(yīng)用產(chǎn)生的環(huán)境和生態(tài)系統(tǒng)影響主要包括人工智能設(shè)備生產(chǎn)、使用和淘汰過程中的碳排放和環(huán)境污染。

在該向度內(nèi),教育應(yīng)發(fā)揮提供可持續(xù)發(fā)展教育的綜合反向賦能作用,包括:針對人工智能設(shè)計制造人員有關(guān)環(huán)境及生態(tài)系統(tǒng)保護、動物福利等的教育,激發(fā)和支持學(xué)生或青年群體針對可持續(xù)發(fā)展的挑戰(zhàn)、開發(fā)創(chuàng)新型人工智能技術(shù)等?!督ㄗh書》列舉了人工智能在促進環(huán)境和生態(tài)系統(tǒng)可持續(xù)發(fā)展方面的創(chuàng)新專題:支持對自然資源的保護、監(jiān)測和管理;支持與氣候有關(guān)問題的預(yù)測、預(yù)防、控制和減緩;支持更高效和可持續(xù)的糧食生態(tài)系統(tǒng);支持可持續(xù)能源的獲取速度、效率和規(guī)模;檢測污染物或預(yù)測污染程度等。

(二)教育是培養(yǎng)人工智能倫理價值觀和倫理行事能力的主渠道

人工智能倫理治理最終需要各行為主體內(nèi)化人文主義價值觀并形成合乎倫理的應(yīng)用技術(shù)所需的技能。應(yīng)從以下方面,系統(tǒng)規(guī)劃教育在培養(yǎng)相關(guān)人文價值觀和多層次技能方面的主渠道作用。

1.全民人工智能素養(yǎng)教育:人工智能設(shè)計與應(yīng)用的人文去偏

有效的人機協(xié)作需要具備一系列人工智能素養(yǎng)。教科文組織提出了對中小學(xué)人工智能素養(yǎng)的基本界定[15],包括以下要素:(1)關(guān)于人工智能的價值導(dǎo)向和基礎(chǔ)知識,即對下述問題的基本理解——人工智能對生活、學(xué)習(xí)和生產(chǎn)的潛在影響、人工智能能做什么和不能做什么、其何時對人類有益以及何時其益處應(yīng)被質(zhì)疑、人工智能如何被引導(dǎo)到用于支持人類公共利益;(2)數(shù)據(jù)素養(yǎng):理解人工智能如何搜集、清洗、標簽、管理和分析數(shù)據(jù);(3)算法素養(yǎng):即對算法如何發(fā)掘數(shù)據(jù)模式和數(shù)據(jù)關(guān)聯(lián)并用以支持人機協(xié)作的基本理解。而中小學(xué)人工智能能力則包括如下5個方面:(1)相關(guān)倫理問題和社會問題;(2)算法與程序設(shè)計;(3)不同層次的數(shù)據(jù)素養(yǎng);(4)人工智能底層技術(shù)和應(yīng)用技術(shù);(5)應(yīng)用人工智能技術(shù)的情境化問題解決。

面向所有公民普及人工智能素養(yǎng)教育,須首先將人工智能能力的培養(yǎng)納入學(xué)校、職業(yè)技術(shù)教育與培訓(xùn)機構(gòu)以及高等教育機構(gòu)等各類主渠道國家課程。同時,應(yīng)在本國終身學(xué)習(xí)系統(tǒng)的基礎(chǔ)上,針對成人培訓(xùn)、在職培訓(xùn)和再就業(yè)培訓(xùn)、老年人學(xué)習(xí)課程等開發(fā)人工智能倫理和人工智能基本素養(yǎng)課程,并體現(xiàn)人工智能技能與人文、倫理和社會等領(lǐng)域的交叉融合。

2.人工智能職業(yè)技能:產(chǎn)業(yè)轉(zhuǎn)型期數(shù)字技能的“智能升級”

近年來,世界各領(lǐng)先經(jīng)濟體在經(jīng)濟領(lǐng)域的智能制造和社會公共服務(wù)領(lǐng)域的智能升級進入加速期,由此引發(fā)工業(yè)化以來最重要的全領(lǐng)域智能化轉(zhuǎn)型,并已引發(fā)勞動力市場的系統(tǒng)性和長期性變革。針對全球26個主要國家或經(jīng)濟體在農(nóng)業(yè)、工業(yè)、金融、通信、醫(yī)療、交通等15個最重要行業(yè)的“2020年就業(yè)前景報告”(2020 Future of Jobs Report)[16],分析了智能化產(chǎn)業(yè)轉(zhuǎn)型對就業(yè)崗位的影響:到2025年,一半的工作任務(wù)將由機器處理。對人工智能的依賴可能會替代掉約8500萬個工作崗位,同時會創(chuàng)造9700萬個新工作崗位。因智能化產(chǎn)業(yè)轉(zhuǎn)型下崗的在職人員,為適應(yīng)與數(shù)據(jù)和人工智能相關(guān)的新工作崗位,平均需花費76天掌握合適的技能。

應(yīng)對這一挑戰(zhàn),各國應(yīng)開發(fā)有效機制和工具,以動態(tài)分析預(yù)測智能轉(zhuǎn)型對本國工作崗位的影響及其引發(fā)的技能需求變化,并據(jù)此對各級各類課程培養(yǎng)目標和培養(yǎng)方式做出周期性調(diào)整,將人工智能相關(guān)技能納入職業(yè)技術(shù)教育以及高等教育的資歷認證體系中。規(guī)劃與全社會智能轉(zhuǎn)型同步的教育變革,培養(yǎng)當前的勞動者和未來的畢業(yè)生在迅速變化的市場中公平就業(yè)和創(chuàng)業(yè)的能力,并引導(dǎo)現(xiàn)有和未來從業(yè)人員內(nèi)化人工智能倫理價值觀和原則。46C60839-5885-4AF5-B938-B88A33D947B3

3.人工智能及人工智能倫理研究:人工智能倫理治理的本土專業(yè)化引導(dǎo)

本土人工智能研發(fā)能力是縮小數(shù)字鴻溝、保護智能化進程中文化多樣性的根基,而高端人工智能人才的培養(yǎng)需要跨學(xué)科的長期積累。為此,各國應(yīng)制定中長期規(guī)劃,支持本土高等教育及研究機構(gòu)強化人工智能課程和人工智能研究項目,在跨學(xué)科人工智能基礎(chǔ)理論、系統(tǒng)設(shè)計、編程和開發(fā)等領(lǐng)域培養(yǎng)高端人才,為開發(fā)體現(xiàn)本土社會文化多樣性、適合本土需求的人工智能系統(tǒng)培育本土專業(yè)人才。同時,通過設(shè)立專項經(jīng)費和激勵機制,促進并支持人工智能和人工智能倫理問題研究。在科學(xué)、技術(shù)、工程、數(shù)學(xué)等領(lǐng)域基礎(chǔ)上,鼓勵與文化研究、教育學(xué)、倫理學(xué)、法律、語言學(xué)、哲學(xué)、社會學(xué)和心理學(xué)等領(lǐng)域的跨學(xué)科的智能科技倫理研究。尤其應(yīng)關(guān)注人工智能倫理框架在本土文化、社會或宗教背景下的適用性,并開發(fā)可行的本土化法律框架和提出制度創(chuàng)新建議,為公共和私營機構(gòu)以合乎倫理的方式開發(fā)和應(yīng)用人工智能系統(tǒng)提供本體化專業(yè)引導(dǎo)。

確保人工智能研究人員接受過人工智能倫理培訓(xùn),并將倫理指標納入相關(guān)設(shè)計、產(chǎn)品和出版物的考核評審體系,評估使用的數(shù)據(jù)集、數(shù)據(jù)標注方法、算法的可解釋性以及成果的倫理影響。

(三)展望和建議:教育人工智能倫理治理的制度再建空間

1.存量體制內(nèi)的教育人工智能倫理治理:優(yōu)先領(lǐng)域和價值導(dǎo)向

在教育系統(tǒng)的存量體制內(nèi),人工智能的推廣應(yīng)用處于治理失序狀態(tài)。應(yīng)首先針對現(xiàn)有教育體制內(nèi)的核心領(lǐng)域,強化教育人工智能倫理法規(guī)建設(shè)和治理能力提升?;诮炭莆慕M織關(guān)于人工智能與教育的《北京共識》[17],本研究主張相關(guān)政策供給應(yīng)優(yōu)先考慮以下治理領(lǐng)域及其價值導(dǎo)向。

(1)保護教師和學(xué)生的自主性和能動性,防止教學(xué)法的“智能降級”

基于人工智能的導(dǎo)學(xué)系統(tǒng)可根據(jù)學(xué)生先前學(xué)習(xí)情況推送下一步學(xué)習(xí)內(nèi)容。但目前智能導(dǎo)學(xué)系統(tǒng)提供的所謂“個性化學(xué)習(xí)”功能大多僅支持內(nèi)容路徑的個性化,無法支持學(xué)習(xí)結(jié)果的個性化和賦能學(xué)生更廣義的個人學(xué)習(xí)目標,限制了教師和學(xué)生的能動性。并多采用強化事實性知識記憶的教學(xué)方法,難以支持更為開放和以學(xué)習(xí)者為中心的學(xué)習(xí)方法(比如探究性學(xué)習(xí)等),在一定程度上是對教學(xué)方法的智能降級。同時,智能導(dǎo)學(xué)系統(tǒng)還存在減少師生人際交往的風(fēng)險[18]。應(yīng)對在教學(xué)和學(xué)習(xí)過程中采用的人工智能系統(tǒng)進行全面?zhèn)惱碛绊懺u估,征求教師和學(xué)生對人工智能技術(shù)的看法。在確認某些智能教學(xué)系統(tǒng)會損害師生的自主性和教學(xué)方法創(chuàng)新時,應(yīng)限制濫用不成熟人工智能系統(tǒng)侵擾正常教學(xué)活動的行為。

(2)致力于人工智能賦能教師,而非取代教師

雖然人工智能為支持教師履行教育和教學(xué)職責提供了技術(shù)便利,但師生和生生之間的人際互動和協(xié)作仍是教育的核心而且不可替代,教師的人文教育價值尤其不應(yīng)被機器取代。應(yīng)確保教師的權(quán)利和工作條件受到保護。同時,在教師政策框架內(nèi)動態(tài)地重新界定教師的角色及其所需能力,制定教師人工智能能力框架,支持教師為在富含人工智能的教育環(huán)境中有效工作做好準備。

(3)智能教學(xué)評價和教學(xué)管理應(yīng)確保人類作為最終決策者和責任承擔者

遵循相稱性和無害原則,權(quán)衡應(yīng)用人工智能支持教學(xué)評價尤其是未成年學(xué)生學(xué)習(xí)評價的利弊,只有當惠益明顯大于其風(fēng)險時,才考慮應(yīng)用或開發(fā)透明、可解釋、具有去偏設(shè)計的人工智能解決方案。智能評價和管理系統(tǒng)須確保教師和學(xué)習(xí)者的數(shù)據(jù)隱私保護和數(shù)據(jù)安全。在高利害性評價中,應(yīng)由教師基于尊重個體尊嚴和隱私的原則,慎重做出評價結(jié)論,防止對學(xué)生的智力水平、未來發(fā)展等做出剛性的主觀論斷。智能評價和管理技術(shù)創(chuàng)新應(yīng)致力于監(jiān)測學(xué)生的課程學(xué)習(xí)進度、協(xié)助教師分析典型學(xué)習(xí)障礙和問題、預(yù)警學(xué)業(yè)失敗或輟學(xué)風(fēng)險的公益目標,并致力于支持教師和教育管理人員的決策。

(4)借助人工智能技術(shù)促進教育供給的包容性:關(guān)注被忽視的教育智能技術(shù)優(yōu)勢

人工智能技術(shù)在支持教育的包容性方面優(yōu)勢明顯,尤其是可借助圖像和自然語言處理等人工智能技術(shù)為殘障人士以及語言或文化少數(shù)群體提供包容性學(xué)習(xí)機會。但由于這個領(lǐng)域的商業(yè)謀利空間有限,長期未得到應(yīng)有重視。應(yīng)通過設(shè)立國家或國際基金或獎項等方式,將教育人工智能創(chuàng)新導(dǎo)向支持包容性和公平性的教育供給。例如,教科文組織全球“教育信息化獎”2019年的獎項獲獎?wù)咧粸椤案淖冮喿x障礙”項目,通過人工智能支持的眼動跟蹤技術(shù)支持閱讀障礙的早期診斷與矯治。某企業(yè)開發(fā)的免費手機應(yīng)用軟件“智能手語”(StorySign)借助人工智能支持手語系統(tǒng)將學(xué)習(xí)材料轉(zhuǎn)換為手語,支持聽覺障礙學(xué)生的學(xué)習(xí);以及借助眼動跟蹤技術(shù)輔助教師針對閱讀水平和閱讀障礙進行快速監(jiān)測的“探索”平臺(Lexplore)等。

(5)對教育教學(xué)場所的監(jiān)控性或人體干預(yù)性智能設(shè)備采取嚴格的準入審查制度

針對教育場所的智能監(jiān)控設(shè)備和針對學(xué)生的穿戴性或人體干預(yù)性智能設(shè)備(比如針對學(xué)生的智能頭環(huán)、智能手環(huán)等),應(yīng)遵照本《建議書》的相關(guān)原則和本國法律,建立嚴格的審查準入制度,對顯在和潛在的身心危害、隱私侵犯、師生自主性的限制等進行嚴格評估。應(yīng)保護成年學(xué)習(xí)者自身或未成年學(xué)習(xí)者監(jiān)護人的知情權(quán)和同意授權(quán)。有潛在危害或未獲得授權(quán)的設(shè)備,應(yīng)禁止引入學(xué)校、課堂和其他教育場所。

2.教育人工智能倫理治理機制的增量改革:各治理主體責任明確的協(xié)同共治機制

《關(guān)于加強科技倫理治理的意見》提出建立國家科技倫理委員會,并要求各領(lǐng)域主管部門履行各自科技倫理管理主體責任,根據(jù)實際情況設(shè)立本部門科技倫理委員會。本研究認為,在已有宏觀教育制度存量和上述微觀倫理治理機制基礎(chǔ)上,有必要進行下述中觀層面的治理機制增量改革和調(diào)適:成立“教育人工智能倫理委員會”,并通過該委員會確定教育人工智能倫理治理的主要責任主體:人工智能倫理治理責任主體(司法機關(guān)、工商管理、教育管理部門)、技術(shù)供給責任主體(通用或教育人工智能系統(tǒng)開發(fā)和提供機構(gòu)或個人)、技術(shù)應(yīng)用責任主體(各類教育機構(gòu)、有獨立行事能力的教師和學(xué)生以及學(xué)生家長、無獨立行事能力的學(xué)生的監(jiān)護人等)、數(shù)據(jù)擁有主體或數(shù)據(jù)供給主體(學(xué)生、教師、家長以及教育機構(gòu)等)。在此基礎(chǔ)上,界定各責任主體基于主觀意愿的有意侵害責任和非主觀意愿的無意侵害免責,建立問責制和協(xié)同共治機制。并進一步支持各責任主體培養(yǎng)所需的倫理治理意識、倫理理解和治理能力以及倫理行事能力(如下頁圖1所示)。46C60839-5885-4AF5-B938-B88A33D947B3

3.治理制度再建與升級:與教育智能升級同步的治理制度創(chuàng)新

懷進鵬部長在2021年12月召開的國際人工智能與教育會議上提出,為了配合中國的教育數(shù)字化轉(zhuǎn)型和智能升級,要加大人工智能教育政策供給,通過一系列新政策文件因應(yīng)人工智能等新一代信息技術(shù)發(fā)展,更新教育理念,變革教育模式,深化教育體制機制改革,全面提高教育治理水平,構(gòu)建教育發(fā)展新生態(tài)[19]。沿循上述人工智能倫理分析框架,本研究提出如圖2所示的“倫理治理與教育人工智能創(chuàng)新統(tǒng)一與同步的制度創(chuàng)新分析框架”:從“人文維度”和“技術(shù)維度”各向度之間的相互作用出發(fā),分析教育對人工智能倫理治理的反向賦能、人工智能增強教育管理和教學(xué)以及人工智能支持教育智能轉(zhuǎn)型等相互關(guān)聯(lián)的應(yīng)用場域。并從“制度創(chuàng)新維度”出發(fā),辨析上述場域中的倫理問題。該框架展示的僅是整體制度需求和創(chuàng)新思路,在具體制度規(guī)劃中,需下潛到具體教育類型和教育階段分析具體發(fā)展需求,審視相關(guān)的治理制度余量、已有制度調(diào)適需要,尤其是確定所需的新法規(guī)和新機制建設(shè)。

六、結(jié)語

各層次人文活動與技術(shù)的互動只是人工智能倫理的實踐表象,其本質(zhì)是數(shù)字霸權(quán)階層與處于數(shù)字劣勢的公民社會及公共利益之間的博弈。最尖銳的人工智能倫理問題是數(shù)字霸權(quán)階層在資本逐利和集團私利驅(qū)使下,通過算法合謀在從廣大數(shù)字技術(shù)弱勢群體中獲取經(jīng)濟利益或政治優(yōu)勢的過程中,對后者數(shù)據(jù)隱私的侵犯和自主行為的操控。同時,應(yīng)該意識到《建議書》在未知人工智能及其倫理影響方面留有結(jié)構(gòu)性空白:未來人工智能技術(shù)性能會更加強大,從實用論角度出發(fā),人類或會更加依賴智能技術(shù)。未來智能技術(shù)也可能會演化出部分自主意識,在局部場景中會壓制人類自主性,或在某種技術(shù)層面出現(xiàn)看似合理的不可解釋性,進而迫使人類做出更復(fù)雜、更深層的倫理兩難選擇。因此,人工智能倫理不僅是影響幾乎所有人的現(xiàn)實問題,更將是困擾幾代人的倫理難題,還將成為迫使人類自我再定義的哲學(xué)謎題。在人類應(yīng)對這些難題的歷史進程中,《建議書》是私有利益和公共利益之間階段性和解的契約文書,也是呼喚跨國、跨界協(xié)作的行動綱領(lǐng)。人工智能倫理治理需要各國和各界堅持不懈、不斷深入的研判、協(xié)商和共治。

參考文獻:

[1][14][18] Miao F,Holmes W,et al.AI and education: guidance for policy-makers [EB/OL].https://unesdoc.unesco.org/ark:/48223/ pf0000376709,2022-03-26.

[2] UNESCO.Draft text of the UNESCO recommendation on the ethics of artificial intelligence [EB/OL].https://unesdoc.unesco.org/ark:/48223/ pf0000379920.page=14,2022-03-26.

[3] 中華人民共和國中共中央辦公廳、國務(wù)院辦公廳.《關(guān)于加強科技倫理治理的意見》[EB/OL].http://www.gov.cn/zhengce/2022-03/20/ content_5680105.htm,2022-03-26.

[4] Statista.Global social network penetration rate as of January 2022[DB/OL].https://www.statista.com/statistics/269615/social-networkpenetration-by-region,2022-03-26.

[5][19] 苗逢春.從“國際人工智能與教育會議”審視面向數(shù)字人文主義的人工智能與教育[J].現(xiàn)代教育技術(shù),2022,(2):5-23.

[6] THALES.Beyond GDPR:Data protection around the world [DB/OL].https:// www.thalesgroup.com/en/markets/digital-identity-and-security/ government/magazine/beyond-gdpr-data-protection-aroundworld,2022-03-26.

[7] Hugues Ferreboeuf.Lean ICT:Towards digital sobriety:Report of the Shift Project–The Carbon Transition Think Tank [EB/OL].https:// theshiftproject.org/wp-content/uploads/2019/03/Lean-ICT-Report_ The-Shift-Project_2019.pdf,2022-03-26.

[8] UNESCO.International Commission on the Futures of Education. Reimagining our futures together:A new social contract for education[EB/OL].https://unesdoc.unesco.org/ark:/48223/pf0000379707,2022-03-26.46C60839-5885-4AF5-B938-B88A33D947B3

[9] UN.Universal declaration of human rights [EB/OL].https://www.un.org/ sites/un2.un.org/files/udhr.pdf,2022-03-26.

[10] Eoin M.Kenny,Mark T.Keane.Twin-Systems to explain artificial neural networks using case-based reasoning:Comparative tests of feature-weighting methods in ANN-CBR twins for XAI [DB/OL]. https://www.ijcai.org/proceedings/2019/0376.pdf,2022-03-26.

[11] Prashan Madumal,Tim Miller,et al.Towards a grounded dialog model for explainable Artificial Intelligence [DB/OL].https://arxiv.org/ pdf/1806.08055v1.pdf,2022-03-26.

[12] The European Union.General Data Protection Regulation [EB/OL]. https://eur-lex.europa.eu/legal-content/EN/TXT/ uri=CELEX:3201 6R0679,2022-03-26.

[13] UNICEF.Policy guidance on AI for children [EB/OL].https:// www.unicef.org/globalinsight/reports/policy-guidance-aichildren,2022-03-26.

[15] UNESCO.K-12 AI curricula:A mapping of government-endorsed AI curricula [EB/OL].https://unesdoc.unesco.org/ark:/48223/ pf0000380602,2022-03-26.

[16] World Economic Forum.The future of jobs report 2020 [DB/OL].https:// www3.weforum.org/docs/WEF_Future_of_Jobs_2020.pdf,2022-03-26.

[17] UNESCO.Beijing Consensus on Artificial Intelligence and Education[EB/OL].https://unesdoc.unesco.org/ark:/48223/pf0000368303,2022-03-26.

作者簡介:

苗逢春:研究員,博士,主任,研究方向為人工智能與教育、教育信息化、開放教育資源、移動學(xué)習(xí)、未來數(shù)字化學(xué)校。

Ethics of AI in Education: Analysis and Governance

—Educational Overview of Recommendation on Ethics of AI

Miao Fengchun1,2(1.National Engineering Laboratory for Cyberlearning and Intelligent Technology, Faculty of Education, Beijing Normal University, Beijing 100875; 2.Headquarters of UNESCO, Paris 75007, France)

Abstract: The paper aims to reveal that the governance of ethics of AI needs to respond to the hegemony over ethics of AI that is controlled by the private digital regime, the lag of regulations of sovereign states, and the state of anomie of the governance of AI. It proposes an analytical framework on ethics of AI based on the interaction between machine decision-making and humanistic use of AI, and thereby provides an insight into typical ethical issues relating to prediction and decision making drawn from data and algorithms. Within the framework, it further delineates ethical issues on AI in education and the reciprocal roles of education in developing values and practical competencies needed by ethical use of AI. It concludes by providing recommendations on institutional innovation needed by an integrated approach to the AI-driven transformation of education and the governance of ethics of AI.

Keywords: private digital governance; an analytical framework on ethics of AI; ethics on AI in education; values based on a Biocentrism vision; equality and non-bias; ethical impact assessment framework; data policies46C60839-5885-4AF5-B938-B88A33D947B3

猜你喜歡
倫理算法人工智能
《心之死》的趣味與倫理焦慮
員工倫理型領(lǐng)導(dǎo)原型對倫理型領(lǐng)導(dǎo)有效性的影響:員工崇敬感的中介作用*
Travellng thg World Full—time for Rree
淺談我國社會工作倫理風(fēng)險管理機制的構(gòu)建
2019:人工智能
人工智能與就業(yè)
數(shù)讀人工智能
學(xué)習(xí)算法的“三種境界”
算法框圖的補全
算法初步知識盤點