国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能國際治理與“不確定性”*

2023-10-21 13:40:28黃智堯
信息安全與通信保密 2023年8期
關鍵詞:不確定性人工智能算法

董 汀,黃智堯

(1.清華大學戰(zhàn)略與安全研究中心,北京 100084;2.中央財經大學,北京 100081)

0 引言

人工智能治理已經成為全球治理領域的重要話題?,F(xiàn)有討論多數(shù)圍繞人工智能技術本身存在的多種不確定性風險,從數(shù)據(jù)流動、使用或技術倫理的角度進行思考和設計。這些討論有益于推動美歐等主要國家開展人工智能治理的規(guī)則建設。但“不確定性”不能簡單地與風險畫等號,也就是說,并非預設了針對不同可能的規(guī)則,就可以完美治理人工智能技術。本文的研究目標是從超越技術的視角,深入分析人工智能的“不確定性”可能會給國際關系帶來何種影響,思考如何推動更廣泛的政策建議和規(guī)范措施,以促進人工智能的可持續(xù)發(fā)展和最大化其有益于社會進步的潛力。

1 人工智能與不確定性

1.1 不確定性

確定性是指一種狀態(tài),即沒有疑問[1]。確定性所對應的信息與知識沒有錯誤和缺失。唯一性是確定性的本質特征,在條件放寬的情況下,穩(wěn)定性、規(guī)律性也可以視為確定性。不確定性與確定性相對,不確定性是指一種有疑問、知識不完備,乃至無知的狀態(tài)。人類對現(xiàn)在或未來的事物狀態(tài)無法給出唯一的準確判斷或預測。即使事物的狀態(tài)或者結果是確定的,也因為人類認知水平的受限,無法清晰完整地認識事物??v觀人類自然科學的發(fā)展歷史,自近現(xiàn)代的笛卡爾時代起,科學家就在他們自己的研究領域以能否獲得確定性的規(guī)律和結論作為成敗標準,因果必然性的機械決定論已經深入在一眾科學家的思想之中。但是隨著概率論和統(tǒng)計規(guī)律的引入,人類開始研究具有不確定性的相關現(xiàn)象,之后隨著混沌系統(tǒng)、量子力學等當代科學的不斷深入研究,越來越多的科學成果表明,客觀世界的確定性是有限的,不確定性才是更為普遍的情況。

不確定性可以從兩個角度來看待。一是客觀存在的不確定性,即“確定的不確定”。在現(xiàn)實結果實現(xiàn)之前,其任何一種因果鏈都是可能的,事物的狀態(tài)和結果存在多種潛在的可能性,且某種可能性的實現(xiàn)與人類對其的認知無關。二是“不確定的不確定”。人的世界觀造成不確定性,即使事物的過程和結果是確定性的,但是因為人的認知路徑依賴及事物狀態(tài)的全部信息不可能完全獲取,因此人也無法對事物的確定性做出準確描述,最終結果也不可能隨著部分信息的增加而可預知。

1.2 人工智能的不確定性來源

人工智能是以基于大數(shù)據(jù)的復雜算法為核心,以對人類智能的模擬、延伸和超越為目標的技術。人工智能的不確定性主要來自數(shù)據(jù)、算法、環(huán)境交互3個方面。

首先,數(shù)據(jù)是人工智能技術和產業(yè)發(fā)展的關鍵核心要素之一。作為以深度學習為代表的算法模型研究和訓練的基礎,數(shù)據(jù)的質量對算法的效果起著至關重要的作用[2]。數(shù)據(jù)缺失、噪聲干擾等問題都會影響算法的輸出結果。其次,人工智能的算法邏輯是其做出決策判斷的根基。復雜算法可以模擬人類的決策和思維,然而人類無法對算法的每一步編譯進行有效控制,無法準確設置各變量的權重,也無法完全明白數(shù)以萬計的銜接值是如何發(fā)揮作用并形成決策樹的工作機制的。同時,算法運行的動態(tài)性又會加劇各變量之間的關系和權重。

此外,人工智能的不確定性還體現(xiàn)在與環(huán)境的交互上。人工智能與外界的交互影響是一個復雜而多層次的互動過程。首先,人工智能在輸入數(shù)據(jù)和訓練算法的過程中會面臨語境中的各種前提和偏見,社群之間的價值差異、文化隔閡會導致觀點立場和預設目標的不同。因此,對不同語境中的主觀性、價值對立等不確定的因素難以排除,這些因素在人工智能提取并學習后構成了人工智能的不確定性。最后,對于不同環(huán)境下人工智能的認知所形成的共識是受限于環(huán)境的,或是短暫的。在不斷研究知識的過程中,人們會意識到之前的共識是一種錯誤觀念。同時,人工智能可能被運用于人類不完全認知,甚至尚未認知的領域。

1.3 不確定性的治理風險

1.3.1 數(shù)據(jù)的法律風險

在數(shù)據(jù)方面,數(shù)據(jù)采集過程的合法合規(guī)性存在較大的治理風險。從保護個人數(shù)據(jù)的角度來看,數(shù)據(jù)主體除了擁有數(shù)據(jù)的所有權,還有更廣泛的權利,其中包括但不限于被遺忘權[3]、數(shù)據(jù)攜帶權[4]、限制處理權[5]等。

隨著人工智能在日常生活中的廣泛應用,我們將面臨越來越多與公眾隱私權相關的法律風險。算法通常需要不斷尋找、挖掘并收集個人的數(shù)字活動記錄,進而對個人進行精準畫像。這個過程主要的風險包括在數(shù)據(jù)擁有者不知情、未授權前提下的數(shù)據(jù)收集[6],在實踐中個人信息也很容易被泄露而直接應用于其他商業(yè)目的,甚至非法目的。這不僅損害了用戶的人格權益,而且還可能因下游侵害產生財產損失[7]。

此外,即使是對公共信息的使用也是存在爭議的。公共信息的產生往往是由于利他主義驅動,信息在互聯(lián)網上被提供,很難控制信息的受眾。信息主體在提供數(shù)據(jù)時并不會預料到數(shù)據(jù)會被用于人工智能系統(tǒng),這遠遠超出了數(shù)據(jù)主體預設的數(shù)據(jù)使用預期。同時,由于規(guī)模效應使得算法的平均成本下降以及因更大數(shù)據(jù)集而提升的決策能力,大公司的高能力人工智能會使其所有者變得非常富裕且具有影響力,允許免費使用數(shù)據(jù)會加速不平等的擴大。有學者要求使用者為公開信息領域的使用付費,建議對于在公共信息領域引入數(shù)據(jù)使用的累進稅[8]。

1.3.2 算法的決策風險

當前,人工智能已深深嵌入社會運行的方方面面,因為算法自身的特性,基于數(shù)據(jù)和算法的決策并不符合所有社會群體的長遠意義,而引發(fā)的社會風險主要體現(xiàn)在3個方面:數(shù)字鴻溝加劇社群割裂、技術弱勢人群利益被忽略、算法偏見強加意愿影響公平。

人工智能可能加劇“信息繭房”現(xiàn)象,由此引發(fā)的數(shù)字鴻溝會加劇社群的割裂。大眾媒體時期,人們會接受各種各樣的信息,這一過程打破了信息繭房,而當使用人工智能進行推送之后,用戶的信息數(shù)據(jù)經算法分析后,通過協(xié)同過濾、內容推薦、相似性推薦等算法機制,圍繞用戶的興趣愛好不斷地推送符合其偏好的信息,將與用戶觀念相左的信息排除在外,平臺、算法在一定程度上固化了人們的信息獲取途徑[9]。算法與用戶的相互配合加劇了信息繭房的產生[10]。此外,算法應用平臺傾向于將用戶劃分為不同的群體,以此作為依據(jù)推送不同信息,不同社群間形成了一道極深的數(shù)字鴻溝,由此加劇了群體內部的極端化程度,導致群體極化現(xiàn)象的產生[11]。

在運用大數(shù)據(jù)和人工智能技術方面,一方面,技術弱勢群體由于缺乏技術培訓和資源,他們可能無法充分利用人工智能的潛力,更無法把握數(shù)字時代的發(fā)展機遇[12]。另一方面,由于經濟、社會或地理上的限制,算法可能無法輕松獲取技術弱勢群體的大量數(shù)據(jù),例如,老年人、語言弱勢群體、文化弱勢群體等人口在互聯(lián)網中活躍度不高,這使得他們在數(shù)據(jù)驅動的決策和創(chuàng)新中處于不利地位,人工智能在進行決策時也會忽略這部分群體的情況與立場。弱勢群體在數(shù)字化過程中遭遇明顯的排斥或邊緣化,在對相關資源的分配上將弱勢群體邊緣化甚至遺忘。

同時,算法的設計和編寫不可避免地會受到編程人員的主觀意識和價值觀的影響。在算法實現(xiàn)的過程中,編寫者會做出一系列價值取舍,甚至傾向于符合自身利益的選擇。這種主觀性使得算法天生帶有一定程度的偏見[13]。比起技術因素,人為設置的算法偏見更加值得關注,如平臺企業(yè)可能會以歧視性定價方式對待終端消費者,外賣平臺可能會強制騎手進行苛刻的派單和配送要求。因此,我們需要認識到算法的偏見問題,并尋求解決方案來確保算法的公正性和中立性,以保護個人權益和社會公平。

1.3.3 人機交互的道德風險

除了數(shù)據(jù)選擇和算法主體的偏見性,人工智能的使用在人機交互中也存在明顯的道德風險。在傳統(tǒng)的倫理秩序中,人類決定著機器如何開展工作,機器依附于人類。然而在人工智能時代,人工智能的決策能力遠優(yōu)于人類。在這種情況下,人的主體性開始出現(xiàn)異化的跡象[14],人類的角色不再是唯一的決策者和控制者。人類變得越來越依賴于機器的智能和技術,而機器則扮演著更加主導和決策的角色。這種變化引發(fā)了對人類主體性的關切,我們需要重新思考和定義人與機器的關系,以確保人類的價值和尊嚴在智能化時代得到充分的保障和尊重。

人工智能的使用者在運用這項技術時,也應該充分意識到其自身在操作和運用過程中所帶來的倫理影響[15]。自動駕駛是最容易產生算法倫理困境的一個領域,如在經典的思想實驗“電車難題”中,功利主義選擇會改變軌道,讓電車殺死一個人,功利主義強調利益的最大化,義務主義不會選擇改變電車軌道,義務主義強調對規(guī)則進行分層,設置明確的優(yōu)先級。從算法設計的角度來看,優(yōu)先級最高的規(guī)則可以是禁止車輛主動傷害人類、禁止違反法規(guī)等限制,人工智能不應該以傷害他人的方式去拯救陷入風險的人[16]。如果將人類尚未達成統(tǒng)一道德標準的事務交給機器和算法時,將會在人工智能與人交互和實踐中產生巨大的爭議[17]。

在醫(yī)療領域,人工智能輔助決策涉及多個環(huán)節(jié)和主體,各個主體的價值不同,制造商可能會為了市場利益,醫(yī)生追求診斷率,政府追求社會效應最大化,發(fā)生醫(yī)療事故時,算法的技術黑箱將為責任歸屬帶來顯見的困難。此外,輔助決策系統(tǒng)可能會使得醫(yī)生的醫(yī)療水平下降,當醫(yī)生對輔助決策系統(tǒng)建立信任后,醫(yī)生的診斷能力可能會低于預期水平,醫(yī)生發(fā)現(xiàn)決策系統(tǒng)的錯誤概率會更小[18]。

在人工智能技術發(fā)展中,我們面臨一個重要的治理挑戰(zhàn),即如何在享受人工智能帶來的收益的同時,規(guī)避主體性異化的風險。這意味著我們需要一種平衡之道,使人類智能和人工智能兩者的功能都能得到充分發(fā)揮,據(jù)此,歐美國家均率先做出了探索。

2 “不確定”的人工智能與國際治理

2.1 人工智能對國際治理主體的影響

隨著人工智能在全球社會生活中的滲透,參與國際治理的主體變得更加多元。

首先,不同于以往以國家和國際組織為主,新的主體還涵蓋了跨國企業(yè)和跨國科學家共同體,他們都對國際關系產生重要影響??鐕髽I(yè)在人工智能技術開發(fā)和應用中具有壟斷優(yōu)勢,他們將成為在特定領域提供公共產品和服務的重要行為體。他們的獨立性和話語權使得其能夠在國際關系中獨立參與政治交易,并為中小國家提供相應領域的支持和合作。同時,人工智能科學家組成的學術共同體也在推動技術進步,以及在制定技術標準方面發(fā)揮著關鍵作用。一方面,他們構成了一個具有共同范式和價值觀的跨國共同體,對于推動人工智能的發(fā)展和應用具有重要影響力。另一方面,學術共同體的組建仍具有不確定性,即使能夠成為一個具有相對影響力的獨立主體,他們依舊要依附于特定的國家。

其次,主權國家和跨國企業(yè)之間的關系出現(xiàn)改變。主權國家在與跨國企業(yè)互動時需要權衡利益和權利讓渡的邊界。主權國家也需要利用跨國企業(yè)的成功來推動本國經濟發(fā)展和產業(yè)進步。然而,主權國家也要防止跨國企業(yè)侵蝕核心權力和削弱主導地位。在處理技術權力壟斷方面,主權國家和跨國企業(yè)之間存在一定的共識??茖W家共同體對于技術的發(fā)展闡釋和戰(zhàn)略規(guī)劃具有壟斷的地方,需要設計新的機制對其進行限制[19]。

最后,不同主體的治理目標出現(xiàn)沖突。主權國家會維持過去的形式,以權力和利益為核心展開競爭與博弈,依賴國家力量來維護自身利益。而跨國企業(yè)則更注重經濟利益,相較于競爭,它們更傾向于在合作中尋求利益最大化。與此同時,科學家共同體的運行具有全球化特征,以科學規(guī)則為核心標準來維持其穩(wěn)定結構。這意味著在新時代國際體系中,不同層次的目標下存在多樣的運行規(guī)則。這種多樣性意味著各主體之間需要經過漫長的磨合才能確立穩(wěn)定的權力邊界,以確保整個體系的穩(wěn)定和有效運行。

2.2 人工智能對國際治理權力的影響

傳統(tǒng)國際關系理論對權力“決定論”的邏輯及對技術問題的解釋力較弱。現(xiàn)實主義沒有辦法解釋諸如為什么17世紀哥白尼的日心說、牛頓的物理學、開普勒定律以及制表技術都已被日本的天文學家和工匠所了解和掌握的時候,歐洲的機械鐘表依然無法進入日本市場。自由主義強調技術的應用需要政治、經濟的塑造,滿足社會文化的需求,但是政策、規(guī)則、利益對技術的影響既不是一勞永逸,也無法立竿見影。比如,1945年日本廣島核爆炸,直到1996年世界主要國家才達成了《全面禁止核試驗條約》的簽署,迄今仍未生效。而作為互聯(lián)網所普遍基于的技術和體系結構,TCP/IP協(xié)議在20世紀70年代末就已經出現(xiàn),但互聯(lián)網對世界政治、經濟的影響到20世紀90年代后期才顯現(xiàn)出來。建構主義津津樂道的一個例子是在冷戰(zhàn)正酣時期,美蘇核物理學家仍然能通過“帕格沃什運動”保持溝通的渠道,科學家之間的相互信任和交流達成的技術認知一致性,使得兩國就新的軍備控制達成一致成為可能??扇缃袢蚍秶鷥?,既沒有哪兩個大國有當年美蘇一般近乎對等的軍事實力,也沒有類似古巴導彈危機、黑海撞艦等實質性危機所展示出的真切戰(zhàn)爭前景,在國際關系研究范疇中,對意圖、信念的討論最終要么只能呼吁增信釋疑,要么重新回到強調規(guī)則的類似自由主義軌道,而國與國之間價值觀的差異和互疑無法消除,對話與合作即便可以達成相互理解,仍與相互認可相差甚遠。

現(xiàn)實中,人工智能技術更加稀釋了技術與權力關聯(lián)的因果關系。與制造業(yè)時代不同,技術投入保證特定部件產出特定產品的邏輯已完全改變,一項有深度學習能力的技術投入,可能產生另外的過程,帶來無法預見的結果。人工智能前所未有的不可控、不可知,再疊加其本身固有的缺陷[20],使得具體產品中所應用的技術,以及技術的組合難以追回,更無法解釋。人工智能技術的領域擴散將對經濟發(fā)展模式產生重要影響,改變各個生產要素之間的關系,勞動力要素的重要性逐步下降,技術主體和數(shù)據(jù)主體擁有了更多的話語權[21],政治結構需要適應新的經濟結構,因而改變了治理模式。

同時,人工智能影響的不僅僅是生產力,更是在歷史發(fā)展維度上整個社會的變遷。在人工智能時代,新型認知模式會參與塑造下一代人的世界觀,傳統(tǒng)人類社會的價值觀將面臨重構,各種不同理念將會長期碰撞。因此治理規(guī)則的設計,不應當討論由誰來制定,為哪個國家的利益服務,而是關注制定什么樣的規(guī)則,與更廣闊的世界相互溝通。

2.3 全球安全問題中的人工智能

聯(lián)合國秘書長古特雷斯曾多次指出,人工智能將對人類生活的方方面面產生影響,“和平與安全”已經與人工智能的應用產生了廣泛聯(lián)系,人工智能安全化復雜程度不斷加重。一是軍民技術的邊界模糊是客觀存在的。基于人工智能技術原理,純民用的技術產品可以通過大量數(shù)據(jù)訓練升級算法,經過幾次迭代后,新算法就存在為軍品所用的可能。二是人工智能所依賴的基礎設施已經成熟至商用階段,但相應的國際技術標準尚未統(tǒng)一??紤]到研發(fā)階段大量的成本投入及大規(guī)模應用后的市場收益前景,對標準的爭奪是經濟利益驅動的必然。三是隨著全球經濟數(shù)字轉型的深入,“智慧政府”“數(shù)字城市”已然成為趨勢,越來越多的公共服務部門成為人工智能技術產品用戶。如此一來,技術在制造、設計和投入運行之前的階段越來越依靠政治決策,而不是傳統(tǒng)意義上等技術成為整個社會的高度依賴之后,再研究補救方案,既不經濟,也過于被動。四是近年來,世界政治格局碎片化加劇,國家間相互信任逐漸下降,對微弱信號的過度解讀,對所有問題包括人工智能技術的一攬子安全化傾向嚴重。

3 聚焦“確定的不確定”的歐美人工智能治理

3.1 歐盟的人工智能治理

3.1.1 歐盟的人工智能治理歷史

2015年1月,歐盟法律事務委員會(European Parliament's Committee on Legal Affairs,JURI)成立了專門的工作小組以更好地解決機器人和人工智能發(fā)展涉及的問題。2016年5月,JURI發(fā)布《關于機器人民事法律規(guī)則提出立法建議的報告草案》,人工智能治理開始逐步成為歐盟立法議程的一個核心議題。2017年2月,歐洲議會通過《機器人民事法律規(guī)則》。2017年5月,歐洲經濟與社會委員會(European Economic and Social Committee,EESC)發(fā)布了《人工智能對(數(shù)字)單一市場、生產、消費、就業(yè)和社會的影響》,報告指出人工智能的發(fā)展將對倫理、隱私等11個領域帶來的機遇和挑戰(zhàn)。

2018年4月,歐盟委員會發(fā)布了《歐盟人工智能》(Artificial Intelligent for Europe),標志著歐盟正式提出人工智能戰(zhàn)略。該戰(zhàn)略提出以人為本的人工智能發(fā)展路徑,在不斷提升科技和產業(yè)水平的同時,人們也會面對人工智能在倫理、法律等領域帶來的挑戰(zhàn)。歐盟的人工智能戰(zhàn)略包含3個方面:一是將人工智能融入各行各業(yè),提升技術和產業(yè)水平;二是讓教育培訓體系緊跟人工智能帶來社會經濟變革,培養(yǎng)多元人才;三是建立適當?shù)膫惱砗头煽蚣?,制定人工智能倫理指南(AI Ethics Guidelines)。

2021年4月,歐盟委員會提出了《人工智能法案》,探索如何為開發(fā)和部署人工智能提供法律支持。法案旨在促進科技創(chuàng)新的同時保障人工智能的信任度與透明度,確保人工智能的安全和道德治理。2022年12月,歐盟理事會通過了關于《人工智能法案》的共同立場,旨在確保部署于歐盟的人工智能系統(tǒng)尊重現(xiàn)行法律。2023年6月14日,歐洲議會通過了《人工智能法案》,該法案為ChatGPT等生成式人工智能工具提供了更多的安全控制措施。按照立法程序,歐盟委員會、議會和成員國將就法案進行三方談判協(xié)商,以確定最終版本的法案。作為全球范圍內首部系統(tǒng)化規(guī)制人工智能的法案,該法案有望成為全球范圍內人工智能法律監(jiān)管的重要參考。

3.1.2 歐盟的人工智能倫理框架

為促進與規(guī)范人工智能的技術創(chuàng)新與應用,人工智能倫理框架是其治理的重點領域。2019年4月,歐盟發(fā)布了重要文件《可信AI倫理指南》(Ethics Guidelines for Trustworthy AI),進一步促進了人工智能戰(zhàn)略的落實。《可信AI倫理指南》中對可信人工智能給出了3個必要特征:合法性、符合倫理、穩(wěn)健性;4項倫理原則:尊重人類自主性原則、防止損害原則、公平原則、可解釋原則。該框架還提出了7項可以落地的關鍵要求??偠灾摽蚣苷J為AI治理是一項系統(tǒng)性工程,因此為公司等其他組織提供了AI的評估清單,確保各個組織的各個部門協(xié)同參與到AI的治理過程中。

3.1.3 歐盟算法治理思路

2019年4月,歐盟發(fā)布了《算法責任與透明治理框架》(A Governance Framework for Algorithmic Accountability and Transparency),進一步促進了人工智能戰(zhàn)略的落實?!端惴ㄘ熑闻c透明治理框架》使用現(xiàn)實案例,闡明了不公平算法的生成原因和潛在后果。在公平性的目標下,該報告提出以算法透明和問責制兩大工具實現(xiàn)算法公平。同時該報告強調了負責任研究與創(chuàng)新在促進實現(xiàn)算法公平中的作用和意義。在對既有案例梳理和技術問題的分析上,該報告提出了4個治理層次的建議:提升公眾算法意識和素養(yǎng)、建立算法影響評估機制、建立監(jiān)管機制和法律制度、實現(xiàn)全球協(xié)調治理。

3.2 美國的人工智能治理

3.2.1 美國的人工智能治理歷史

2016年10月,奧巴馬政府發(fā)布了《人工智能戰(zhàn)略計劃》(AI Strategic Plan),提出人工智能對解放企業(yè)和工人、改善生活品質、提升國土安全等的積極影響。

2019年2月,為維持在人工智能領域的領導地位,美國時任總統(tǒng)特朗普簽署了第13859號行政命令,將人工智能的發(fā)展上升為美國的國家級戰(zhàn)略,同時對外發(fā)布“美國人工智能倡議”[22]。2020年1月,美國白宮科技政策辦公室(Office of Science and Technology Policy,OSTP)發(fā)布了《人工智能應用監(jiān)管指南》(Guidance for Regulation of Artificial Intelligence Applications),標志著美國聯(lián)邦政府首次步入人工智能監(jiān)管領域。指南建議在法規(guī)效益不足以彌補成本時使用非監(jiān)管方式。為了促進人工智能的發(fā)展,指南鼓勵行政機構與私營部門合作,同時鼓勵行政機構公布更多聯(lián)邦數(shù)據(jù)供公眾使用。OSTP在該文件中提議監(jiān)管的10項指引原則,包括公眾信任AI、公眾參與、科學誠信和信息質量、風險評估和管理、收益與成本、靈活性、公平與非歧視、披露和透明、安全以及跨機構合作。

2021年1月,美國正式頒布《2020年國家人工智能倡議法案》,旨在確保美國在全球AI技術領域保持領先地位,將美國人工智能計劃編入《2020國防授權法案》,保障增加研究投入、獲取計算和數(shù)據(jù)資源、設置技術標準、建立勞動力系統(tǒng)及與盟友展開合作。這標志著美國政府最終完成人工智能戰(zhàn)略部署及政策設計。

2022年10月,拜登政府發(fā)布《人工智能權利法案藍圖》,希望能刺激企業(yè)更負責任地打造和部署人工智能,并對基于人工智能的監(jiān)控進行限制。該文件旨在通過“賦予美國各地的個人、公司和政策制定者權力,并響應拜登總統(tǒng)的呼吁,讓大型科技公司承擔責任”,以“設計、使用和部署自動化系統(tǒng)的5項原則,從而在人工智能時代保護美國公眾”。這5項原則包括:安全有效的系統(tǒng)、算法歧視保護、數(shù)據(jù)隱私、通知和解釋,以及人工替代、考慮和回退。該文件的出臺將從科技、經濟及軍事等方面為美國人工智能發(fā)展提供指引。

3.2.2 設立專項組織統(tǒng)籌協(xié)調人工智能治理

2018年,特朗普政府分別于5月和8月相繼成立了人工智能特別委員會(Select Committee on Artificial Intelligence,SCAI)、人工智能國家安全委員會(The National Security Commission on Artificial Intelligence,NSCAI)等一系列專項技術管理組織。其中,人工智能特別委員會由國家科學技術委員會和美國科技政策辦公室負責管理。該委員會的主要任務是促進政府、業(yè)界和學界之間的合作關系,向白宮提供關于人工智能跨機構研究合作的建議,為加速推進人工智能發(fā)展奠定基礎。人工智能國家委員會由美國國家科學與技術委員會負責管理。該委員會是美國政府人工智能建設與治理體系的重要部分,委員會從頂層統(tǒng)籌設計美國人工智能的發(fā)展,對人工智能相關技術進行審查,從而更好地維護美國的國家安全與發(fā)展。

為了人工智能國家戰(zhàn)略順利部署,2021年1月,美聯(lián)邦政府成立了專門的國家人工智能倡議辦公室,負責監(jiān)督和實施國家人工智能戰(zhàn)略。2021年6月,OSTP和國家科學基金會(National Science Foundation,NSF)成立了國家人工智能研究資源工作組,負責制定人工智能關鍵資源的擴大和教育路線圖,為科研人員和學術提供計算資源、數(shù)據(jù)和工具。

為在更多領域有效地研發(fā)部署人工智能,各聯(lián)邦部門也均成立了專門的人工智能管理機構。美國國防部在2020年成立了聯(lián)合人工智能中心。2021年,美國國防部又將下屬的聯(lián)合人工智能中心與數(shù)字服務局、首席數(shù)據(jù)官辦公室進行合并,對3個辦公室進行統(tǒng)籌管理。此外,美國總務管理局于2020年建立了人工智能卓越中心,確保人工智能運用于政府運作過程中。美國能源部于2020年建立了人工智能和技術辦公室,協(xié)調部門內部人工智能活動[23]。美國商務部于2022年設立國家人工智能咨詢委員會,為人工智能相關問題提供建議。2023年6月,美國商務部宣布將再設立一個新的人工智能工作組,進一步解決人工智能發(fā)展帶來的問題。

3.3 歐美人工智能治理比較

歐盟和美國的治理主體均為多方參與、相互協(xié)同。治理模式上,歐盟更為強調行政主導作用,重視規(guī)則主導和風險防范;而美國更為強調市場化,注重創(chuàng)新和公私合作。

在歐盟,政府機構在人工智能治理中扮演著主導角色,并強調與其他主體協(xié)同治理。數(shù)據(jù)方面,歐盟注重公民數(shù)字人權的保護,并努力構建可信的人工智能系統(tǒng),更傾向于采取預防性的規(guī)制手段。算法方面,歐盟引入了標準化的披露準則,要求算法相關主體主動披露算法的邏輯、目標、潛在后果等。私營部門在進行技術研發(fā)和創(chuàng)新的過程中要考量技術后果和倫理問題,以實現(xiàn)負責任的創(chuàng)新。此外,歐盟也注重提高公眾對算法的理解和素養(yǎng),營造了算法問責的氛圍,建立了保護制度支持發(fā)現(xiàn)和提出算法的漏洞與問題。

在美國,除了政府、企業(yè),還包括行業(yè)組織、第三方機構等主體參與到算法治理過程中。美國傾向于利用不同主體的力量共同參與算法治理。政府在行政干預方面較弱,非政府組織如第三方智庫、行業(yè)組織和社會公眾發(fā)揮了重要作用。此外,行業(yè)自律也是美國算法治理的一部分,如亞馬遜、谷歌、臉書等公司于2016年成立了人工智能合作組織,幫助群眾理解算法知識的同時制定行為準則。

盡管存在上述差異,無論是歐盟聚焦政府主導,以高標準的法律和規(guī)制政策為手段,還是美國有意地采用政府指導原則下,各部門、各領域寬泛的監(jiān)管辦法,而非具有懲罰措施的法律來引導技術發(fā)展,都是為了管理好預見到的問題,也就是“確定的不確定”因素,從而將潛在結果往自身控制和預期的方向發(fā)展。

4 我國人工智能治理現(xiàn)狀與展望

4.1 我國人工智能治理現(xiàn)狀

人工智能的發(fā)展情況與治理模式息息相關,我國的人工智能治理模式采取要素治理方式,同步推進總體價值、數(shù)據(jù)、算法等通用性規(guī)則構建,而未選擇制定類似歐盟“人工智能統(tǒng)一規(guī)則”的專門綜合立法[24]。

我國高度重視人工智能治理,不斷推進總體價值的探索。自2016年起,人工智能倫理就已經成為眾多社會組織、專業(yè)機構廣泛討論的對象。2019年,國家科技倫理委員會和國家新一代人工智能治理專業(yè)委員會成立,《新一代人工智能治理原則——發(fā)展負責任的人工智能》也隨之發(fā)布,提出了人工智能的治理框架和指南。2021年,我國進一步出臺《關于加強科技倫理治理的指導意見》和《新一代人工智能倫理規(guī)范》,標志著我國已初步形成人工智能治理的總體價值指引。

在數(shù)據(jù)方面,我國于2021年頒布實施了《數(shù)據(jù)安全法》和《個人信息保護法》,標志著我國的數(shù)據(jù)安全與保護進入新階段。這兩部法律與之前頒布的《網絡安全法》,共同規(guī)范了網絡設施的建設、運營、維護和使用,構建了數(shù)據(jù)安全與個人信息保護的整體制度。一些地方如深圳、上海也在積極嘗試采取促進發(fā)展和安全并重的方案,出臺了相應的地方性數(shù)據(jù)管理條例,為完善數(shù)據(jù)治理制度進行有益探索。

在算法方面,近年來,社會數(shù)字經濟中的一些問題引發(fā)了對互聯(lián)網消費者權益和勞動力就業(yè)競爭等問題的反思,其中包括電商的差異化定價和外賣騎手配送時間被不合理壓縮等情況尤為顯著,這些問題往往被歸咎于算法的應用。算法治理因此備受關注,因為算法主體在最大化自身利益的過程中,違背了維護公平公正、促進共同富裕、提高社會福祉等價值觀,將歧視和不公融入日常的社會活動之中。我國的算法治理現(xiàn)在仍存在碎片化的情況。2021年,我國發(fā)布了《關于加強互聯(lián)網信息服務算法綜合治理的指導意見》(以下簡稱《指導意見》),明確了政策方向,從以往的分散治理逐步轉變?yōu)榫C合治理?!吨笇б庖姟诽岢觯瑧褂?年左右的時間,逐步建立治理機制,健全監(jiān)管體系,規(guī)范算法生態(tài),最終達到構建算法安全綜合治理格局的目標。這一舉措旨在應對算法帶來的風險和挑戰(zhàn),推動算法應用更加負責任和可持續(xù)發(fā)展。

4.2 我國人工智能治理的發(fā)展路徑

4.2.1 打造多方參與、協(xié)同共治的治理模式

人工智能治理是一項需要多方合力的工程,參與治理的主體呈現(xiàn)多元化,運用的治理手段呈現(xiàn)多樣化。治理過程需要政府、企業(yè)等多利益相關方的參與合作,發(fā)揮各自的職責和能力,通過協(xié)同共治的方式實施。政府在治理中發(fā)揮領導性作用,負責制定政策法規(guī)、設立專門機構以執(zhí)行治理規(guī)定。政府應該積極參與并協(xié)調各方的合作,確保治理目標的實現(xiàn)。市場參與者,如企業(yè)、行業(yè)組織等,應該發(fā)揮重要推動作用。他們可以制定行業(yè)準則、技術標準等,推動規(guī)范的制定和實施。公眾包括獨立學者、消費者、社會組織等,他們是治理過程中重要的參與者和監(jiān)督者。各方應明確自己的角色和責任,共同努力解決治理中的問題和挑戰(zhàn)。

4.2.2 進一步對人工智能進行倫理規(guī)范,確??沙掷m(xù)發(fā)展

人工智能治理應該建立在對人工智能的價值觀思考的基礎上。為了有效應對人工智能所帶來的風險和挑戰(zhàn),制定倫理原則是重要的一步,它可以將人工智能“不確定的不確定性”轉化為確定,從而幫助政府、企業(yè)、公眾履行各種監(jiān)管或治理職責。這些原則可以涵蓋對人權、公平性、透明度、隱私權和安全性等價值的尊重。人工智能的訓練須尊重隱私權,保護用戶的個人數(shù)據(jù)安全,并確保適當?shù)臄?shù)據(jù)收集、使用和共享機制。個人信息應得到合法、透明的處理,并遵守相關法律法規(guī)和隱私保護原則。人工智能系統(tǒng)的決策過程應該是透明的,并提供解釋其決策的機制,這有助于用戶理解和信任系統(tǒng),并幫助檢測和糾正可能存在的偏見或不公正,確保人工智能系統(tǒng)在處理數(shù)據(jù)和做出決策時沒有偏見或歧視。系統(tǒng)應避免基于種族、性別、宗教、國籍等特征對個人進行不公平對待,并促進平等和包容的社會價值觀。相關主體應評估和管理人工智能系統(tǒng)對社會、經濟和環(huán)境的影響,以最大限度推動可持續(xù)發(fā)展和社會福祉。

4.2.3 鼓勵發(fā)展人工智能,特別是我國的跨國科技企業(yè)

政府應該出臺一系列支持政策,包括資金支持、稅收優(yōu)惠、研發(fā)補助等,為有關的科技企業(yè)提供良好的創(chuàng)新環(huán)境,從而更好地應對人工智能“不確定的不確定性”,并將其中成熟的部分轉為“確定的不確定性”,甚至是消除不確定性。鼓勵企業(yè)加大研發(fā)投入、技術創(chuàng)新和人才引進。建立創(chuàng)新型科研機構和高水平實驗室,提供世界一流的科研設施和平臺,吸引跨國科技企業(yè)在我國進行前沿技術研發(fā)。政府可以與企業(yè)合作,共同投資建設科研基地,為企業(yè)提供優(yōu)質的科研資源和技術支持。積極參與國際合作項目,與其他國家和地區(qū)的跨國科技企業(yè)進行合作與交流。

4.2.4 積極參與國際人工智能技術標準的制定

在人工智能的研發(fā)和應用中,我們必須始終堅持道德和倫理的準則,確保人工智能系統(tǒng)的設計和使用符合社會和人類的利益,避免濫用人工智能技術進行網絡攻擊、隱私侵犯、歧視性應用等不良行為。為此,我們需要加強法律法規(guī)的制定和執(zhí)行,以確保人工智能的使用是正當和合法的。

中國應該在人工智能領域發(fā)揮領導作用,推動全球統(tǒng)一的人工智能標準的制定工作。這些標準應該有利于中國和廣大發(fā)展中國家,確保人工智能的發(fā)展具有包容性、可持續(xù)性和公正性。作為發(fā)展中國家的代表,中國應該以“一帶一路”倡議為平臺,積極支持發(fā)展中國家在人工智能領域的發(fā)展。我們可以提供技術援助和教育支持,幫助發(fā)展中國家應對人工智能時代的挑戰(zhàn),縮小數(shù)字、技術和財富鴻溝。

此外,中國還應在國際社會積極推動人工智能領域的合作和交流,為發(fā)展中國家爭取更多的援助和支持。通過合作共贏的方式,促進全球范圍內人工智能的公平發(fā)展和利益共享。

5 結語

人工智能的不確定性涵蓋了多個方面,其國際治理也將面臨許多不確定的因素和影響?,F(xiàn)有討論多數(shù)停留在針對人工智能技術不確定的層面,側重數(shù)據(jù)安全與保護、算法綜合治理及道德和倫理規(guī)范。未來隨著人工智能在國際社會中的不斷滲透,其對國際治理的主體和權力,對國際安全的基本認知會產生何種影響,進而如何決定社會發(fā)展變遷的方向和成果都是亟待解決的問題。未來深不可測,審慎的態(tài)度、理智的展望和靈活應變的治理視野有助于我們更好地理解和應對各種變化、風險,國際社會應積極推動超越技術不確定性的人工智能治理合作和交流。

猜你喜歡
不確定性人工智能算法
法律的兩種不確定性
法律方法(2022年2期)2022-10-20 06:41:56
基于MapReduce的改進Eclat算法
Travellng thg World Full—time for Rree
英鎊或繼續(xù)面臨不確定性風險
中國外匯(2019年7期)2019-07-13 05:45:04
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
進位加法的兩種算法
人工智能與就業(yè)
IT經理世界(2018年20期)2018-10-24 02:38:24
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
具有不可測動態(tài)不確定性非線性系統(tǒng)的控制
镇康县| 湘潭县| 阳曲县| 云林县| 嘉义县| 合川市| 永修县| 富平县| 舒兰市| 榕江县| 台北市| 图片| 滁州市| 商丘市| 赤壁市| 龙胜| 高陵县| 韩城市| 民乐县| 丰宁| 大港区| 双城市| 乌鲁木齐县| 正定县| 遵化市| 瑞丽市| 简阳市| 保康县| 克拉玛依市| 柏乡县| 泸定县| 法库县| 岑溪市| 金秀| 佳木斯市| 凤庆县| 阳原县| 兖州市| 益阳市| 天峨县| 宜昌市|