關鍵詞:人形機器人 監(jiān)管沙盒 科層式規(guī)制 試驗性規(guī)制 人工智能 包容審慎規(guī)制
中圖分類號:DF37 文獻標識碼:A 文章編號:1674-4039-(2024)05-0043-56
引言
隨著大數(shù)據(jù)、網(wǎng)絡與通信技術、機器視覺、傳感器等領域的技術發(fā)展,機器人技術也取得了長足進步,被稱為下一次技術革命,將成為第四次工業(yè)革命的核心驅動力之一。人形機器人(humanoid robotics)以可識別的擬人化形式整合了運動、感知和交互,旨在重現(xiàn)人類的身體、認知和社會功能。從歷史上看,技術進步通常都是相對封閉、各自為政的,人形機器人則代表了機器人技術的終極目標之一:融合眾多學科的進步。它不僅涉及機械、電子等學科,還涉及人工智能、材料科學、神經(jīng)科學等,所有這些都匯聚成一首和諧的交響樂。此外,由于人形機器人的外形酷似人類,它們可以使用與人類相同的設備,并融入以人為本的環(huán)境中,從而減少人類與機器人合作共存的障礙。
人形機器人可以在科學研究、太空探索、個人援助與護理、教育與娛樂、搜索與救援行動、制造和維護、醫(yī)療保健等特定場景中提供幫助并與人類進行互動,將人類從繁瑣、高危的工作中解放出來。在人口老齡化趨勢不斷加劇的背景下,許多國家(地區(qū))的政策制定者已經(jīng)開始認真研究如何使用人形機器人來減輕護理工作負擔并幫助家中的老年人。在比較法中,日本于2015年發(fā)布《新機器人戰(zhàn)略》,旨在擴大和發(fā)展日本的機器人技術,并將人形機器人作為解決日本人口老齡化和勞動力短缺問題的靈丹妙藥。在我國,工業(yè)和信息化部于2023年10月印發(fā)《人形機器人創(chuàng)新發(fā)展指導意見》,對人形機器人的發(fā)展目標、關鍵技術、場景應用、制度保障等作出概括性規(guī)定,提出要“統(tǒng)籌發(fā)展與安全……加快推動我國人形機器人產(chǎn)業(yè)創(chuàng)新發(fā)展”,積極拓展人形機器人在醫(yī)療、家政等民生領域的服務應用。在實踐中,人形機器人產(chǎn)品不斷涌現(xiàn),特斯拉研發(fā)的人形機器人“擎天柱”已經(jīng)具備澆花、跳舞、疊衣服等多項技能,亞馬遜旗下的人形機器人“Digit”已經(jīng)在很多實際工作場景中初露鋒芒。人形機器人的引入和部署將對人類社會的許多領域產(chǎn)生一系列重要影響,包括經(jīng)濟發(fā)展、社會秩序、個體權益等。
隨著人形機器人的發(fā)展及其與人類的頻繁互動, 過去一段時間在人工智能領域提出的倫理、法律和社會問題將變得越來越重要,如隱私與保密、歧視與偏見、自主性與選擇自由等。在實現(xiàn)人形機器人與人類共存之前,我們必須認真對待如下問題:一是人形機器人的發(fā)展和使用到底存在哪些類型的風險,又向我們提出了何種挑戰(zhàn);二是我們應當采取何種規(guī)制模式來因應風險,以實現(xiàn)“統(tǒng)籌發(fā)展與安全”的目標。已有的研究成果主要從微觀視角聚焦于智能機器人的法律地位、權利內容、責任承擔等問題,對上述問題的整體性討論略顯不足。有鑒于此,本文嘗試以人形機器人的風險治理為核心對象,對人形機器人的風險類型和治理路徑進行分析,提出以“試驗性規(guī)制”(experimental regulations)作為人形機器人的規(guī)制模式,并通過“監(jiān)管沙盒”來實現(xiàn)試驗性規(guī)制,以有效應對人形機器人迅猛發(fā)展中的創(chuàng)新和風險,為我國人形機器人產(chǎn)業(yè)的高質量發(fā)展提供參考與借鑒。
一、人形機器人的技術邏輯與風險檢視
人形機器人通過網(wǎng)絡基礎設施連接在線服務,使它們具有能夠超越傳統(tǒng)的機器人功能,其所產(chǎn)生的連鎖反應遠遠超出了實驗室和科技公司的范圍,并且正在以深刻的方式重塑全球經(jīng)濟和社會。人形機器人帶來了前所未有的效率和生產(chǎn)力。這些機器人可以超越人類自身的局限性,能夠持續(xù)不斷地工作,而且通過正確的人工智能集成,還可以以人類無法比擬的精確性和一致性來執(zhí)行任務。但這種高效率也帶來了一系列風險和挑戰(zhàn)。對人形機器人產(chǎn)業(yè)而言,只有了解其產(chǎn)業(yè)特點、技術邏輯、應用場景以及可能存在的風險類型,才能正確分析其規(guī)制目標和規(guī)制理念,并對現(xiàn)有的規(guī)制體系進行調整。
(一)機器人革命:人形時代的開始
人形機器人的興起與發(fā)展經(jīng)歷了不同的歷史階段,其歷史淵源可以追溯至世界各地的古代文明中有關“自動機”的描述。荷馬史詩《伊利亞特》曾記載,古希臘神話中的工匠之神赫菲斯托斯為自己打造了一系列全自動的“黃金女仆”(golden handmaidens),并賦予她們類似人類的聲音,不僅可以幫助鍛造器物,而且還可以陪他聊天解悶?!?2/〕我國古籍《列子·湯問》中也曾記載,一名叫偃師的工匠為周穆王制造了一個能歌善舞的人偶,它能夠行走、唱歌并移動身體的各個部位。
現(xiàn)代機器人技術從原始的“機器”邁向復雜的“人形實體”,實際上是將人類對自身的理解與創(chuàng)新的動力交織在一起。在這一演變過程中,有兩個極為關鍵的驅動因素:一是人體解剖學提供的啟發(fā)。長期以來,藝術家、科學家和發(fā)明家一直對人體的復雜性贊嘆不已,并試圖在各種媒介中復制人體的細微差別。早期的機器人設計笨重,功能重于外形。隨著科學家們對生物力學的理解不斷加深,設計機器人的雄心也不斷膨脹,不僅要模仿人類的動作,還要與人類的體型相似。二是先進人工智能的集成。早期的人工智能系統(tǒng)以規(guī)則為基礎,依靠預定義的算法作出決策。雖然對特定任務有效,但是缺乏人類思維的適應性和多功能性。機器學習、神經(jīng)網(wǎng)絡的出現(xiàn)帶來了技術突破,允許機器從數(shù)據(jù)中學習,就如同人類從經(jīng)驗中學習一樣。隨著人工智能與人形機器人的融合不斷加深,人形機器人不僅能夠模仿人類的動作,而且還能理解人類的情感并作出反應。
從技術構成的角度看,功能齊全的人形機器人通常需要使用顛覆性技術,涵蓋硬件和軟件兩個方面。就硬件而言,人形機器人通常配備了攝像頭、麥克風和傳感器等設備,可以捕捉用戶的身體活動狀態(tài)(如步行、站立、跑步等),能夠存儲個性化信息(如面部、聲音、位置、活動模式等),并通過通信和服務交付與人類進行互動。就軟件而言,人形機器人通常配備人工智能,可實現(xiàn)人類面部、語音和情感識別等功能,提供更加身臨其境的互動體驗。新興的人臉識別技術正在進行微調,以解讀人類的表情,為人形機器人實現(xiàn)實時調整反應鋪平道路。自然語言處理技術的進步正逐步實現(xiàn)人類與機器人之間的無縫對話,有望消除現(xiàn)有的溝通障礙。研究表明,ChatGPT等大語言模型可以提升人形機器人的親和力,讓用戶感覺就像與真人交談一樣。
(二)人形機器人的法律風險
人形機器人的創(chuàng)新發(fā)展應用雖然可以為人類社會帶來廣泛的效益, 但也大幅增加了系統(tǒng)性風險,導致發(fā)展與安全的沖突更為明顯。從我國《人形機器人創(chuàng)新發(fā)展指導意見》的規(guī)定來看,人形機器人具有創(chuàng)新主體的多元性、創(chuàng)新核心要素的虛擬性、創(chuàng)新結果的難以預測性等特性,這決定了人形機器人創(chuàng)新會影響更廣泛的地域范圍、更多的產(chǎn)業(yè)類型和更大的人群規(guī)模,一旦規(guī)制失當,就可能導致產(chǎn)業(yè)鏈癱瘓或發(fā)生系統(tǒng)性風險。2017年10月,由漢森機器人公司研發(fā)的人形機器人“Sophia”獲得沙特阿拉伯的“公民身份”,成為全球第一個獲得法律人格的機器人;同年11月,“Sophia”被任命為聯(lián)合國開發(fā)計劃署的創(chuàng)新冠軍,也是第一位獲得聯(lián)合國頭銜的非人類。盡管“Sophia”的公民身份問題更多是作為一種宣傳噱頭,但它提出的法律問題卻引發(fā)了一場巨大的爭論。從這些爭論中我們可以大致管窺人形機器人可能存在的法律風險。
首先,人形機器人可能對傳統(tǒng)的法律主體理論提出挑戰(zhàn)。在傳統(tǒng)法律體系中,法律主體通常是指具有權利和義務的實體,如自然人和法人。這些主體被認為有能力承擔法律責任,并能夠獨立進行法律行為。然而,隨著人形機器人的智能化和功能多樣化,它們在社會中的角色變得越來越復雜,引發(fā)了關于其法律地位的新討論。具體可以分為以下三種學說:一是否定說,即不承認智能機器人的法律人格,不主張賦予機器人所謂的權利。例如,有學者認為,機器人與“人”具有本質差異,它們不可能成為“理性的人”,無法成為一個有“生活計劃”的自我意識實體,承認機器人的法律人格缺乏必要的前提和基礎。二是肯定說,即承認智能機器人的法律人格,并主張賦予機器人相應的權利。例如,有學者認為,將智能機器人“人格化”不存在法律方法論上的障礙,也具備了權利主體的智能性這一本質性要素。還有學者認為,機器人權利的產(chǎn)生是社會實力不斷提升的結果,承認并賦予機器人的權利主體地位,既是權利發(fā)展的內在規(guī)律,也是社會發(fā)展的必然趨勢。三是折中說,即既不肯定智能機器人的法律人格,也不否定智能機器人具有法律人格,而是認可其部分人格。例如,有學者認為,機器人可能發(fā)展出某種人造的“個性”、一定的“行動”范圍和“決策”范圍,可以創(chuàng)建“電子人格”,賦予機器人特定權利和義務??傊诵螜C器人的出現(xiàn)和發(fā)展對傳統(tǒng)的法律主體理論提出了新的挑戰(zhàn)。法律體系可能需要適應這一技術革新,通過修訂現(xiàn)有法律或制定新的規(guī)定來應對人形機器人帶來的法律問題。
其次,人形機器人可能對傳統(tǒng)的法律責任規(guī)則提出挑戰(zhàn)。在現(xiàn)有的法律體系中,責任通常是歸屬于能夠作出自主決策的主體,即自然人和法人。然而,隨著人形機器人逐漸具備更復雜的功能和更高級的自主性,它們的行為可能越來越難以通過傳統(tǒng)的責任歸屬模式來解釋和處理。一方面,人形機器人的行為可能導致新的法律責任問題。例如,如果一臺人形機器人在公共場合造成傷害或損害,傳統(tǒng)的責任規(guī)則可能需要重新考量,以確定是由機器人的制造商、所有者還是操作者承擔責任,或者是機器人本身應當被視為責任主體。這需要法律專家和立法者深入探討現(xiàn)有的責任法框架,并考慮是否需要為人形機器人的行為設立專門的責任規(guī)則。另一方面,人形機器人的智能化和自主性提出了關于責任歸屬的復雜問題。隨著人工智能技術的進步,人形機器人可能在某些情況下獨立作出決策,這可能導致其行為結果無法預測。在這種情況下,傳統(tǒng)的責任歸屬原則可能需要調整,以適應機器人行為的不確定性和復雜性。法律體系可能需要發(fā)展新的理論和規(guī)則,以確保受害者能夠得到合理的賠償,同時也保護機器人制造商和用戶的合法權益。
最后,人形機器人可能對個人信息安全與隱私等合法權益造成侵害。隨著人形機器人技術的快速發(fā)展,它們在家庭、醫(yī)療、教育甚至執(zhí)法等多個領域的應用將變得越來越廣泛。這些機器人通常具備高度的感知能力,包括視覺、聽覺甚至觸覺傳感器,以及強大的數(shù)據(jù)處理能力,能夠收集和分析大量的個人信息。在日常生活中,人形機器人可能基于程序設計,收集用戶的私人對話、面部表情、生活習慣等敏感信息。如果這些信息沒有得到妥善保護,可能會被未經(jīng)授權的第三方獲取,導致個人隱私泄露。此外,如果人形機器人的數(shù)據(jù)存儲和傳輸安全措施不足,也可能成為黑客攻擊的目標,進一步威脅用戶的個人信息安全。
二、人形機器人治理模式選擇:邁向試驗性規(guī)制
面對快速發(fā)展但處于產(chǎn)業(yè)幼稚時期的人形機器人產(chǎn)業(yè),監(jiān)管機構應當在何時并以何種方式予以規(guī)制,才能既不會在人形機器人產(chǎn)業(yè)發(fā)展初期扼制創(chuàng)新,又能夠及時對人形機器人的負外部性進行有效防范,已經(jīng)成為政府治理現(xiàn)代化的重要內容。正如荷蘭學者所指出的,監(jiān)管機構當前正處于一個關鍵的抉擇時刻:一方面,他們必須確保新興產(chǎn)業(yè)的創(chuàng)新活力不受過度及陳舊規(guī)制措施的抑制;另一方面,他們又肩負著保護用戶免遭欺詐、責任風險以及非專業(yè)服務提供商傷害的責任。就人形機器人的治理而言,這一規(guī)制困境的復雜性遠超初步設想,因為監(jiān)管機構在此過程中將遭遇一系列棘手的挑戰(zhàn),這些問題不僅要求平衡創(chuàng)新與安全的關系,還要求在不斷變化的市場環(huán)境中靈活應對。
(一)人形機器人的治理困境:科層式規(guī)制之不足
在因應快速發(fā)展的新興技術時,監(jiān)管機構通常面臨四個關鍵挑戰(zhàn):規(guī)制的審慎性、規(guī)制的合法性、規(guī)制的有效性和規(guī)制的關聯(lián)性。人形機器人的治理面臨理論與實踐交織的困境,即傳統(tǒng)的科層式規(guī)制體系似乎不再能夠完全適應這一新興領域的規(guī)制需求,在規(guī)制的審慎性、合法性、有效性和關聯(lián)性等方面面臨挑戰(zhàn)?!?9#〕科層式規(guī)制,源自韋伯的官僚制理論,強調規(guī)則的普遍性、程序的標準化以及決策的層級化。〔30#〕然而,人形機器人的應用場景多樣性和風險多元化挑戰(zhàn)了這一傳統(tǒng)規(guī)制模式的有效性。
第一,規(guī)制目標與內容設定的困難??茖邮揭?guī)制是一種傳統(tǒng)的規(guī)制模式,它通?;诿鞔_的目標和規(guī)則內容,旨在實現(xiàn)秩序、效率和公平??茖邮揭?guī)制的優(yōu)勢在于它能夠為人形機器人的治理提供一種統(tǒng)一的、穩(wěn)定的、可操作的和可執(zhí)行的框架,從而保障人形機器人的生產(chǎn)、銷售、使用、回收等環(huán)節(jié)的規(guī)范和有序。然而,科層式規(guī)制的劣勢在于缺乏靈活性和前瞻性,無法有效地應對人形機器人技術的復雜性和不斷發(fā)展的特性,從而導致規(guī)制目標與內容的設定面臨巨大的挑戰(zhàn)。人形機器人技術的復雜性不僅體現(xiàn)在其模仿人類行為和交互的能力上,還體現(xiàn)在其潛在的應用領域和功能上。這種技術特性要求規(guī)制目標具有高度的靈活性,以便能夠適應技術的快速變革。例如,隨著人工智能和機器學習技術的進步,人形機器人的能力可能會超出我們目前的理解,這就要求規(guī)制目標能夠及時調整,以適應這些變化。同時,規(guī)制內容的設定也需要具備前瞻性,以便應對未知的風險和社會影響。這不僅要求規(guī)制機構對當前的技術狀態(tài)有深入的了解,還要求他們能夠預測未來的發(fā)展趨勢。這意味著規(guī)制內容不能僅僅基于現(xiàn)有的技術和應用場景,還必須考慮潛在的技術進步和社會變化。例如,隨著人形機器人在家庭護理、教育和娛樂等領域的應用越來越廣泛,規(guī)制內容需要涵蓋這些領域的特定需求和挑戰(zhàn)。
第二,規(guī)制節(jié)奏與力度的失衡??茖邮揭?guī)制體系以其對程序穩(wěn)定性和一致性的重視,為傳統(tǒng)領域提供了一套可靠的管理框架。然而,在面對快速發(fā)展且不斷演進的技術領域時,這一體系的剛性可能導致規(guī)制節(jié)奏和力度的失衡,從而產(chǎn)生不利的后果。一方面,規(guī)制節(jié)奏的把握是實現(xiàn)有效規(guī)制的關鍵因素之一。在人形機器人技術尚未成熟或社會尚未準備好接受變革的情況下,過早地施加限制可能會抑制技術創(chuàng)新和試驗精神。如果在某個技術發(fā)展的初期階段就施加過于嚴格的規(guī)制,可能會限制研究人員和開發(fā)者的創(chuàng)造力,阻礙潛在的有益應用的探索。相反,過慢的規(guī)制節(jié)奏可能會讓風險得不到及時的控制,導致技術濫用或不當行為的發(fā)生,從而對社會造成傷害。如果對人形機器人可能引發(fā)的隱私侵犯或道德問題反應遲緩,可能會造成公眾的不信任和反感。另一方面,規(guī)制力度的把握也同樣重要。規(guī)制力度過大可能會對人形機器人技術的發(fā)展造成不必要的負擔,限制其在市場上的應用和普及。這不僅會影響企業(yè)的創(chuàng)新動力,還可能阻礙整個行業(yè)的發(fā)展。然而,如果規(guī)制力度不足,可能無法有效防范技術帶來的風險,如未經(jīng)充分測試的人形機器人可能導致安全事故,或者在沒有適當倫理指導的情況下被用于不當目的。
第三,規(guī)制思維與規(guī)則的適用性不足。傳統(tǒng)的科層式規(guī)制體系通?;诰€性的、命令—控制型的思維方式,這種模式在處理明確、穩(wěn)定的問題時或許有效,但在應對復雜、多變的技術現(xiàn)象時則顯得力不從心。人形機器人技術的發(fā)展不僅涉及多個學科和領域,還與社會、文化、經(jīng)濟等多個因素緊密相連。這種技術的多樣性和交叉性要求規(guī)制者必須具備跨學科的知識和敏感性,以便全面理解技術的特性和潛在的社會影響。同時,技術的不確定性也要求規(guī)制者具備前瞻思維,能夠預測技術的未來趨勢和社會的需求,從而制定出靈活且有效的規(guī)制措施。此外,規(guī)制規(guī)則的適用也需要從絕對性轉向相對性。傳統(tǒng)的規(guī)制模式往往強調規(guī)則的普遍性和統(tǒng)一性,但這種模式可能無法適應不同情境下的特定問題。因此,規(guī)制規(guī)則應能夠根據(jù)具體情況靈活適用,而不是一成不變。這要求規(guī)制者具備靈活性和創(chuàng)新性,能夠根據(jù)實際情況制定和477fabb1ad875c6479f91f41db4413bf調整規(guī)制策略。
(二)試驗性規(guī)制:人形機器人治理的新模式
“治理的核心是配置產(chǎn)業(yè)發(fā)展所需要的制度資源,從而實現(xiàn)治理核心目標的有機平衡:輔助(不阻礙)技術創(chuàng)新、防控產(chǎn)業(yè)風險(避免負外部性)、促進公眾利益最大化”。為了彌補規(guī)制制度制定中信息、知識等方面的不充分、不確定,現(xiàn)代規(guī)制國家通常采取一種試驗主義(experimentalist)的治理方式,通過規(guī)制制度的試驗性供給和實施來適應新技術、新業(yè)態(tài)、新應用的未來發(fā)展并解決其固有的復雜性。試驗性規(guī)制本質上是一種設定臨時治理目標并進行修訂的遞歸過程,其基礎是通過比較不同背景下推進目標的替代方法進行規(guī)制學習。從理論基礎的角度觀察,可以將實用主義思想、漸進主義制度變遷理論、“試錯”理論作為試驗性規(guī)制的思想來源。此外,試驗性規(guī)制也體現(xiàn)了科學技術進步法、《優(yōu)化營商環(huán)境條例》《生成式人工智能服務管理暫行辦法》等法律法規(guī)所規(guī)定的“包容審慎”規(guī)制原則(理念)。
試驗性規(guī)制的內在邏輯契合人形機器人的可規(guī)制性,有助于制訂循證的、迭代的人形機器人治理策略,主要有以下幾個方面的原因:一是人形機器人是一種涉及多個學科和領域的交叉技術,它的發(fā)展受到多種因素的影響,需要多方面的支持和協(xié)調。因此,試驗性規(guī)制能夠提供一個廣泛的、開放的和靈活的規(guī)制平臺,促進不同利益相關者的交流和合作,共同推進人形機器人的創(chuàng)新和進步。二是人形機器人技術尚處于發(fā)展過程中,其行為和后果難以預測和控制,過早規(guī)制可能會扼殺新技術,而推遲規(guī)制又可能導089c74080fbcad3b8bf66e027961598d致潛在風險的放任自流。試驗性規(guī)制能夠提供一個細致的、審慎的和可調整的規(guī)制框架,充分考慮規(guī)制的時間要素,不斷監(jiān)測和評估人形機器人的風險和影響,制定和執(zhí)行適當?shù)囊?guī)制措施,保護和維護利益相關者的權益。三是人形機器人是一種具有諸多人類特征的機器,它的存在和發(fā)展涉及人類的身份和尊嚴,可能引發(fā)一系列的倫理價值問題。而試驗性規(guī)制能夠提供一種深入的、多元的和參與式的規(guī)制過程,引導和促進利益相關者對人形機器人的倫理價值問題進行討論,形成和傳遞有利于人形機器人和人類和諧共存的規(guī)制理念。
在探討人形機器人治理的學術討論中,規(guī)制原則、規(guī)制關系和規(guī)制工具是構成治理框架的三個關鍵維度。相對于傳統(tǒng)的科層式規(guī)制,試驗性規(guī)制在這些方面展現(xiàn)出了顯著的優(yōu)勢,從而在回應人形機器人治理困境時更具有正當性。首先,從規(guī)制原則上看,科層式規(guī)制強調的是等級分明、條塊分割的管理原則,這種模式在應對人形機器人的技術迭代時往往會滯后。科層式規(guī)制的僵化和缺乏彈性導致其在應對快速變化的技術現(xiàn)象時反應遲緩,難以適應人形機器人技術的多樣性和復雜性。相反,試驗性規(guī)制則倡導開放性、靈活性和適應性,這種規(guī)制原則能夠更好地適應人形機器人技術的發(fā)展需求。它不僅能為技術創(chuàng)新提供更為寬松的空間,還能為應對未知風險提供更為敏捷的反應機制。其次,在規(guī)制關系上,科層式規(guī)制往往是自上而下的單向度管理,忽視了多元主體間的互動與合作。然而,人形機器人的治理是一個復雜的系統(tǒng)工程,需要政府、產(chǎn)業(yè)界、學術界和公眾等多方主體的共同參與和協(xié)作。試驗性規(guī)制強調的是多元主體的參與,通過協(xié)商、合作,形成共治的局面。這種規(guī)制關系的轉變有助于匯聚各方智慧,共同推動人形機器人治理的進步。最后,在規(guī)制工具的選擇上,科層式規(guī)制往往依賴于硬性的法規(guī)和命令,而試驗性規(guī)制則更加注重軟法、自律等多樣化的手段。這種轉變意味著從刻板的教條主義向靈活的實用主義轉變,更能夠應對復雜多變的社會現(xiàn)象。通過行業(yè)自律、倫理規(guī)范、標準化等手段,可以有效地引導人形機器人的發(fā)展與應用,同時也能夠及時調整和完善相關規(guī)制政策。
三、“監(jiān)管沙盒”:促成人形機器人的試驗性規(guī)制
“監(jiān)管沙盒”作為一典型的試驗性規(guī)制工具,近年來在金融科技領域得到了廣泛應用,并逐漸擴展到其他領域,如人工智能、自動駕駛汽車等?!氨O(jiān)管沙盒”的核心理念是在一個受限制的、可控的環(huán)境下,允許創(chuàng)新者測試其產(chǎn)品、服務或商業(yè)模式,而監(jiān)管機構則通過觀察和評估這些測試活動,來調整和完善相關的規(guī)制政策。這種工具旨在平衡創(chuàng)新與風險的關系,專門設計用于管理新興技術的不確定性和復雜性。因此,“監(jiān)管沙盒”的設計、實施和傳播已經(jīng)與新興技術、創(chuàng)新和技術驅動的競爭等問題緊密聯(lián)系在一起。在人形機器人的治理中,“監(jiān)管沙盒”作為實現(xiàn)試驗性規(guī)制的重要工具,具有諸多治理效能,有助于實現(xiàn)“統(tǒng)籌發(fā)展與安全”的政策目標,同時也需要綜合考慮各種因素,充分借鑒其他領域“監(jiān)管沙盒”的經(jīng)驗教訓,并進行精心設計。
(一)作為試驗性規(guī)制工具的“監(jiān)管沙盒”
通過規(guī)制擴散效應,試驗性規(guī)制已經(jīng)在我國普遍制度化,涉及廣泛的規(guī)制領域,如稅收、證券、保險、產(chǎn)品質量、就業(yè)促進等。一般認為,在設計試驗性規(guī)制的制度安排時需要考慮四個要素:一是設定廣泛的框架目標;二是在實施目標時賦予“下級”自由裁量權;三是定期報告和評估不同的規(guī)制措施;四是根據(jù)評估結果揭示的問題定期修訂框架目標。在此背景下,較為常見的試驗性規(guī)制工具主要包括以下類型:一是采用定制指南(bespoke guidance),即向創(chuàng)新者提供個性化的專業(yè)指導;二是臨時豁免特定規(guī)則的適用;三是“規(guī)制告慰”(regulatory comfort),即當創(chuàng)新者希望開發(fā)或應用新產(chǎn)品或服務,但擔心違反某些規(guī)則時,規(guī)制機構可以通過“告慰函”(comfort letter),說明他們認為哪些行為是合適的以及他們針對某些問題的執(zhí)法方法;四是“監(jiān)管沙盒”,即在人為創(chuàng)造的規(guī)制環(huán)境中測試新服務和產(chǎn)品,以促進創(chuàng)新;等等。
與其他試驗性規(guī)制工具相比,“監(jiān)管沙盒”尤其具有吸引力,其設計和實施能夠更為全面地考慮試驗性規(guī)制的四個關鍵要素。“監(jiān)管沙盒”作為一種創(chuàng)新的規(guī)制工具,通常由政府機構主導和管理,旨在為初創(chuàng)企業(yè)、科技公司以及其他相關實體提供一個可控的現(xiàn)實環(huán)境,以便它們能夠在有限的時間內并在嚴格的監(jiān)督管理下測試和提供創(chuàng)新的產(chǎn)品和服務。在“監(jiān)管沙盒”的測試期間,參與的創(chuàng)新者通常會從規(guī)制機構那里獲得一系列的支持和便利,包括專業(yè)指導、簡化登記注冊流程以及某些情況下的特定規(guī)制豁免。與此同時,通過對創(chuàng)新者的規(guī)制和與創(chuàng)新者的密切互動,規(guī)制機構可以獲得關于新興技術和商業(yè)模式的第一手資料,了解它們如何受到現(xiàn)行或擬議法規(guī)的影響。這種規(guī)制洞察力可以為調整法規(guī)、引入新的規(guī)制工具、廢除繁瑣的行政程序以及推行其他規(guī)制改革奠定基礎。
(二)“監(jiān)管沙盒”的治理效能:實現(xiàn)“統(tǒng)籌安全與發(fā)展”
在新興技術治理中,任何治理框架或規(guī)制工具均需要妥善處理規(guī)制機構、企業(yè)和消費者的利益訴求,人形機器人治理也不例外。如前所述,“統(tǒng)籌安全與發(fā)展”已經(jīng)成為我國人形機器人治理的重要政策目標。作為試驗性規(guī)制工具的“監(jiān)管沙盒”,可以通過回應規(guī)制機構、企業(yè)和消費者的利益訴求,推進靈活且面向未來的規(guī)制方法,實現(xiàn)“統(tǒng)籌安全與發(fā)展”的政策目標。
第一,“監(jiān)管沙盒”有助于提升監(jiān)管機構的治理實效。在人形機器人治理領域,“監(jiān)管沙盒”作為一種新興的規(guī)制工具,正逐漸成為提升監(jiān)管機構治理實效的重要手段。具體而言,主要體現(xiàn)在以下幾個方面:(1)監(jiān)管機構通過學習和試驗為長期決策提供信息。在人形機器人這一新興領域,技術和市場環(huán)境的快速變化使得傳統(tǒng)的規(guī)制模式難以適應?!氨O(jiān)管沙盒”為監(jiān)管機構提供了一個觀察和學習的機會,使其能夠更好地了解人形機器人的技術特性、市場動態(tài)以及潛在的風險和挑戰(zhàn),彌補規(guī)制中的“信息不對稱”問題。通過在沙盒環(huán)境中進行測試,規(guī)制機構可以積累有關人形機器人的數(shù)據(jù)和經(jīng)驗,從而為制定長期的規(guī)制政策和決策提供有力的信息支持。(2)“監(jiān)管沙盒”可以表明監(jiān)管機構對創(chuàng)新和學習的承諾。在人形機器人治理中,創(chuàng)新是推動產(chǎn)業(yè)發(fā)展的關鍵動力?!氨O(jiān)管沙盒”的實施意味著規(guī)制機構愿意為創(chuàng)新提供相對寬松的環(huán)境,鼓勵企業(yè)進行嘗試和探索。這種開放的態(tài)度有助于營造積極的創(chuàng)新氛圍,激發(fā)企業(yè)的創(chuàng)造力和競爭力。(3)“監(jiān)管沙盒”可以促進與市場參與者的交流和接觸。在人形機器人治理過程中,規(guī)制機構需要與各類市場參與者進行廣泛的溝通和合作?!氨O(jiān)管沙盒”為企業(yè)、研究機構、消費者等各方提供了一個共同參與的平臺,有助于加強彼此之間的聯(lián)系和理解。通過深入交流,監(jiān)管機構可以更好地把握市場參與者的需求和期望,從而制定更加符合實際情況的規(guī)制政策。(4)“監(jiān)管沙盒”有助于更新可能遏制有益創(chuàng)新的法規(guī)。在人形機器人領域,傳統(tǒng)的法規(guī)很可能無法適應新興技術的發(fā)展。“監(jiān)管沙盒”可以幫助監(jiān)管機構及時發(fā)現(xiàn)和修正那些可能阻礙創(chuàng)新的法規(guī)和條款。通過在沙盒環(huán)境中進行試驗和評估,監(jiān)管機構可以更加靈活地調整法規(guī)體系。
第二,“監(jiān)管沙盒”有助于回應企業(yè)的利益訴求?!氨O(jiān)管沙盒”不僅是一種創(chuàng)新的規(guī)制工具,更是一個充滿活力的試驗場,可以為人形機器人產(chǎn)業(yè)的健康發(fā)展提供堅實的支撐。具體而言,主要體現(xiàn)在以下幾個方面:(1)“監(jiān)管沙盒”簡化授權流程,可以大幅縮短產(chǎn)品從研發(fā)到上市的周期。在激烈的市場競爭中,時間就是金錢,效率就是生命。傳統(tǒng)的審批程序往往繁瑣而漫長,使得許多創(chuàng)新產(chǎn)品難以迅速面市,錯失良機?!氨O(jiān)管沙盒”則以其靈活高效的審批方式,為企業(yè)節(jié)省了寶貴的時間,使得創(chuàng)新成果能夠盡快轉化為實際生產(chǎn)力,滿足市場的需求。(2)“監(jiān)管沙盒”可以減少規(guī)制的不確定性。在復雜多變的市場環(huán)境中,企業(yè)面臨著種種不確定因素,其中規(guī)制的不確定性尤為突出。這種不確定性往往會增加企業(yè)的風險成本,影響其決策?!氨O(jiān)管沙盒”提供了一個相對確定的環(huán)境,讓企業(yè)在明確的規(guī)則下進行測試和調整,從而降低了運營風險,增強了企業(yè)的市場競爭力。(3)“監(jiān)管沙盒”還有助于收集有關規(guī)制要求和風險的反饋意見。這一機制鼓勵企業(yè)與規(guī)制機構之間的溝通與合作,通過實時的數(shù)據(jù)收集和分析,規(guī)制機構可以更加精準地了解市場動態(tài)和企業(yè)需求,及時調整和完善規(guī)制措施。同時,企業(yè)也能通過這一平臺,更好地理解政策導向,優(yōu)化產(chǎn)品設計,提升服務質量。
第三,“監(jiān)管沙盒”有助于實現(xiàn)消費者的權益保護?!氨O(jiān)管沙盒”作為一種創(chuàng)新的治理機制,為保護消費者權益提供了新的思路。具體而言,主要體現(xiàn)在以下幾個方面:(1)“監(jiān)管沙盒”有助于引入新的、更安全的人形機器人產(chǎn)品。在沙盒環(huán)境中,企業(yè)可以在監(jiān)管機構的監(jiān)督下,對其研發(fā)的人形機器人進行嚴格的測試。這種測試不僅限于產(chǎn)品的性能和功能,更重要的是對其安全性和可靠性進行全面評估。通過這種方式,可以有效地篩選出那些符合安全標準、性能優(yōu)越的人形機器人產(chǎn)品,為市場提供更加優(yōu)質的選擇。這不僅有利于提高整個行業(yè)的技術水平,也有助于保護消費者的權益,確保他們使用的人形機器人是安全可靠的。(2)“監(jiān)管沙盒”還有助于增加消費者獲得人形機器人產(chǎn)品和服務的機會。在沙盒環(huán)境中,政府和企業(yè)可以緊密合作,共同探討如何優(yōu)化人形機器人的應用場景,提高其服務水平。同時,“監(jiān)管沙盒”還可以為企業(yè)提供一個展示自身實力的平臺,讓更多的消費者了解和接觸到這些前沿科技產(chǎn)品。這樣一來,消費者在選擇人形機器人產(chǎn)品和服務時,將擁有更多的選擇和比較的機會,從而提高他們的消費滿意度。
(三)設計人形機器人“監(jiān)管沙盒”的考量因素
盡管從理論上看,作為試驗性規(guī)制工具的“監(jiān)管沙盒”具有各種潛在優(yōu)勢,有利于實現(xiàn)人形機器人治理中“統(tǒng)籌發(fā)展與安全”的政策目標,但是成功使用這些工具并非沒有挑戰(zhàn)。在規(guī)制實踐的諸多方面,關系因素扮演著不可忽視的角色,“監(jiān)管沙盒”作為靈活規(guī)制工具的典型代表,正被越來越多地采用,其結構設計中顯著融合了關系管理的元素。因此,高度靈活性和基于關系的規(guī)制模式,加之新興技術規(guī)制本身的復雜性、分散性以及對于信任的深度依賴,無一不增加了政府及非國家行為者在運行“監(jiān)管沙盒”時的難度,使整個規(guī)制過程的復雜程度加劇。目前人形機器人“監(jiān)管沙盒”實踐仍處于探索階段,尚未形成可供復制的政策見解和實踐經(jīng)驗。
不過,我們仍然可以從其他領域的“監(jiān)管沙盒”實踐來總結經(jīng)驗教訓,為人形機器人“監(jiān)管沙盒”的設計提供鏡鑒?!氨O(jiān)管沙盒”并非治理技術創(chuàng)新和不確定性的“萬能鑰匙”,在理論與實踐中也受到批判質疑。研究表明,在金融科技規(guī)制領域,“監(jiān)管沙盒”雖然產(chǎn)生了諸多積極影響,但也面臨如下困境:一是許多監(jiān)管機構未進行仔細評估,便倉促啟動“監(jiān)管沙盒”項目,對競爭、消費者和規(guī)制造成意想不到的影響;二是沙盒測試流程效率低下,缺乏強有力的評估方法來評估企業(yè)是否符合資格標準;三是沙盒是作為小規(guī)模測試框架構思和設計的,參與人數(shù)有限,未來的可擴展性和互操作性不足;四是不同模式的“監(jiān)管沙盒”全面鋪開,可能引發(fā)“規(guī)制套利”(regulatory arbitrage)問題。
為了避免人形機器人“監(jiān)管沙盒”實踐重蹈上述困境,有必要對“監(jiān)管沙盒”進行精心設計。世界銀行曾對全球57個司法管轄區(qū)的73個“監(jiān)管沙盒”項目進行實證研究,總結了設計“監(jiān)管沙盒”時所需考慮的因素:一是可行性評估。這是政策制定者在設立任何沙盒計劃之前必須采取的關鍵第一步,并且在可能的情況下應當在沙盒計劃實施后定期進行可行性評估。二是法律制度與沙盒之間的互動。法律制度與“監(jiān)管沙盒”的效力之間并不存在明確的關系,要充分考慮監(jiān)管機構設立沙盒是否需要法律的明確授權。三是“監(jiān)管沙盒”的資源和治理。政策制定者必須意識到開發(fā)和運行沙盒需要大量資源,應當進行成本分析,同時建立科學合理的治理機制。四是測試期限。監(jiān)管機構需要確立合適的測試期限,以便能夠了解技術和產(chǎn)品對市場的影響。五是推廣特定技術或產(chǎn)品的主題沙盒。定義明確的主題沙盒可以有效鼓勵特定技術或產(chǎn)品進入市場。六是消費者保護措施。監(jiān)管機構必須確保參與沙盒的消費者不會過度暴露于參與沙盒計劃所帶來的風險之下。有鑒于此,監(jiān)管機構在設計人形機器人“監(jiān)管沙盒”時也應當充分考慮上述因素。
四、人形機器人治理中“監(jiān)管沙盒”的制度建構
在探索人形機器人治理的廣闊天地中,“監(jiān)管沙盒”作為一種試驗性規(guī)制工具,其潛力不容小覷。為了使“監(jiān)管沙盒”能夠在人形機器人治理中發(fā)揮實效,實現(xiàn)制度化發(fā)展,我們必須充分借鑒其他領域“監(jiān)管沙盒”實踐的經(jīng)驗教訓,在設計“監(jiān)管沙盒”時充分考慮各種因素,并進行相應的制度安排。
(一)通過試驗性立法為“監(jiān)管沙盒”授權
“規(guī)制的合法性” 是監(jiān)管機構在應對新興技術時面臨的四大關鍵挑戰(zhàn)之一, 主要涉及規(guī)制的目標、標準及工具等是否合法?!氨O(jiān)管沙盒”作為一種新興的規(guī)制工具,同樣也需要接受合法性檢驗。研究表明,“監(jiān)管沙盒”并不會自動遵守合法性原則和與之相一致的價值觀,導致的結果是進行試驗的公司的競爭對手以及作為試驗對象的公司、組織或個人可能會主張“監(jiān)管沙盒”違反合法性原則。換言之,“監(jiān)管沙盒”缺乏法律依據(jù)通常就會轉化為對相關風險評估和風險分配不透明的質疑。正如學者所指出的,“監(jiān)管沙盒”有可能形成一種政府授予的經(jīng)濟特權,而沙盒之外的公司則無法享有這種特權,當政府從事挑選贏家和輸家的業(yè)務時,就違背了法治理念、平等保護和普遍性原則。
在比較法中,各國(地區(qū))針對法律制度與“監(jiān)管沙盒”的效力之間的關系采取了不同的立場。在有的國家(地區(qū)),規(guī)制機構設立“監(jiān)管沙盒”必須獲得法律的明確授權,而在另外一些國家(地區(qū)),設立“監(jiān)管沙盒”無需對現(xiàn)有法律或規(guī)制權力進行任何修訂或調整。在我國法治語境中,“監(jiān)管沙盒……突破了傳統(tǒng)依法行政原則對違法行為‘零容忍’的底線。因此,首先需要協(xié)調監(jiān)管沙盒與現(xiàn)有法律規(guī)定的關系”。
就我國人形機器人“監(jiān)管沙盒”的授權而言,目前主要零星體現(xiàn)在一些政策文件中,如工業(yè)和信息化部印發(fā)的《人形機器人創(chuàng)新發(fā)展指導意見》規(guī)定了“開展示范試點”,難以彌合“監(jiān)管沙盒”與“依法行政原則”之間的沖突。對此,本文認為,我國可以通過如下路徑來確保人形機器人“監(jiān)管沙盒”的合法性:第一,從短期發(fā)展來看,為了及時回應人形機器人產(chǎn)業(yè)的發(fā)展需求,可以通過試驗性立法為人形機器人“監(jiān)管沙盒”授權。由全國人大及其常委會按照立法法的規(guī)定授權國務院在人形機器人“監(jiān)管沙盒”所涉領域內暫時調整或暫停實施有關法律規(guī)定。之所以采取此種思路,主要原因在于“日落條款”和“試驗性立法”已經(jīng)成為縮小法律與創(chuàng)新之間的步調及信息差距的重要手段,并且實驗主義法治與當代中國國家治理之間亦存在極高的制度親和性。第二,從長遠發(fā)展來看,應當通過正式立法對人形機器人“監(jiān)管沙盒”予以具體規(guī)定。具體而言,可以采用兩種立法模式:一種是單行法模式,即由與人形機器人相關的立法設置相應的法律條款,如同歐盟人工智能法第57條至第61條對“人工智能監(jiān)管沙盒”的規(guī)定;另一種是專門立法模式,即通過“提取公因式”的方式制定“監(jiān)管沙盒”的專門立法,對“監(jiān)管沙盒”制度進行統(tǒng)一規(guī)定,如美國猶他州于2021年制定了通用監(jiān)管沙盒法(House Bill 217)。
(二)采用“中心輻射模式”治理“監(jiān)管沙盒”
在新技術治理中,規(guī)制的有效性最有可能受到監(jiān)管機構自身的影響,如腐敗、規(guī)制俘獲、規(guī)制資源與能力不足等。此外,新技術的高速發(fā)展帶來了規(guī)制空白與職能重疊等現(xiàn)實問題,監(jiān)管機構的碎片化現(xiàn)象極易引發(fā)“規(guī)制公地”困境。研究表明,“監(jiān)管沙盒”的成功運行需要大量資源以及合理的治理機制,而許多決策者通常低估了開發(fā)和運行沙盒所需的資源和能力。從全球“監(jiān)管沙盒”的治理實踐來看,主要包括專職部門模式和中心輻射模式,前者要求建立新的監(jiān)管機構并配備人員專門負責實施沙盒,后者則是監(jiān)管機構僅保留部分長期工作人員,根據(jù)需要從監(jiān)管機構內部和外部汲取專業(yè)知識。無論采取何種治理模式,監(jiān)管機構均必須能夠為創(chuàng)新者提供有效建議,為進入沙盒的企業(yè)進行測試,并且充分了解風險。
就我國人形機器人“監(jiān)管沙盒”的治理而言,宜采用“中心輻射模式”。具體而言,可以由工業(yè)和信息化部作為人形機器人“監(jiān)管沙盒”的主管部門,負責制定相關政策、法規(guī)和技術標準,以確保人形機器人的安全、可控和可持續(xù)發(fā)展。同時,工業(yè)和信息化部還應當設立專門的內部機構,負責人形機器人“監(jiān)管沙盒”的日常管理和監(jiān)督工作。鑒于人形機器人涉及技術復雜性、跨學科性以及對社會倫理、法律和文化的深刻影響,監(jiān)管機構在履行監(jiān)督管理職責時,必須具有相應的專業(yè)知識和技能。這包括但不限于機械工程、電子工程、計算機科學和人工智能等領域的知識。當某一類人形機器人產(chǎn)品或服務的復雜性超出了監(jiān)管機構的理解能力時,為了使沙盒的實施不會加劇此種復雜性,監(jiān)管機構應當拒絕將此類產(chǎn)品或服務納入“監(jiān)管沙盒”中,否則以合作治理方式來規(guī)制該類產(chǎn)品或服務就可能被證明是放松規(guī)制。
在理想化的視角下,“監(jiān)管沙盒”旨在促進對新興技術的廣泛討論、民主監(jiān)督以及有效控制。然而,實現(xiàn)這一愿景的可能性在很大程度上取決于“監(jiān)管沙盒”采取的是封閉的二元互動模式,還是更為開放多元的協(xié)作框架,并且關鍵在于,如何在沙盒設計、審批、監(jiān)督等環(huán)節(jié)中整合第三方參與者的貢獻。就我國人形機器人“監(jiān)管沙盒”的治理而言,監(jiān)管機構還應當充分認識到這一領域所涵蓋的多學科性和應用場景的多樣性,采取多元化的協(xié)同治理模式。具體而言,協(xié)同治理思維要求監(jiān)管機構在人形機器人“監(jiān)管沙盒”的治理中,不僅要考慮技術本身的發(fā)展和創(chuàng)新,還要關注其在社會、經(jīng)濟、文化等不同層面的應用和影響。這意味著監(jiān)管機構需要與各相關學科領域的專家學者、企業(yè)、政府部門等多方進行合作,通過“專家咨詢委員會”“聯(lián)合工作小組”“聯(lián)席會議”“備忘錄”等形式,共同制定和執(zhí)行規(guī)制政策,確保人形機器人技術的發(fā)展和應用符合倫理準則、法律規(guī)定以及社會期望。
(三)確?!氨O(jiān)管沙盒”實施的程序正義
在民主價值觀念的引領下,公眾普遍期望規(guī)制機構能夠展現(xiàn)出高度的透明度和責任感,并通過采取相應的包容性措施,積極促進利益相關方及公眾的廣泛參與。此種期望成為評估所有規(guī)制領域程序正當性的重要參照標準,無論其涉及的是小型自治團體,還是更大規(guī)模的社群。“監(jiān)管沙盒”通常依托于以過程為導向的規(guī)制制度,以促進沙盒環(huán)境下的風險管控與知識積累,這一過程往往伴隨著規(guī)制機構對執(zhí)法自由裁量權的限制性承諾。以過程為導向的規(guī)制涉及監(jiān)管機構設定必要的流程和標準,供被規(guī)制實體遵循,并以此開發(fā)和完善一套自我規(guī)制的內部制度及控制機制。
在人形機器人“監(jiān)管沙盒”實施過程中,確保程序正義至關重要。程序正義作為公正原則的核心要素,要求規(guī)制機構在制定和執(zhí)行“監(jiān)管沙盒”政策時,必須遵循透明、公平和參與性的原則。這不有助于提高“監(jiān)管沙盒”政策的合法性和可接受性,還能確保人形機器人技術的發(fā)展和應用更好地符合社會期望和倫理準則。正如有學者所指出的,大量的行政決策過程不僅涉及對行政技術手段的選擇與判斷,還可能需要對彼此競爭的社會價值進行調處,對價值實現(xiàn)的優(yōu)先次序作出判斷。
首先,透明度是程序正義的基本要求之一。監(jiān)管機構在制定人形機器人“監(jiān)管沙盒”政策時,應當充分公開相關政策文件、技術標準和評估報告等信息,讓公眾了解“監(jiān)管沙盒”政策的制定依據(jù)和執(zhí)行情況。這有助于增強公眾對人形機器人“監(jiān)管沙盒”政策的信任度,同時也為公眾提供監(jiān)督和參與人形機器人“監(jiān)管沙盒”政策制定的機會。
其次,公平性是程序正義的另一個重要方面。監(jiān)管機構在執(zhí)行人形機器人“監(jiān)管沙盒”政策時,應當確保各方利益相關者在政策制定和執(zhí)行過程中得到平等對待。這意味著監(jiān)管機構需要平衡不同利益相關者的需求和訴求,避免出現(xiàn)權力尋租和利益輸送的現(xiàn)象。此外,監(jiān)管機構還應當關注弱勢群體的利益保護,確保人形機器人技術的發(fā)展和應用不會導致社會不公和貧富差距的擴大。
最后,參與性是程序正義的重要組成部分。監(jiān)管機構在制定和執(zhí)行人形機器人“監(jiān)管沙盒”政策時,應當鼓勵各方利益相關者積極參與其中。這包括與專家學者、企業(yè)、其他政府部門和非政府組織等進行廣泛合作,共同研究和解決人形機器人“監(jiān)管沙盒”實施過程中遇到的問題。通過這種方式,監(jiān)管機構能夠更好地了解人形機器人可能產(chǎn)生的社會影響,從而制定出更為科學合理的規(guī)制政策。
(四)完善“后沙盒”階段的監(jiān)督機制
“監(jiān)管沙盒”的一個根本局限性在于,其對于單一科技產(chǎn)品進行“受控測試”(controlled testing)的能力本身有限,無法全面評估該產(chǎn)品在沙盒環(huán)境外可能產(chǎn)生的系統(tǒng)性影響,從而難以形成對該影響深度的可靠洞察。研究表明,在“后沙盒”(post-sandbox)階段,監(jiān)管機構和企業(yè)可能會從構建對話和信息交流的沙盒環(huán)境轉向一個以規(guī)定性規(guī)則和典型執(zhí)法策略為主的新環(huán)境。這種轉變可能會破壞在沙盒階段建立起來的信任,或者減少企業(yè)與監(jiān)管機構進行溝通或尋求指導的結構性動機。溝通或信任的減少會阻礙風險的識別和應對,尤其是當企業(yè)大規(guī)模部署產(chǎn)品或服務時,一些在有限試驗環(huán)境中未曾出現(xiàn)的問題才會顯現(xiàn)。
為了確保人形機器人在“后沙盒”階段的安全與合法運行,監(jiān)管機構可以采取如下措施來完善監(jiān)督管理:一是在沙盒測試階段,監(jiān)管機構應當加強對沙盒企業(yè)內部規(guī)范體系建設的監(jiān)督指導,沙盒企業(yè)應當制定規(guī)范計劃,引導其創(chuàng)新朝著全面規(guī)范的方向發(fā)展。二是在沙盒測試結束后,監(jiān)管機構應當建立正式的溝通對話機制,將沙盒測試階段形成的合作關系以某種形式持續(xù)下去。在比較法中,英國金融行為監(jiān)管局認識到“后沙盒”階段所面臨的一系列挑戰(zhàn),于2021年4月宣布建設一個“規(guī)制苗圃”(regulatory nursery),以便在企業(yè)退出沙盒后的一段時間內繼續(xù)與其保持密切溝通。
結語
在當代科技發(fā)展的浪潮中,人形機器人作為一項具有革命性的技術創(chuàng)新,其潛在的應用場景無疑是多樣化的。這些高度自動化的機器人不僅能夠執(zhí)行復雜的任務,還能在人類無法或不宜介入的環(huán)境中發(fā)揮作用,從而極大地提升效率和安全性。然而,人形機器人的廣泛部署也伴隨著一系列風險和挑戰(zhàn)。這些風險包括但不限于技術故障、數(shù)據(jù)安全、隱私侵犯以及其他倫理道德問題。人形機器人的廣泛應用及其可能給個人、組織和社會造成的風險意味著,規(guī)制干預的先決條件已經(jīng)存在,并且還應當適用風險預防原則,在技術開發(fā)和應用之前而不是之后進行適當規(guī)制。
傳統(tǒng)的科層式規(guī)制模式依賴于“命令與控制”機制,強調事前規(guī)則制定和事后違法制裁,通常是被動地作出反應,難以適應技術的迭代速度和不確定性,因此對于人形機器人的風險治理存在明顯局限。與此相對應,試驗性規(guī)制代表了現(xiàn)代規(guī)制的一種轉變,從靜態(tài)、一勞永逸的規(guī)則制定轉向更為動態(tài)、參與性和學習導向的規(guī)制模式,旨在找到促進技術創(chuàng)新和保護公眾利益的平衡點。其中,“監(jiān)管沙盒”作為一種典型的試驗性規(guī)制工具,可以使監(jiān)管機構直接觀察參與的企業(yè),評估各種規(guī)制措施對企業(yè)和消費者的影響,并完善相應的法律規(guī)則。通過及時洞察人形機器人規(guī)制對企業(yè)和消費者的影響,監(jiān)管機構可以更好地理解和調整現(xiàn)有與擬議的法律法規(guī)的必要性?!氨O(jiān)管沙盒”雖然不能解決人形機器人治理中的所有問題,但它可以支持監(jiān)管機構采用一種更具迭代性的方法來制定人形機器人的政策法規(guī),為更具前瞻性地處理法律與技術之間的互動關系提供一種途徑。