国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

生成式人工智能輔助行政決策的算法隱患及其治理路徑

2024-02-26 20:21:44房嬌嬌高天書
湖湘論壇 2024年1期
關(guān)鍵詞:生成式人工智能算法

房嬌嬌 高天書

摘要:生成式人工智能(Generative AI)作為最新一代的人工智能技術(shù),一經(jīng)問世便引發(fā)各行各業(yè)的關(guān)注和擔(dān)憂。就行政決策而言,生成式人工智能能夠幫助行政主體實(shí)施社會(huì)數(shù)據(jù)采集分析、行為預(yù)測(cè)、方案演繹,進(jìn)而輔助行政決策的信息采集、關(guān)鍵問題識(shí)別以及決策方案的最優(yōu)化實(shí)現(xiàn)。但是,在生成式人工智能參與行政決策的三個(gè)階段也存在不同程度的隱患:訓(xùn)練數(shù)據(jù)庫的片面性可能會(huì)導(dǎo)致信息的不公正、對(duì)技術(shù)的過度依賴可能會(huì)導(dǎo)致安全風(fēng)險(xiǎn)、算法黑箱可能會(huì)引發(fā)公眾對(duì)行政決策透明性的質(zhì)疑。若要最大限度發(fā)揮生成式人工智能輔助行政決策的積極作用,應(yīng)當(dāng)強(qiáng)化算法歧視治理、明確技術(shù)的輔助性地位、增強(qiáng)算法的參與性,以此規(guī)范生成式人工智能在行政決策中的作用,促進(jìn)生成式人工智能與行政決策的深度融合。

關(guān)鍵詞:生成式人工智能;行政決策;算法;法律治理

中圖分類號(hào):D63? ? 文獻(xiàn)標(biāo)識(shí)碼:A? ? 文章編號(hào):1004-3160(2024)01-0099-13

生成式人工智能是指基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù)。與以往的人工智能技術(shù)不同,生成式人工智能不僅可以提取信息,還可以利用現(xiàn)有的數(shù)字內(nèi)容檢查訓(xùn)練實(shí)例創(chuàng)建人工遺跡并學(xué)習(xí)其模式和分布[1]。人工智能在算力建設(shè)、電子政務(wù)、智慧城市、“互聯(lián)網(wǎng)+政務(wù)服務(wù)”等多個(gè)方面,全面助推數(shù)字政府建設(shè)??梢灶A(yù)見,生成式人工智能這一更先進(jìn)的技術(shù)將在未來廣泛深入地參與到政府的行政決策中。2023年8月31日,百度、字節(jié)、商湯、中國(guó)科學(xué)院旗下紫東太初、百川智能、智譜華章等8家企業(yè)和機(jī)構(gòu)的大模型產(chǎn)品已經(jīng)首批通過《生成式人工智能服務(wù)管理暫行辦法》備案,可正式上線面向公眾提供服務(wù)[3]。隨著生成式人工智能技術(shù)的展開,生成式人工智能輔助行政決策必將受到行政部門的關(guān)注,生成式人工智能輔助行政決策的形態(tài)和運(yùn)用將日益豐富[4]。此外,生成式人工智能輔助行政決策也將帶來一系列問題,需要加強(qiáng)法律規(guī)制。雖然有研究提及人工智能與行政決策的耦合,但至今為止缺乏系統(tǒng)、深入、全面的思考[5]?;仡櫻芯總鹘y(tǒng)人工智能輔助行政決策的成果可以發(fā)現(xiàn),諸多研究側(cè)重探討傳統(tǒng)法律制度受到人工智能的挑戰(zhàn)性影響、人工智能時(shí)代法律制度轉(zhuǎn)型的趨勢(shì)、“法律終結(jié)”等等[6],但這一思維已經(jīng)不能適應(yīng)生成式人工智能時(shí)代的需求。因此,我們應(yīng)對(duì)生成式人工智能輔助行政決策進(jìn)行前瞻性思考,從維護(hù)人民合法權(quán)益的方向思考其帶來的算法隱患,同時(shí)尋找規(guī)制路徑。值得注意的是,生成式人工智能的算法隱患與數(shù)據(jù)濫用問題引起了社會(huì)各方的擔(dān)憂。為此,2023年7月10日,國(guó)家互聯(lián)網(wǎng)信息辦公室聯(lián)合國(guó)家發(fā)展改革委、教育部等七部門發(fā)布《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱《辦法》)。本文在分析生成式人工智能算法對(duì)依法行政的作用以及總結(jié)生成式人工智能算法植入行政法治領(lǐng)域邊界的基礎(chǔ)上,結(jié)合《辦法》的相關(guān)規(guī)定,以期更好地提出解決生成式人工智能輔助行政決策算法隱患的前瞻性建議。

一、生成式人工智能輔助行政決策的功能

行政決策從啟動(dòng)到方案的出臺(tái),大概經(jīng)歷三個(gè)階段,即信息的收集階段、決策關(guān)鍵問題的識(shí)別階段以及決策方案的最終出臺(tái)。生成式人工智能在上述三個(gè)階段都能對(duì)行政決策起到輔助作用。

(一)確保行政決策信息準(zhǔn)確全面

信息的收集是行政決策的第一階段,這一階段也可以被視為科學(xué)決策的核心和前提,只有通過對(duì)行政決策信息的收集,才能夠?yàn)樾姓Q策的展開提供足量、有效的信息,從而為決策方案的最終確定提供現(xiàn)實(shí)依據(jù)。因此,行政決策的展開首先需要有信息支撐,龐大而有效的信息是保證行政決策具有正確性和科學(xué)性的前提。傳統(tǒng)行政決策在信息的收集和處理上比較受限,主要的、核心的信息只能通過人工采集。面對(duì)海量的信息,人工采集會(huì)出現(xiàn)無能為力、無所適從的現(xiàn)象,而有限的信息儲(chǔ)存技術(shù)以及落后的信息分析和處理技術(shù)則無法實(shí)現(xiàn)有效的信息提取[7]。在這種情況下,生成式人工智能技術(shù)在行政決策信息收集階段的輔助運(yùn)用可以極大提高信息采集與信息分析的效率,通過最低的成本投入實(shí)現(xiàn)決策信息收集的最大化。從目前來看,互聯(lián)網(wǎng)和物聯(lián)網(wǎng)已經(jīng)滲透到各個(gè)領(lǐng)域,伴隨著各類傳感器、移動(dòng)終端、機(jī)器人等智能設(shè)備的推廣和應(yīng)用,公民的日常生活在愈發(fā)智能化的同時(shí),也促進(jìn)了各類民生數(shù)據(jù)信息的集中化以及高效化[8]。目前國(guó)內(nèi)外的生成式人工智能所采用的自然語言處理+搜索引擎集成的架構(gòu),其背后有大量語料庫提供支撐,為輔助行政決策夯實(shí)信息基礎(chǔ)。

一方面,在信息的收集階段,生成式人工智能的輔助運(yùn)用能夠最大化實(shí)現(xiàn)信息采集的目的。例如,國(guó)內(nèi)百度開發(fā)的“文心一言”人工智能正是通過搜索、信息流等應(yīng)用層的協(xié)同來實(shí)現(xiàn)信息采集,由搜索服務(wù)每天獲取幾十億次用戶使用需求,每天進(jìn)行1萬億次深度語義推理與匹配,提供真實(shí)和及時(shí)的反饋,從而倒逼人工智能的大模型與深度學(xué)習(xí)框架的優(yōu)化。又如國(guó)外的ChatGPT技術(shù),其所依托的訓(xùn)練數(shù)據(jù)集包括數(shù)十億個(gè)單詞級(jí)別的文本片段,這些文本片段是從互聯(lián)網(wǎng)上收集來的,經(jīng)過處理和清洗后,被用于訓(xùn)練ChatGPT系列模型。這些數(shù)據(jù)集的數(shù)量和多樣性是訓(xùn)練出ChatGPT模型的關(guān)鍵,因?yàn)樗鼈兡軌虿蹲降阶匀徽Z言的復(fù)雜性和多樣性,從而使得ChatGPT能夠?qū)θ祟愓Z言的各種表達(dá)方式做出響應(yīng)。另一方面,在信息的分析和提取階段,生成式人工智能可以有效完成信息的整理、分類和提煉。這類大語言模型是通過大量的文本數(shù)據(jù)進(jìn)行無監(jiān)督的預(yù)訓(xùn)練得到的,模型會(huì)根據(jù)上下文中已有的信息,預(yù)測(cè)下一個(gè)可能出現(xiàn)的單詞或短語,這個(gè)過程就是語言模型訓(xùn)練。這個(gè)過程可以對(duì)信息進(jìn)行高效融合和智能過濾,它可以篩選和提取各種信息的特征,充分挖掘出決策問題的實(shí)質(zhì),消除人為干擾,從而為決策者提供科學(xué)建議。

(二)抓捕行政決策關(guān)鍵問題

行政決策關(guān)鍵問題的捕捉是行政決策方案出臺(tái)的重要一環(huán),這一環(huán)節(jié)主要由為行政決策提供咨詢服務(wù)的組織機(jī)構(gòu)來進(jìn)行,這一機(jī)構(gòu)必須由專業(yè)人員組成,運(yùn)用專業(yè)化知識(shí)對(duì)行政決策的具體問題進(jìn)行分析和判斷,并做出預(yù)測(cè)。在傳統(tǒng)的行政決策中,關(guān)鍵問題的捕捉主要依靠來自不同領(lǐng)域的專家學(xué)者在已掌握的信息基礎(chǔ)上對(duì)問題進(jìn)行預(yù)先評(píng)估從而制定相應(yīng)方案,在這個(gè)過程中,行政決策一方面受制于信息收集的廣度,另一方面受限于對(duì)于信息的分析能力,往往難以及時(shí)捕捉關(guān)鍵性預(yù)警信息,從而耗費(fèi)了大量人力、物力成本[9],常常出現(xiàn)對(duì)關(guān)鍵問題把握不準(zhǔn)、對(duì)可能出現(xiàn)的風(fēng)險(xiǎn)無法提前預(yù)知等問題。建構(gòu)以需求為導(dǎo)向的行政決策計(jì)算方案,利用多年積累的行政決策信息進(jìn)行輔助判斷,可以充分發(fā)揮生成式人工智能的快速對(duì)應(yīng)和精確求解的優(yōu)點(diǎn),在很多領(lǐng)域超越傳統(tǒng)的行政決策模式。

其技術(shù)效用主要體現(xiàn)在以下兩點(diǎn)。一是搜尋海量的數(shù)據(jù)并聚焦于行政決策所涉及的關(guān)鍵問題。在傳統(tǒng)行政決策背景下,關(guān)鍵問題的識(shí)別大多都是以碎片化的信息和經(jīng)驗(yàn)性的判斷為基礎(chǔ)的,因而不能保證決策的精確性[10]。但就生成式人工智能ChatGPT、紫東太初等模型而言,行政決策方案利用的是生成式人工智能技術(shù)基于整個(gè)互聯(lián)網(wǎng)平臺(tái)整合的龐大數(shù)據(jù)庫,搜尋的數(shù)據(jù)是社會(huì)公眾基于生活、生產(chǎn)需要而產(chǎn)生的客觀信息,而非各類問卷所產(chǎn)生的問答式回答,在此基礎(chǔ)上進(jìn)行有針對(duì)性的檢測(cè),得到的信息精確性更高,更有利于輔助行政決策聚焦于關(guān)鍵問題。二是生成式人工智能構(gòu)建的行政決策能夠排除行政決策中的人為因素干擾,提高行政決策效率,提升決策質(zhì)量。與此同時(shí),利用生成式人工智能輸出的行政決策也具有極強(qiáng)的靈活性,其在預(yù)訓(xùn)練完成后,還可以針對(duì)特定的任務(wù)進(jìn)行微調(diào)。將預(yù)訓(xùn)練模型與特定任務(wù)的數(shù)據(jù)相結(jié)合,從而使模型在特定任務(wù)上具有更好的性能。生成式人工智能并非機(jī)械搜尋行政決策所需要的信息,而是具有自適應(yīng)能力,可以輔助完成各種復(fù)雜的決策。

(三)出具行政決策最優(yōu)方案

行政決策最優(yōu)方案的確定是整個(gè)行政決策中的關(guān)鍵環(huán)節(jié),這一環(huán)節(jié)不僅要統(tǒng)籌協(xié)調(diào)行政決策的全過程,還要基于已經(jīng)收集到的行政決策信息并綜合專家的意見最終確定行政決策的核心問題以及所想達(dá)成的目標(biāo),在此基礎(chǔ)上形成行政決策的方案并在各類方案中確定最優(yōu)方案。因此,行政決策方案的確定和出臺(tái)需要考察行政決策的整個(gè)過程、行政決策的問題和目標(biāo),并對(duì)不同的備選方案進(jìn)行科學(xué)評(píng)估。行政決策首先要確定決策議題,在傳統(tǒng)行政決策背景下,行政決策議題的確定一般是在行政機(jī)構(gòu)進(jìn)行社會(huì)調(diào)研或者獲得民意反饋之后[11],雖然社會(huì)調(diào)研與民意反饋等能夠反映出一定的民意基礎(chǔ),但在民意反饋的廣度及深度上仍然存在欠缺。而在科技迅猛發(fā)展的大背景下,作為一種對(duì)話系統(tǒng),生成式人工智能則能夠在一定程度上改變傳統(tǒng)行政模式下的對(duì)話失衡局面,使政府與公眾在對(duì)話結(jié)構(gòu)上始終處于平等的地位[12]。

首先,生成式人工智能可以幫助搭建公眾和行政決策內(nèi)部機(jī)構(gòu)的溝通橋梁,保障行政決策方案的目標(biāo)與公眾需求的契合性,從而在大方向上保障行政決策方案的科學(xué)性。對(duì)于行政機(jī)構(gòu)已經(jīng)確定要研究的決策議題,通過智能技術(shù)先進(jìn)的網(wǎng)絡(luò)信息渠道,社會(huì)大眾可以迅速了解到行政決策的相關(guān)信息,從而向決策中樞積極建言獻(xiàn)策。這里的建言獻(xiàn)策不僅包括了公眾直接提出意見,更包括通過日常行為向行政機(jī)構(gòu)提供真實(shí)、客觀的數(shù)據(jù)信息,確保行政決策信息的真實(shí)性、客觀性。其次,通過對(duì)大量客觀信息的持續(xù)收集和分析,生成式人工智能可以在一定程度上提高行政決策方案與現(xiàn)實(shí)的契合性,從而保障決策的科學(xué)性。最后,生成式人工智能能夠高效生成各種行政決策方案,并對(duì)行政決策方案的可能后果進(jìn)行輔助預(yù)測(cè),有助于幫助確定最優(yōu)行政決策方案。生成式人工智能不僅可以根據(jù)設(shè)計(jì)人員的要求迅速生成各種設(shè)計(jì)方案,還可以對(duì)這些方案的性能進(jìn)行初步評(píng)估。這樣,就可以大幅度縮短設(shè)計(jì)時(shí)間,并有效減少設(shè)計(jì)過程中可能產(chǎn)生的浪費(fèi)[13]。

二、生成式人工智能輔助行政決策的三重算法隱患

生成式人工智能在為行政決策提供堅(jiān)實(shí)信息基礎(chǔ)、提升行政決策關(guān)鍵問題識(shí)別效率以及助力確定最優(yōu)行政決策方案的同時(shí),也在不同程度上對(duì)行政決策的正義性、安全性以及透明性帶來了挑戰(zhàn)。

(一)行政決策信息收集階段:算法歧視引發(fā)決策的正義性隱患

行政決策能否具有正義性,其前提和基礎(chǔ)在于其掌控的信息能夠?yàn)槠錄Q策提供何種路徑指向。將生成式人工智能引入行政決策領(lǐng)域后,行政決策方案的最終出臺(tái)就依賴于決策者掌握的信息量以及對(duì)這些信息的分析結(jié)果。但是,生成式人工智能在極大提高信息收集的廣度與深度的同時(shí),也不可避免存在信息收集過程中的公正性問題。

一方面,由于生成式人工智能在不同地區(qū)應(yīng)用狀況的差異,各地出臺(tái)的生成式人工智能信息收集處理規(guī)則可能不同。不同的規(guī)制方法會(huì)導(dǎo)致信息收集出現(xiàn)數(shù)量、質(zhì)量方面的差異,最終會(huì)影響到行政決策的正義性。在生成式人工智能輔助行政決策信息收集的過程中,由于不同地區(qū)信息技術(shù)發(fā)展水平的差異,可能會(huì)導(dǎo)致收集到的數(shù)據(jù)本身并不中立[14],可能某一地區(qū)收集的信息偏多、另一地區(qū)偏少,最終的數(shù)據(jù)就不能真正具有廣泛的代表性,由此造成信息收集本身的不正義。生成式人工智能輔助行政決策,那么行政決策就需要以龐大的數(shù)據(jù)量為基礎(chǔ)。但從數(shù)據(jù)信息采集開始,劃分?jǐn)?shù)據(jù)口徑有很多類型,這些都會(huì)影響到行政決策的制定。有些內(nèi)容會(huì)帶有“隱秘的偏見”,如獲取數(shù)據(jù)的渠道主要是依靠廠商長(zhǎng)期積累、公開爬取或來源于各類免費(fèi)或者付費(fèi)第三方數(shù)據(jù)庫與數(shù)據(jù)集,但公開爬取的數(shù)據(jù)以及各類第三方數(shù)據(jù)庫的信息可能并不具備與行政決策目標(biāo)的貼合性,其既可能因?yàn)榉秶^窄而只反映整體之中的一部分信息從而導(dǎo)致決策的以偏概全,也可能因搜集過多與決策無關(guān)的信息,造成雜亂信息對(duì)于運(yùn)算的干擾,降低運(yùn)算精確性。錯(cuò)誤的信息采集將對(duì)生成式人工智能的運(yùn)算結(jié)果產(chǎn)生影響,正如人類在進(jìn)行決策時(shí)會(huì)存在主觀層面上的偏見一樣,生成式人工智能同樣會(huì)因?yàn)檩斎霐?shù)據(jù)的局限性而造成決策結(jié)果的誤差。[15]此外,生成式人工智能交互中仍會(huì)生成不少事實(shí)性錯(cuò)誤,在一些老幼皆知的簡(jiǎn)單問題上也會(huì)出錯(cuò)。生成式人工智能并不會(huì)提供信息的出處,而且在信息推送形式上也采用了更為直接的方式,因而其帶來的誤導(dǎo)性可能更大,造成的危害也就更大[16]。數(shù)據(jù)歸根結(jié)底是具有主觀性的信息標(biāo)識(shí),在社會(huì)環(huán)境中可能帶有偏見,一些弱勢(shì)群體的呼聲會(huì)被其他強(qiáng)勢(shì)發(fā)聲者的信息覆蓋掉,錯(cuò)誤信息甚至?xí)蓴_行政機(jī)關(guān)的判斷,以上種種原因都會(huì)導(dǎo)致政府決策失去公正性。

另一方面,生成式人工智能本身在信息分析和處理過程中可能并不能保持中立,從而在極大程度上影響行政決策的公正性。行政決策除了需要掌握海量數(shù)據(jù)以外,還需要對(duì)海量數(shù)據(jù)進(jìn)行分析和處理,這對(duì)于行政決策方案的最終確定同樣具有重要意義。但是,在生成式人工智能輔助行政決策進(jìn)行信息分析的過程中,由于算法工具性定位的偏差,可能導(dǎo)致在信息分析與處理過程中難以避免信息分析結(jié)果的不正義。從過去的技術(shù)應(yīng)用實(shí)踐來看,人們往往把智能技術(shù)作為一種非價(jià)值偏好的工具來使用,但是其內(nèi)在的算法卻打破了這種局限,因?yàn)樗梢园炎约旱膬r(jià)值取向嵌入到算法的體系結(jié)構(gòu)和規(guī)則定義中[17]。雖然生成式人工智能的內(nèi)嵌似乎消除了行政決定的主觀因素,不過,“計(jì)算和決策程序都取決于研發(fā)人員,那么研發(fā)人員自身的價(jià)值觀和偏見便不可避免地會(huì)被寫進(jìn)代碼中”[18]。龐大的信息處理需要能夠真正滿足政府道德需求、并立足于實(shí)現(xiàn)社會(huì)公共利益的算法。一旦某一算法承擔(dān)了過量的個(gè)人價(jià)值和偏好,那么依托于這一算法而得出的統(tǒng)計(jì)分析結(jié)果就很難確保其正義性[19]。

(二)行政決策問題識(shí)別階段:技術(shù)依賴引發(fā)決策的安全性隱患

行政決策關(guān)鍵問題的準(zhǔn)確識(shí)別是提升行政決策效率,助力決策機(jī)構(gòu)聚焦于解決核心問題的重要環(huán)節(jié)。生成式人工智能的加入能夠輔助決策機(jī)構(gòu)對(duì)關(guān)鍵問題進(jìn)行精準(zhǔn)定位。決策機(jī)構(gòu)通過生成式人工智能模型對(duì)整理好的基礎(chǔ)信息進(jìn)行分析和判斷,從而找準(zhǔn)決策的對(duì)象。這種決策方式在提高行政決策效率的同時(shí),也極易導(dǎo)致對(duì)技術(shù)的依賴,從而引發(fā)安全性風(fēng)險(xiǎn)。

第一,生成式人工智能本身就可能存在一定的技術(shù)風(fēng)險(xiǎn)。根據(jù)技術(shù)自身的風(fēng)險(xiǎn)屬性,任何技術(shù)的使用都會(huì)導(dǎo)致安全和不安全這兩種結(jié)果趨向[20]。對(duì)于生成式人工智能而言,由于其依賴的是數(shù)據(jù)信息以及算法技術(shù)這兩項(xiàng)關(guān)鍵要素,因此數(shù)據(jù)可能存在的信息偏差以及算法技術(shù)可能出現(xiàn)的歧視性等問題便可能帶來諸多未知性風(fēng)險(xiǎn),最終便可能影響到行政決策的公平性、正義性。正如有學(xué)者所提出的那樣:“人工智能所掌握的數(shù)據(jù)的不完整性,并不足以構(gòu)建與現(xiàn)實(shí)世界完全無誤的鏡像模擬,因此做出的決策可能存在瑕疵,如果完全依賴人工智能,可能將導(dǎo)致錯(cuò)誤決策和執(zhí)行,甚至出現(xiàn)一連串錯(cuò)誤行為?!盵21]以“數(shù)據(jù)鴻溝”和“數(shù)據(jù)歧視”為例,這兩者均可能導(dǎo)致行政決策所需數(shù)據(jù)樣本不完整,以此為基礎(chǔ)而展開的分析必然具有局限性,甚至可能會(huì)由于偏差數(shù)據(jù)導(dǎo)致決策方向錯(cuò)誤。

第二,生成式人工智能背景下的“信息繭房”可能會(huì)引發(fā)行政決策的安全性風(fēng)險(xiǎn)。生成式人工智能模型在對(duì)信息進(jìn)行分析并識(shí)別關(guān)鍵問題的過程中,會(huì)受到“信息繭房”效應(yīng)的負(fù)面影響。“信息繭房”是推薦算法廣泛應(yīng)用之下難以規(guī)避的結(jié)果[22]。從一般意義上來分析,智能算法提高多樣化的途徑有兩條:一是增強(qiáng)“個(gè)性化”,提高“多樣性”;二是讓用戶增強(qiáng)對(duì)“未知”的意識(shí),即向用戶提供篩選后的消息,讓他們了解到更多的內(nèi)容[23]。無論哪一種方式,智能算法所想實(shí)現(xiàn)的這種多樣性最終都有可能導(dǎo)致封閉的信息空間也即形成“信息繭房”的后果。在數(shù)據(jù)信息片面化的前提下,生成式人工智能有可能只能夠停留于自己的領(lǐng)域,而無法繼續(xù)向其它領(lǐng)域延伸,也無法預(yù)知風(fēng)險(xiǎn)。

(三)行政決策方案出臺(tái)階段:算法黑箱引發(fā)決策的透明性隱患

生成式人工智能通過“人類反饋強(qiáng)化學(xué)習(xí)”在不斷訓(xùn)練中最終確定最優(yōu)方案,這一過程看似公正透明,卻可能由于算法黑箱的問題引發(fā)透明性隱患??傮w來看,算法黑箱問題的產(chǎn)生原因主要有以下兩個(gè)。

第一,算法黑箱可能來自人為設(shè)置。算法黑箱的存在可能會(huì)導(dǎo)致生成式人工智能主導(dǎo)的行政決策最終方案本身不透明。在生成式人工智能算法輔助行政決策的背景下,前置條件的數(shù)據(jù)信息可以追溯,行政決策決定應(yīng)當(dāng)公開,但是廣大公眾對(duì)于二者之間的作用機(jī)制卻一無所知。一方面,這涉及技術(shù)的保密性問題;另一方面,即使對(duì)公眾公開生成式人工智能算法的運(yùn)算過程,公眾也可能無法理解其中的技術(shù)原理,這就為人為設(shè)置算法黑箱提供了可能,即商業(yè)資本可以通過設(shè)置算法黑箱操縱行政決策。一些持有特殊目的的商業(yè)機(jī)構(gòu)便可以保護(hù)產(chǎn)權(quán)、商業(yè)秘密為由,拒絕向公眾提供算法程序與標(biāo)準(zhǔn),甚至可能拒絕向行政機(jī)構(gòu)提供算法的內(nèi)部運(yùn)算規(guī)則,從而導(dǎo)致行政決策所依賴的生成式人工智能輔助信息產(chǎn)生偏差。

第二,算法黑箱還可能來自人的認(rèn)知局限。生成算法的本質(zhì)就是對(duì)訓(xùn)練樣本的分布狀況進(jìn)行建模,然后根據(jù)模型來抽取新的樣本[24]。作為符號(hào)代碼而存在的計(jì)算機(jī)語言,它有別于任何一種人類的語言和知識(shí),在很大程度上屬于公眾的知識(shí)盲區(qū)。這種自我生產(chǎn)、自我學(xué)習(xí)的算法技術(shù)在一定程度上擺脫了人工設(shè)置的限制,而對(duì)于社會(huì)公眾甚至算法本身的設(shè)計(jì)人員來說,其自主學(xué)習(xí)與運(yùn)算的過程都是陌生的,以此構(gòu)建的生成式人工智能決策方案也必然會(huì)被看作是一個(gè)技術(shù)上的“黑洞”。

不管是人為設(shè)置的算法障礙,還是人的認(rèn)知局限,都可能引發(fā)廣大公眾對(duì)行政決策公開性與透明性的質(zhì)疑與詰問。在這兩種情形中,政府機(jī)構(gòu)和生成式人工智能的開發(fā)人員往往難以做出合理解釋。

其一,生成式人工智能基于智能算法的自動(dòng)決策機(jī)制而最終確定下來的行政決策方案在很多方面是無法解釋的。從算法的運(yùn)作過程來看,一個(gè)從端到端的生成式人工智能深度學(xué)習(xí)算法,如果改變其算法模型中的任意一個(gè)權(quán)重、結(jié)點(diǎn)或?qū)訑?shù),都可能對(duì)整個(gè)模型產(chǎn)生難以預(yù)測(cè)的影響,即使是模型的設(shè)計(jì)者和訓(xùn)練者,也無法預(yù)先知道[25]。生成式人工智能算法也存在不可解釋性。政府機(jī)構(gòu)和算法開發(fā)者認(rèn)為,算法決策是由算法自動(dòng)產(chǎn)生的,在這種算法自主行為下對(duì)算法進(jìn)行解釋幾乎是不可能的,無論是算法編程人員還是算法模型和用戶的管理者,都沒有能力去解釋算法的決定。在這種情況下,行政決策方案確定、出臺(tái)的合理性和公正性可能會(huì)遭受公眾質(zhì)疑。

其二,由于算法技術(shù)本身可能存在的機(jī)密性,基于算法而選擇出的最優(yōu)化的決策方案可能會(huì)因?yàn)樯婷艿脑蚨鵁o法公開。生成式人工智能算法模型中往往因包含機(jī)密信息而不能對(duì)公眾公開。要解釋生成式人工智能方案所做出的決定,就必須對(duì)其算法進(jìn)行明晰解釋,但是大多數(shù)算法程序涉及開發(fā)者的商業(yè)秘密,在部分情況下甚至還涉及國(guó)家秘密,不宜對(duì)外公開。尤其是在國(guó)內(nèi)外技術(shù)企業(yè)搶占生成式人工智能市場(chǎng)的大環(huán)境下,算法黑箱問題將愈加嚴(yán)重。一方面,為了在市場(chǎng)競(jìng)爭(zhēng)中保持優(yōu)勢(shì),很多為技術(shù)治理平臺(tái)提供服務(wù)的技術(shù)企業(yè),不愿意公開特定治理技術(shù)的算法及其代碼規(guī)則[26]。特別是在使用算法進(jìn)行評(píng)估、排名、趨勢(shì)分析和智能匹配的領(lǐng)域,技術(shù)公司為了保持相較于其他競(jìng)爭(zhēng)對(duì)手的競(jìng)爭(zhēng)優(yōu)勢(shì),也會(huì)對(duì)算法采取保密措施。如果行政決策方案在確定出臺(tái)階段采取了某一具有保密性的算法技術(shù),那么會(huì)因?yàn)榧夹g(shù)企業(yè)、科技公司的阻力而無法進(jìn)行公開。另一方面,由于政府治理的特點(diǎn),許多問題和領(lǐng)域所采用的算法都是保密的,例如,在警務(wù)工作中所采用的智能化的預(yù)測(cè)與跟蹤算法,以及環(huán)衛(wèi)方案的環(huán)境情況監(jiān)測(cè)算法,都需要保持其隱蔽性才能保證效果。如果決策方案涉及這些保密領(lǐng)域,那么這一方案的確定和出臺(tái)過程可能就無法公開。

三、生成式人工智能輔助行政決策算法隱患的防范路徑

為解決上述因生成式人工智能的算法歧視引發(fā)的正義性問題、算法依賴引發(fā)的安全性隱患以及算法黑箱引發(fā)的透明性隱患,需要對(duì)生成式人工智能輔助行政決策的方式和限度予以審視。這就要求結(jié)合我國(guó)已有的對(duì)人工智能技術(shù)進(jìn)行監(jiān)管和治理的制度框架,如《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》,同時(shí)根據(jù)國(guó)家網(wǎng)信辦發(fā)布的《辦法》強(qiáng)化對(duì)算法歧視的治理,明確算法的輔助性地位,增強(qiáng)算法的參與性。

(一)強(qiáng)化算法歧視治理,確保決策內(nèi)容的公平性

以社會(huì)主義核心價(jià)值觀引領(lǐng)生成式人工智能參與行政決策,維護(hù)決策內(nèi)容的公正性。應(yīng)當(dāng)強(qiáng)化對(duì)信息及運(yùn)算偏差的管理,消除行政政策中的不利因素,讓數(shù)據(jù)公平與運(yùn)算公平相結(jié)合,探究在生成式人工智能的大環(huán)境下,政府如何科學(xué)民主決策?!掇k法》第4條規(guī)定了生成式人工智能所生成內(nèi)容應(yīng)符合的要求,即生成的內(nèi)容應(yīng)體現(xiàn)社會(huì)主義核心價(jià)值觀,確保內(nèi)容真實(shí)準(zhǔn)確無歧視。

首先,要加速推廣智能化技術(shù),拓寬信息融合領(lǐng)域,縮小數(shù)字化差距[27]。在智能賦權(quán)決策的情況下,缺少數(shù)據(jù)支持,就意味著一部分缺乏政策照顧、信息匱乏的地區(qū)無法實(shí)現(xiàn)生成式人工智能技術(shù)參與的公共決策。因此政府要加強(qiáng)基礎(chǔ)信息平臺(tái)建設(shè),解決部分地區(qū)、部分群體信息匱乏的問題,擴(kuò)大生成式人工智能參與公共決策的群體規(guī)模。此外,還需要加大數(shù)字信息設(shè)備、技術(shù)的普及力度,減少因缺乏技術(shù)設(shè)備帶來的“數(shù)字歧視”問題。

其次,對(duì)于隱藏在數(shù)據(jù)自身中的社會(huì)偏見信息,可以利用算法監(jiān)控技術(shù)進(jìn)行管理。一方面,應(yīng)當(dāng)充分利用算法技術(shù)以減少數(shù)據(jù)的偏見。既然算法能夠習(xí)得人類的偏見,那么它也可以幫助我們消除偏見。通過特殊的算法應(yīng)用方案的構(gòu)建,將其運(yùn)用到某一領(lǐng)域,分析這一領(lǐng)域中人的行為偏好、表現(xiàn)出的一致性,可以在一定程度上減輕偏見。因此,采用技術(shù)手段消除隱藏在數(shù)據(jù)當(dāng)中的社會(huì)偏見信息,實(shí)現(xiàn)公平公正的行政決策,這是大數(shù)據(jù)時(shí)代生成式人工智能輔助行政決策的應(yīng)然之舉。另一方面,考慮到偏見本身并不能從根源上消除,那么保障受到影響的人的知情權(quán)能夠在一定程度上降低數(shù)據(jù)偏見帶來的負(fù)面效應(yīng)。在自動(dòng)化方案中,任何時(shí)候都不得在不知情的情況下將偏見引入行政決策。在算法得以廣泛普及前,應(yīng)當(dāng)由專業(yè)人士進(jìn)行算法審查,以評(píng)估其效果與公正性。

最后,強(qiáng)化技術(shù)開發(fā)者的職業(yè)道德規(guī)范?!掇k法》第6條規(guī)定了生成式人工智能產(chǎn)品在應(yīng)用前需要進(jìn)行安全評(píng)估和算法備案[27]。同樣,《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第24條也規(guī)定了需要完成相應(yīng)信息填報(bào)并進(jìn)行算法備案的對(duì)象[28]??傊?,需要進(jìn)行安全評(píng)估、信息填報(bào)和算法備案的對(duì)象一般具有社會(huì)動(dòng)員能力,生成式人工智能的技術(shù)開發(fā)者若是具有較強(qiáng)的媒體或社會(huì)交往屬性,相關(guān)政府部門則必須對(duì)其進(jìn)行監(jiān)管。由于價(jià)值負(fù)載的存在,開發(fā)者可以將自己的價(jià)值觀和傾向性應(yīng)用到算法的結(jié)構(gòu)和代碼中,而這些偏差對(duì)決策的影響比對(duì)數(shù)據(jù)的影響要大得多。因此,應(yīng)當(dāng)明確技術(shù)開發(fā)者與產(chǎn)業(yè)生態(tài)的倫理標(biāo)準(zhǔn),提高科技工作者的道德自律性。

(二)明確算法的輔助性地位,保障決策方案的可行性

生成式人工智能在行政決策過程中只能扮演輔助角色。我們應(yīng)當(dāng)持理性的態(tài)度來看待生成式人工智能,必須看到,無論生成式人工智能在行政決策過程中能夠起到多大的作用,它最終都不能也不應(yīng)當(dāng)代替專家和智囊團(tuán),更不應(yīng)將其神化而否認(rèn)其他社會(huì)力量參與的可能性。

首先,生成式人工智能對(duì)人類的輔助作用并不是無限的?!掇k法》第15條規(guī)定在出現(xiàn)不符合要求的生成內(nèi)容時(shí),開發(fā)者應(yīng)優(yōu)化技術(shù)訓(xùn)練防止再次生成[27],這一規(guī)定體現(xiàn)了生成式人工智能算法技術(shù)的片面性,即技術(shù)訓(xùn)練需要不斷優(yōu)化才能規(guī)避可能出現(xiàn)的風(fēng)險(xiǎn)。生成式人工智能的發(fā)展將隨著人工智能的迭代而不斷升級(jí)。生成式人工智能方案自身也存在許多無法掌控的問題,比如安全方案漏洞、程序設(shè)計(jì)錯(cuò)誤、用戶信息泄露等問題。擁有自我學(xué)習(xí)和適應(yīng)性能力的生成式人工智能一旦失控,將會(huì)帶來極大的風(fēng)險(xiǎn)。一旦達(dá)到超人工智能的技術(shù)層次,那么由生成式人工智能主導(dǎo)的行政決策將可能脫逸于人類的羈絆,因出現(xiàn)失控狀態(tài)而導(dǎo)致決策安全風(fēng)險(xiǎn)[29]。對(duì)此,首先,應(yīng)當(dāng)明確哪些行政決策是生成式人工智能可以介入的,從而界定生成式人工智能輔助行政決策的范圍。在這個(gè)意義上,需要區(qū)分涉及價(jià)值與倫理判斷的決策事項(xiàng),那些重復(fù)的、無關(guān)價(jià)值的信息和事務(wù)可以交給生成式人工智能來完成[30],而那些涉及重要的價(jià)值觀和道德評(píng)判的決策就不能依賴生成式人工智能來完成。其次,在行政決策方案中內(nèi)置監(jiān)控方案,盡可能保障生成式人工智能輔助行政決策的客觀性和中立性。比如,建立技術(shù)防火墻,一旦發(fā)生重大技術(shù)或者倫理風(fēng)險(xiǎn)即可在第一時(shí)間采取緊急措施,將技術(shù)上的風(fēng)險(xiǎn)降至最低[31]。最后,用規(guī)范手段監(jiān)控生成式人工智能輔助行政決策過程,保障生成式人工智能在行政決策全過程中的可控性??傊鎸?duì)生成式人工智能輔助行政決策可能產(chǎn)生的風(fēng)險(xiǎn),行政決策部門必須為防范風(fēng)險(xiǎn)做好充分的預(yù)先演練,并制定具有前瞻性的對(duì)策,從而避免風(fēng)險(xiǎn)的發(fā)生或?qū)p失降至最低。

其次,智能行政決策方案本身必須保持一定的開放性。盡可能形成線上智能行政決策與線下專家的通力合作,最大限度降低“信息繭房”的負(fù)面效應(yīng)?!掇k法》第7條對(duì)生成式人工智能的數(shù)據(jù)做出了要求,即生成式人工智能用于預(yù)訓(xùn)練和優(yōu)化訓(xùn)練的數(shù)據(jù)應(yīng)真實(shí)準(zhǔn)確、客觀多樣[27]。這一數(shù)據(jù)來源的多樣性要求在一定程度上降低了“信息繭房”的負(fù)面效應(yīng),有助于實(shí)現(xiàn)行政決策的開放性。這種開放既包括被動(dòng)開放,也包括主動(dòng)開放。就被動(dòng)開放而言,就是行政決策要根據(jù)公民權(quán)利的需求進(jìn)行開放。在生成式人工智能輔助決策進(jìn)行關(guān)鍵問題識(shí)別時(shí),如果相關(guān)問題的解決可能會(huì)對(duì)行政相對(duì)人造成負(fù)面影響,可以根據(jù)行政相對(duì)人的需求對(duì)生成式人工智能方案的制作過程、實(shí)施結(jié)果和行為進(jìn)行詳細(xì)的立場(chǎng)闡述和理由說明。就主動(dòng)開放而言,生成式人工智能作出行政決策的理由是什么、出發(fā)點(diǎn)是什么都需要明晰。具體而言,首先應(yīng)該說明在決策過程中什么是主要的考慮因素以及各個(gè)要素所占比重;其次,在某些要素發(fā)生變化時(shí),應(yīng)該說明這種變化會(huì)不會(huì)影響到行政決策的結(jié)果;最后要說明為何相同的情形下決策會(huì)存在差異,為何在不同情形下會(huì)產(chǎn)生類似的決策。說明理由制度要求行政機(jī)關(guān)向行政相對(duì)人就生成式人工智能得出的行政決策方案的結(jié)果或行為加以解釋,認(rèn)真聽取并有效回應(yīng)行政相對(duì)人對(duì)算法輔助決策程序的質(zhì)疑。

最后,應(yīng)當(dāng)明確認(rèn)識(shí)生成式人工智能輔助決策本身的局限性,并對(duì)其局限性加以防范。生成式人工智能得出的行政決策方案是以知識(shí)庫為基礎(chǔ)展開的,它必須盡可能存儲(chǔ)相關(guān)領(lǐng)域的知識(shí)。但是,這一方案到底應(yīng)當(dāng)存儲(chǔ)哪些領(lǐng)域的知識(shí),是需要行政決策部門相關(guān)人員進(jìn)行提前設(shè)定和操作的。一旦相關(guān)人員因受到“信息繭房”的負(fù)面影響,無法對(duì)需要決策的問題進(jìn)行完整把握,知識(shí)儲(chǔ)備就可能具有局限性。因此,應(yīng)當(dāng)在人工智能方案的基礎(chǔ)上,征集相關(guān)領(lǐng)域?qū)<业囊庖?,從而進(jìn)行綜合判斷。

(三)增強(qiáng)算法的參與性,實(shí)現(xiàn)決策過程的透明化

在行政決策方案的最后確定和出臺(tái)階段,算法黑箱可能會(huì)降低行政決策的透明性。如前所述,算法黑箱的產(chǎn)生來自兩個(gè)方面:一是人為設(shè)置的,二是公眾認(rèn)知阻隔的?!掇k法》第17條規(guī)定生成式人工智能提供者應(yīng)當(dāng)提供基礎(chǔ)算法等影響用戶選擇的必要信息[27]?!痘ヂ?lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第4條規(guī)定,應(yīng)按照公正公平、公開透明的原則提供算法推薦服務(wù)[31]。增強(qiáng)算法的參與性應(yīng)從以下三個(gè)方面切入。

首先,為了防止人為設(shè)定算法黑箱情形的發(fā)生,要增強(qiáng)生成式人工智能行政決策方案應(yīng)用算法的透明性。政府部門可出臺(tái)相關(guān)政策文件,要求將算法過程公之于眾,讓公眾知道算法是怎樣發(fā)展的、算法是怎樣計(jì)算的、算法是怎樣考慮的?!掇k法》第17條、《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第16條和第17條等都規(guī)定應(yīng)向公眾提供必要算法服務(wù)。但這種公開并不意味著將所有密碼和信息都公之于眾,因?yàn)檫@樣做會(huì)帶來以下負(fù)面影響:其一,暴露個(gè)人的機(jī)密資料;其二,存在侵犯自主知識(shí)產(chǎn)權(quán)和競(jìng)爭(zhēng)優(yōu)勢(shì)風(fēng)險(xiǎn);其三,存在危害國(guó)家安全的危險(xiǎn)[32]。行政決策中的算法公開應(yīng)當(dāng)區(qū)別于一般性的算法公開,必須堅(jiān)持以主體為中心、有選擇性的算法公開原則,要弄清在使用算法確定行政決策方案的過程中,哪些相關(guān)算法數(shù)據(jù)會(huì)對(duì)主體產(chǎn)生一定影響。具體而言,行政決策算法的公開必須保證兩點(diǎn)。第一點(diǎn),算法公司將算法銷售給政府時(shí),必須把它的設(shè)計(jì)意圖和目的告訴政府,尤其是它所用到的“目標(biāo)函數(shù)”,并且把它在現(xiàn)實(shí)操作中的一些偏差和誤差如實(shí)告知政府部門。算法公司在對(duì)政府的生成式人工智能行政決策方案進(jìn)行升級(jí)的同時(shí),也要將每個(gè)版本都予以公布并對(duì)其進(jìn)行解釋,及時(shí)修正和完善算法決策運(yùn)行過程中存在的偏差,防止算法公司使用技術(shù)上的優(yōu)勢(shì)放置不適宜代碼。第二點(diǎn),算法公司對(duì)其操作程序進(jìn)行必要的說明。特別是在算法決策的過程中,應(yīng)該盡可能地將計(jì)算機(jī)語言轉(zhuǎn)換成通俗語言,讓一般民眾能夠理解,保障公民知情權(quán)。政府也要始終重視維護(hù)公民的信息權(quán)利,遵循以人為本的治理原則,不可過分地依賴算法。

其次,必須保障生成式人工智能行政決策方案出臺(tái)的程序正義,加強(qiáng)公民權(quán)利的保障和救濟(jì)?!掇k法》第11條規(guī)定了生成式人工智能開發(fā)者對(duì)用戶信息的保護(hù)義務(wù),在訓(xùn)練數(shù)據(jù)用于個(gè)人信息時(shí),開發(fā)者應(yīng)在使用前取得相關(guān)主體的同意[27]。第13條規(guī)定了用戶投訴處理機(jī)制,即生成式人工智能侵犯公民合法權(quán)益時(shí),開發(fā)者應(yīng)及時(shí)采取措施進(jìn)行阻止[27]。總之,在生成式人工智能輔助行政決策有可能損害公民合法利益的情況下,應(yīng)當(dāng)保障公民權(quán)利得到救濟(jì),如可以要求決策機(jī)關(guān)與算法的研發(fā)機(jī)構(gòu)就決策過程、推理情況等進(jìn)行解釋[33]。具體而言,應(yīng)當(dāng)從以下四個(gè)方面著手加強(qiáng)公民權(quán)利的保障和救濟(jì)。第一,要構(gòu)建預(yù)先的算法審查機(jī)制。強(qiáng)化政府算法技術(shù)人員的培訓(xùn)與甄選,組建專業(yè)機(jī)構(gòu),分析算法的執(zhí)行風(fēng)險(xiǎn),從技術(shù)層面避免算法公司利用技術(shù)優(yōu)勢(shì)帶來的潛在風(fēng)險(xiǎn)。同時(shí),邀請(qǐng)行業(yè)專家、技術(shù)研發(fā)人員與算法公司內(nèi)部人員共同研究和討論算法決策,逐漸完善生成式人工智能輔助行政決策的規(guī)則。第二,提高生成式人工智能輔助行政決策的透明度。要對(duì)有關(guān)資料和信息進(jìn)行經(jīng)常性披露,保證民眾認(rèn)識(shí)和理解生成式人工智能方案運(yùn)行情況。另外,強(qiáng)化對(duì)算法技術(shù)的解釋,使算法決策可以被理解[34]。第三,賦予個(gè)人算法解釋請(qǐng)求權(quán)或反算法決策權(quán)。也就是說,當(dāng)個(gè)體面臨自動(dòng)決策的壓迫或其合法利益被侵犯時(shí),他們有權(quán)請(qǐng)求相關(guān)政府機(jī)構(gòu)介入干預(yù)并獲得幫助。第四,疏通算法決策問責(zé)路徑。作為弱勢(shì)一方,行政相對(duì)人并不需要去研究造成問題的原因,只需要確定算法決策侵害了自己的合法權(quán)益,就可以直接向行政機(jī)關(guān)主張權(quán)利。政府不能以技術(shù)上的缺陷來逃避責(zé)任,算法公司也不能以非決策主體為由推諉責(zé)任。行政機(jī)關(guān)應(yīng)該首先承擔(dān)責(zé)任,再厘清相關(guān)算法公司的責(zé)任。

最后,參與行政決策的各方主體應(yīng)當(dāng)對(duì)生成式人工智能行政決策方案保持一定的反思性和批判性。從生成式人工智能算法的傳播以及影響來看,樂于并理所當(dāng)然接受基于算法技術(shù)而產(chǎn)生的一切成果已經(jīng)成為一種較為普遍的心理[35]。在這種情況下,應(yīng)當(dāng)提升生成式人工智能輔助行政決策過程中行政主體的敏感性和批判性。行政主體要從整體化、體系化視角出發(fā)去思考,將信息資料視為某些統(tǒng)一模式的基礎(chǔ)要素。這些信息資料相互關(guān)聯(lián),各自具有各自的含義。行政主體要把他們看作是過去和將來種種可能的象征,并注重從實(shí)際角度來看這些問題,即人們?nèi)绾翁幚硇畔?,以及信息如何能夠影響和怎樣影響著人們。行政主體最終確定行政決策方案要結(jié)合社會(huì)現(xiàn)實(shí)、公眾需求等因素對(duì)方案進(jìn)行再審視[36],從而打破生成式人工智能算法的神話。

四、結(jié)語

盡管生成式人工智能在行政決策領(lǐng)域尚未形成較為成熟的探索,但對(duì)生成式人工智能治理的公平性、透明性、過度依賴性的思考仍然可以未雨綢繆。對(duì)此,未來應(yīng)理性對(duì)待傳統(tǒng)行政治理和生成式人工智能治理的關(guān)系,強(qiáng)化算法歧視治理、明確算法輔助地位、增強(qiáng)算法的參與性,實(shí)現(xiàn)決策的公正性、人本性以及可理解性,探索新的融合發(fā)展路徑,有效發(fā)揮生成式人工智能促進(jìn)、彌補(bǔ)傳統(tǒng)行政治理不足的積極作用。

參考文獻(xiàn):

[1] 畢文軒.生成式人工智能的風(fēng)險(xiǎn)規(guī)制困境及其化解:以ChatGPT的規(guī)制為視角[J].比較法研究,2023(3):155-172.

[2] 鄭世林,姚守宇,王春峰.ChatGPT新一代人工智能技術(shù)發(fā)展的經(jīng)濟(jì)和社會(huì)影響[EB/OL].(2023-06-10)[2023-06-15].https://kns.cnki.net/kcms2/article/abstract?v=3uoqIhG8C44YLTlOAiTRKu87-SJxoEJu6LL9TJzd50l1jzNslT_LxKokpq5nMgcR_ihRELbph6AB6k5jWMqEUpf-dkRsWm-A&uniplatform=NZKPT.

[3] 搜狐網(wǎng).率先通過備案 首批大模型公司有8家 可正式提供服務(wù)[EB/OL].(2023-08-31)[2023-09-01].https://www.sohu.com/a/716427338_114822.

[4] 於興中,鄭戈,丁曉東.生成式人工智能與法律的六大議題:以ChatGPT為例[J].中國(guó)法律評(píng)論,2023(2):1-20.

[5] 馬長(zhǎng)山.智能互聯(lián)網(wǎng)時(shí)代的法律變革[J].法學(xué)研究,2018(4):20-38.

[6] 余成峰.法律的死亡:人工智能時(shí)代的法律功能危機(jī)[J].華東政法大學(xué)學(xué)報(bào),2018(2):5-20.

[7] 阮夢(mèng)君.電子政務(wù):傳統(tǒng)行政與現(xiàn)代行政的耦合[J].生產(chǎn)力研究,2009(19):64-66.

[8] 趙友華.人工智能時(shí)代優(yōu)化民生政治參與的算法邏輯[J].寧夏社會(huì)科學(xué),2019(5):49-57.

[9] 王萬良.人工智能及其應(yīng)用[M].北京:高等教育出版社,2005:160.

[10] 張書玉.論我國(guó)行政決策的現(xiàn)代化[J].甘肅社會(huì)科學(xué),2017(3):226-230.

[11] 曾國(guó)平,王福波.論公民參與視角下我國(guó)公共決策機(jī)制的完善[J].云南社會(huì)科學(xué),2008(3):27-30.

[12] 周智博.ChatGPT模型引入我國(guó)數(shù)字政府建設(shè):功能、風(fēng)險(xiǎn)及其規(guī)制[J].山東大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2023(3):1-11.

[13] Soyoung Yoo, Sunghee Lee, Seongsin Kim, et al. Integrating Deep Learning into CAD/CAE System: Generative Design and Evaluation of 3D Conceptual Wheel[J]. Structural and Multidisciplinary Optimization,2021(4): 2725-2747.

[14] 呂榮杰,郝力曉.中國(guó)人工智能發(fā)展水平、區(qū)域差異及分布動(dòng)態(tài)演進(jìn)[J].科技進(jìn)步與對(duì)策,2021(24):76-84.

[15] 黃雨晴.中國(guó)數(shù)字鴻溝的成因與賦權(quán)式治理[J].學(xué)習(xí)與實(shí)踐,2022(9):23-33.

[16] 陳永偉.超越ChatGPT:生成式AI的機(jī)遇、風(fēng)險(xiǎn)與挑戰(zhàn)[J].山東大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2023(3):1-18.

[17] 肖紅軍,商慧辰.平臺(tái)算法監(jiān)管的邏輯起點(diǎn)與思路創(chuàng)新[J].改革,2022(8):38-56.

[18] 汝緒華.算法政治:風(fēng)險(xiǎn)、發(fā)生邏輯與治理[J].廈門大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2018(6):27-38.

[19] 陳偉光,袁靜.人工智能全球治理:基于主體、結(jié)構(gòu)和機(jī)制的分析[J].國(guó)際觀察,2018(4):23-37.

[20] 張旺,劉戟鋒.技術(shù)倫理學(xué)視域下的網(wǎng)絡(luò)安全規(guī)范路徑:以人工智能為例[J].湖湘論壇,2018(2):130-136.

[21] 申海波,韓璞庚.人工智能背景下的治理變遷及其路徑選擇[J].求索,2018(6):74-81.

[22] 成龍,王楠.數(shù)字異化:表象、根源及其破解途徑[J].中國(guó)地質(zhì)大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2022(6):1-11.

[23] 陳昌鳳,張夢(mèng).智能時(shí)代的媒介倫理:算法透明度的可行性及其路徑分析[J].新聞與寫作,2020(8):75-83.

[24] Sam Bond-Taylor, Adam Leach, Yang Long, et al. Deep Generative Modelling: A Comparative Review of Vaes, Gans, Normalizing Flows, Energy based and Autoregressive Models[J]. MIEEE Transactions on Pattern Analysis and Machine Intelligence,2022(44):11.

[25] 陳峰,王利榮.個(gè)人信息“知情同意權(quán)”的功能檢視與完善進(jìn)路[J].廣西社會(huì)科學(xué),2021(8):106-111.

[26 ] 宋亞輝,陳榮昌.整體治理:算法風(fēng)險(xiǎn)治理的優(yōu)化路徑[J].學(xué)習(xí)與實(shí)踐,2022(7):35-45.

[27] 中國(guó)政府網(wǎng).生成式人工智能服務(wù)管理辦法[EB/OL].(2023-07-10)[2023-07-25].https://www.gov.cn/zhengce/zhengceku/202307/content_6891752.htm.

[28] 顏佳華.提升政府治理算法決策公平性的機(jī)制與路徑[J].行政論壇,2022(3):34-40.

[29] 李青文.科技倫理視闕下人工智能法律主體地位之否定:以機(jī)器能否具備自由意志能力為分析路徑[J].科學(xué)管理研究,2022(2):40-48.

[30] 唐代興,王燦.人工智能:無限開發(fā)與有限理性的倫理博弈[J].天府新論,2022(6):39-52.

[31] 中國(guó)政府網(wǎng).互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定[EB/OL].(2022-11-26)[2023-06-25].https://www.gov.cn/gongbao/content/2022/content_5682428.htm .

[32] Paul B. de Laat. Big Data and Algorithmic Decision-Making[J]. ACM SIGCAS Computers and Society, 2017(47): 39-53.

[33] 宋華琳,孟李冕.人工智能在行政治理中的作用及其法律控制[J].湖南科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2018(6):82-90.

[34] Mps, Lords and offices. AI in the UK: ready, willing and able? [EB/OL].(2017-04-16)[2023-06-25]. https://publications.parliament.uk,/,pa,/,ld201719,/,ldselect,/,ldai,/100,/100.pdf.

[35] 羅俊.網(wǎng)絡(luò)信息傳播安全的核心議題:互聯(lián)網(wǎng)時(shí)代的認(rèn)知操縱及應(yīng)對(duì)策略[J].學(xué)術(shù)論壇,2021(2):25-40.

[36] 毛湛文,孫曌聞.從“算法神話”到“算法調(diào)節(jié)”:新聞透明性原則在算法分發(fā)平臺(tái)的實(shí)踐限度研究[J].國(guó)際新聞界,2020(7):6-25.

責(zé)任編輯:楊葉紅

收稿日期:2023-09-15

作者簡(jiǎn)介:房嬌嬌,女,遼寧鞍山人,遼寧科技大學(xué)經(jīng)濟(jì)與法律學(xué)院副教授,主要研究方向:行政法與經(jīng)濟(jì)法;高天書,男,山東滕州人,中國(guó)政法大學(xué)“2011”計(jì)劃司法文明協(xié)同創(chuàng)新中心博士研究生,主要研究方向:司法文明。

猜你喜歡
生成式人工智能算法
生成式人工智能的教育啟示:讓每個(gè)人成為他自己
挑戰(zhàn)·融合·變革:“ChatGPT與未來教育”會(huì)議綜述
生成式人工智能時(shí)代的政治傳播走向
黨政研究(2023年3期)2023-05-29 01:10:39
生成式人工智能重塑教育及教師應(yīng)對(duì)之道
人機(jī)共生時(shí)代國(guó)際傳播的理念升維與自主敘事體系構(gòu)建
生成式人工智能的教育應(yīng)用與展望
基于MapReduce的改進(jìn)Eclat算法
Travellng thg World Full—time for Rree
進(jìn)位加法的兩種算法
算法初步兩點(diǎn)追蹤
彩票| 贵州省| 周口市| 永顺县| 阳朔县| 任丘市| 聊城市| 浪卡子县| 大英县| 阿拉尔市| 海盐县| 通江县| 库伦旗| 仙桃市| 武鸣县| 达日县| 班玛县| 伊宁县| 灵寿县| 宜兰市| 曲靖市| 孟州市| 二连浩特市| 汨罗市| 新沂市| 察哈| 措勤县| 永修县| 台中县| 顺昌县| 云林县| 莒南县| 台东县| 永泰县| 增城市| 元朗区| 福州市| 仙居县| 通榆县| 辽阳县| 尼木县|