国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

生成式人工智能(AIGC)的社會風(fēng)險(xiǎn)及治理研究*

2024-06-10 17:09魏曉光趙珂旋樓俊濤
南方農(nóng)機(jī) 2024年9期
關(guān)鍵詞:鴻溝人工智能數(shù)字

魏曉光 ,趙珂旋 ,呂 菲 ,樓俊濤

(河北金融學(xué)院,河北 保定 071000)

Chat GPT(Chat Generative Pre-trained Transformer)的產(chǎn)生和發(fā)展引發(fā)全球矚目,隨著其與各個行業(yè)交互的不斷擴(kuò)展和延伸,生成式人工智能(AIGC)的時代即將到來,并將深刻影響社會的各個領(lǐng)域。生成式人工智能與判別式人工智能主要區(qū)別在于:生成式人工智能可以生成新的內(nèi)容,而判別式人工智能主要是對歷史數(shù)據(jù)進(jìn)行分析判斷。本研究將分析以ChatGPT為代表的生成式人工智能會帶來哪些風(fēng)險(xiǎn),在面對這些風(fēng)險(xiǎn)時應(yīng)如何去尋找破解之路。

1 生成式人工智能的風(fēng)險(xiǎn)點(diǎn)

以ChatGPT 為代表的生成式人工智能賦能社會發(fā)展益處頗多,同時面臨挑戰(zhàn)與風(fēng)險(xiǎn)。

1.1 虛假信息泛濫

ChatGPT 作為人工智能技術(shù)自然語言處理工具,可能引發(fā)捏造事實(shí)、抄襲內(nèi)容等現(xiàn)象,進(jìn)而引發(fā)社會虛假信息泛濫危機(jī)[1]。ChatGPT 不具備人的價(jià)值和倫理觀念,它所輸出的信息也不一定具有社會應(yīng)用價(jià)值,甚至可能有違真實(shí)性。雖然大多數(shù)人都肯定生成式人工智能帶給人類的便利,但是完全利用人工智能來解決生活中的問題,或許會引起更加混亂的局面。利用ChatGPT 可能還會引發(fā)學(xué)術(shù)造假、行業(yè)競爭不公、虛假信息泛濫等危害社會秩序的現(xiàn)象。

雖然ChatGPT 可以為人類帶來更加智能化的體驗(yàn),但是它的智能化程度目前仍然有限,尤其是在知識理解和應(yīng)用方面,ChatGPT 可以通過大量的訓(xùn)練數(shù)據(jù)不斷提高自己的服務(wù)能力,卻無法達(dá)到人類的思考高度和對事物的理解程度[2]。因此,在某些高度復(fù)雜和專業(yè)化的領(lǐng)域,人類的經(jīng)驗(yàn)仍然無法被替代,當(dāng)面對一些復(fù)雜的問題或者情境時,通過ChatGPT 獲得的解答僅僅是為了回應(yīng)此問題,并不能真正理解問題的內(nèi)在含義,某些時候它只能捏造出沒有任何事實(shí)依據(jù)的結(jié)果“應(yīng)付”使用者,而這種現(xiàn)象很有可能給金融、醫(yī)療等相關(guān)領(lǐng)域帶來嚴(yán)重的損失。

1.2 個人隱私泄露

個人信息隱私安全問題是以ChatGPT 為代表的生成式人工智能不得不面對的風(fēng)險(xiǎn),公民的個人隱私和國家安全息息相關(guān)。在使用ChatGPT 等生成式人工智能時,保護(hù)用戶的數(shù)據(jù)安全與隱私問題同樣面臨著諸多挑戰(zhàn)。

首先,訓(xùn)練模型需要通過大量的數(shù)據(jù)處理來學(xué)習(xí)人類語言模式,這些學(xué)習(xí)演練數(shù)據(jù)可能包含用戶的部分敏感信息。社會群體依靠以ChatGPT 為代表的生成式人工智能獲取大量數(shù)據(jù)信息,所需要的數(shù)據(jù)規(guī)模巨大且復(fù)雜,由此可能會引發(fā)知識產(chǎn)權(quán)歸屬問題[3]。模型的訓(xùn)練數(shù)據(jù)大多來自互聯(lián)網(wǎng),其中可能包含未經(jīng)授權(quán)的個人信息,生成式人工智能主要通過計(jì)算機(jī)檢索功能獲取數(shù)據(jù),數(shù)據(jù)的收集和生成過程存在“黑箱”問題,數(shù)據(jù)獲取的途徑無法判斷是否正當(dāng)合理,獲取的數(shù)據(jù)也無法判斷是否涉及知識產(chǎn)權(quán)等問題。例如,社會群體用ChatGPT 時可能會涉及那些未被法律賦予使用權(quán)利的數(shù)據(jù),那么使用該數(shù)據(jù)就違反了相關(guān)法律,侵犯了他人的權(quán)利和隱私。

其次,使用ChatGPT 生成的內(nèi)容可能會包含算法訓(xùn)練數(shù)據(jù)中的某些片段,從而導(dǎo)致信息泄露。生成式人工智能時代到來之后,社會群體利用以ChatGPT為代表的生成式人工智能極大地便捷了作品的創(chuàng)作,但用戶在使用ChatGPT 時就是在向其提供數(shù)據(jù),在此過程中存在著個人數(shù)據(jù)泄露的風(fēng)險(xiǎn)。例如,社會群體在對ChatGPT 進(jìn)行詢問的同時,ChatGPT 會收集大量與用戶相關(guān)的數(shù)據(jù),此過程會涉及大量個人信息方面的數(shù)據(jù),容易衍生一系列的個人隱私安全問題。

最后,黑客可能通過生成式人工智能更加快捷地獲取用戶數(shù)據(jù),這對用戶隱私構(gòu)成了極大的潛在威脅。黑客可以通過ChatGPT 等生成式人工智能編寫的代碼攻擊網(wǎng)絡(luò)用戶[4],這將降低網(wǎng)絡(luò)攻擊者的技術(shù)門檻,擴(kuò)大惡意黑客的群體規(guī)模,最終使網(wǎng)絡(luò)環(huán)境愈加惡劣。

1.3 技術(shù)依賴問題

生成式人工智能的廣泛發(fā)展會降低人的創(chuàng)造性思維能力,沖擊人的主導(dǎo)地位。機(jī)器是人類創(chuàng)造出來的,它所具備的思維能力也是對于人類行為的學(xué)習(xí)與模仿,每次技術(shù)革新都離不開人類的創(chuàng)造,這是機(jī)器所不能完成的。以ChatGPT 為代表的新技術(shù)的產(chǎn)生在一定程度上可以簡化人類的思考過程,但如果過度依賴此類技術(shù),就會掉進(jìn)“省力原則”的陷阱。例如在教育領(lǐng)域,學(xué)生完成作業(yè)時可能會使用ChatGPT作弊[5],將使得教育體系失去相對應(yīng)的公正性和平衡性,導(dǎo)致教育不公平,而學(xué)生長期缺乏獨(dú)立思考能力,有可能造成學(xué)生群體產(chǎn)生技術(shù)依賴性。這種“技術(shù)依賴”的產(chǎn)生,會導(dǎo)致人的自主性、批判性、創(chuàng)造性思維退化。

在信息爆炸的時代,人類免不了利用工具篩選并處理大量的信息。生成式人工智能的優(yōu)點(diǎn)便是強(qiáng)大的信息處理能力,它為人類提供了更加便捷和迅速的信息收集和處理方式,節(jié)約了人類在一些信息上所需要耗費(fèi)的時間,但長此以往,人們便會不假思索地利用技術(shù)來解決一切問題,從而被技術(shù)手段所禁錮。

1.4 數(shù)字鴻溝問題

數(shù)字鴻溝就是信息鴻溝,隨著生成式人工智能大規(guī)模的迭代更新,以技術(shù)鴻溝、算法鴻溝為代表的新型數(shù)字鴻溝將提高新一輪的數(shù)字不平等現(xiàn)象發(fā)生的可能性,而ChatGPT的出現(xiàn)與發(fā)展在某種程度上加深了城鄉(xiāng)數(shù)字鴻溝[6]。一方面,部分地區(qū)經(jīng)濟(jì)發(fā)展水平相對落后,沒有健全的數(shù)字基礎(chǔ)建設(shè),使得其無法接觸到生成式模型等先進(jìn)的人工智能技術(shù),從而進(jìn)一步拉大了城鄉(xiāng)間的差距。另一方面,生成式人工智能模型在訓(xùn)練時需要巨大的數(shù)據(jù)庫和極強(qiáng)的算法能力,運(yùn)行成本巨大,使得此類技術(shù)手段只被小部分人控制,而集中的控制能力使得此領(lǐng)域形成壟斷,從而擴(kuò)大了城鄉(xiāng)數(shù)字鴻溝問題。城鄉(xiāng)本身經(jīng)濟(jì)發(fā)展的不平衡,造成了存在于地區(qū)間經(jīng)濟(jì)發(fā)展、教育水平、信息接受能力等的不同程度的不平衡。生成式人工智能有可能加大城市與城市、城市與鄉(xiāng)村、鄉(xiāng)村與鄉(xiāng)村之間的不公平性。

2 生成式人工智能賦能社會發(fā)展風(fēng)險(xiǎn)點(diǎn)的治理

生成式人工智能助力社會發(fā)展時所產(chǎn)生風(fēng)險(xiǎn)的治理是一個開放性的、國際性的問題,必須通過廣泛的國際合作來達(dá)成共識,從而確定生成式人工智能賦能社會發(fā)展的基本原則,形成一個完備的治理體系。應(yīng)從治理理念、數(shù)據(jù)合規(guī)、技術(shù)基礎(chǔ)、服務(wù)保障等多個方面來進(jìn)行防范治理。

2.1 治理理念方面

首先,遵循敏捷治理理念。簡而言之就是要在時代發(fā)展的進(jìn)程中逐步針對以ChatGPT 為代表的生成式人工智能所存在的問題,進(jìn)行及時、有效的調(diào)整,而不是根據(jù)所制定的長期計(jì)劃進(jìn)行改變。這就要求該技術(shù)的監(jiān)管部門時刻注意生成式人工智能發(fā)展和使用的過程,做到實(shí)時跟蹤、動態(tài)監(jiān)測,推動企業(yè)可持續(xù)發(fā)展,將潛在的負(fù)面影響控制到最小狀態(tài)。具體應(yīng)做好以下幾方面的工作:1)完善生成式人工智能平臺內(nèi)部的組織機(jī)構(gòu),利用有效的排查手段調(diào)動全平臺、全方面進(jìn)行監(jiān)測。2)在用戶使用前統(tǒng)一簽訂用戶使用規(guī)范說明,對用戶的使用進(jìn)行嚴(yán)格規(guī)范,對其中出現(xiàn)的一些不符合規(guī)定的內(nèi)容進(jìn)行強(qiáng)制性刪除,對于那些嚴(yán)重違反規(guī)定的用戶進(jìn)行永久拉黑處理。3)監(jiān)管部門可在正式運(yùn)行前進(jìn)行小規(guī)模內(nèi)測,或者請第三方機(jī)構(gòu)對于平臺的運(yùn)行進(jìn)行評價(jià)和漏洞審查。

其次,遵循終身學(xué)習(xí)理念。生成式人工智能技術(shù)的廣泛應(yīng)用為社會帶來諸多便利的同時,也因部分用戶對其過分依賴逐漸喪失自主性[7],從而對社會發(fā)展造成負(fù)面影響。面對部分用戶對ChatGPT 技術(shù)的過分依賴問題,需要人們樹立終身學(xué)習(xí)的理念,理性使用作為新時代勞動工具的ChatGPT。為了跟上時代的發(fā)展步伐,人們需要積極參與數(shù)字教育和培訓(xùn),不斷構(gòu)建和完善自身的數(shù)字化知識體系,培養(yǎng)數(shù)字思維,以適應(yīng)數(shù)字化時代的發(fā)展需求。

2.2 數(shù)據(jù)合規(guī)方面

政府及相關(guān)監(jiān)管部門應(yīng)從管理機(jī)制、技術(shù)手段以及責(zé)任規(guī)范三個方面不斷健全和完善數(shù)據(jù)合規(guī)建設(shè),統(tǒng)籌治理虛假信息、個人隱私泄露和技術(shù)依賴問題,為生成式人工智能行業(yè)的健康發(fā)展保駕護(hù)航。

在管理機(jī)制上,政府及監(jiān)管部門應(yīng)建立完備的法律體系,堅(jiān)持“倫理先行”原則,應(yīng)明確落實(shí)落細(xì)《中華人民共和國個人信息保護(hù)法》《中華人民共和國網(wǎng)絡(luò)安全法》《互聯(lián)網(wǎng)信息服務(wù)管理辦法》等的相關(guān)規(guī)定。政府監(jiān)管部門應(yīng)密切追蹤生成式人工智能的發(fā)展態(tài)勢,加強(qiáng)對生成式人工智能相關(guān)設(shè)備和行為的監(jiān)管能力,以確保個人隱私和數(shù)據(jù)得到法律保護(hù)[8],保障個人信息記錄及使用的合法性,監(jiān)控?cái)?shù)據(jù)的來源并審核其真實(shí)性,防止虛假、錯誤等不符合法律規(guī)范的信息進(jìn)入生成式人工智能模型。

在技術(shù)手段上,要加強(qiáng)生成式人工智能技術(shù)的研發(fā)和管理,對個人隱私信息和虛假信息等數(shù)據(jù)進(jìn)行監(jiān)測。通過聚焦個人隱私和虛假信息等維度,提高治理手段的智能化水平,降低生成式人工智能造成的數(shù)據(jù)和隱私泄漏風(fēng)險(xiǎn),并有效識別虛假信息,增強(qiáng)生成式人工智能技術(shù)的透明度,避免獲取數(shù)據(jù)時出現(xiàn)“黑箱”問題。

在責(zé)任規(guī)范上,政府及監(jiān)管部門應(yīng)明確ChatGPT等生成式人工智能各個主體的責(zé)任[9],并對各個主體提出數(shù)據(jù)規(guī)范要求,使技術(shù)開發(fā)方、提供方和使用方各司其職,各自承擔(dān)相應(yīng)的義務(wù)與責(zé)任。具體而言,使用方在使用生成式人工智能過程中,要加強(qiáng)信息識別能力,時刻保持警惕,不輸入敏感的數(shù)據(jù)信息,如密碼、銀行賬戶信息、個人身份證件號碼等,并定期清除在ChatGPT 中的聊天記錄,以減少信息泄露的風(fēng)險(xiǎn)。構(gòu)建多主體的數(shù)據(jù)監(jiān)管體系,有助于監(jiān)管部門在監(jiān)管過程中提高監(jiān)管效率,動態(tài)跟蹤數(shù)據(jù)并實(shí)時調(diào)整治理手段。

2.3 技術(shù)基礎(chǔ)方面

為從根本上治理以ChatGPT 為代表的生成式人工智能技術(shù)擴(kuò)大城鄉(xiāng)數(shù)字鴻溝問題,避免生成式人工智能產(chǎn)生的個人隱私泄露風(fēng)險(xiǎn)和虛假信息,政府和相關(guān)企業(yè)應(yīng)從數(shù)字基礎(chǔ)建設(shè)、數(shù)據(jù)算法規(guī)制等方面采取相應(yīng)措施來提升生成式人工智能的技術(shù)基礎(chǔ)。

針對生成式人工智能擴(kuò)大城鄉(xiāng)數(shù)字鴻溝問題,政府應(yīng)加大對鄉(xiāng)村數(shù)字基礎(chǔ)建設(shè)的投入,加快5G 技術(shù)、生成式人工智能技術(shù)、云計(jì)算等數(shù)字化設(shè)施的布局,并提高數(shù)字技術(shù)的可訪問性和可用性。這有利于農(nóng)民將ChatGPT 等生成式人工智能技術(shù)和農(nóng)業(yè)生產(chǎn)結(jié)合,及時獲取有效的農(nóng)業(yè)信息,同時對農(nóng)業(yè)布局作出合理的生產(chǎn)調(diào)整,提高農(nóng)業(yè)生產(chǎn)效率,進(jìn)而推動鄉(xiāng)村經(jīng)濟(jì)發(fā)展,縮小城鄉(xiāng)數(shù)字鴻溝。

針對生成式人工智能產(chǎn)生的個人隱私泄露和虛假信息問題,一方面,從數(shù)據(jù)算法設(shè)計(jì)出發(fā),通過大量的模擬預(yù)訓(xùn)練,加強(qiáng)算法技術(shù)中對數(shù)據(jù)的審核及過濾,使得數(shù)據(jù)的抓取和訓(xùn)練過程更加合規(guī)有序[10],防止未授權(quán)的個人信息被錄入,以降低個人信息泄露風(fēng)險(xiǎn)。另一方面,在數(shù)據(jù)算法應(yīng)用過程中,通過用戶的數(shù)據(jù)反饋,及時改進(jìn)數(shù)據(jù)算法的設(shè)計(jì),使生成式人工智能提高數(shù)據(jù)理解能力,不斷進(jìn)行優(yōu)化處理,糾正數(shù)據(jù)算法中違背道德倫理的信息。

2.4 服務(wù)保障方面

生成式人工智能在發(fā)展和應(yīng)用過程中,應(yīng)當(dāng)彌合數(shù)字鴻溝,強(qiáng)化對用戶個人隱私的保護(hù),加強(qiáng)數(shù)據(jù)的真實(shí)可靠性。首先,針對城鄉(xiāng)數(shù)字鴻溝問題,政府應(yīng)加快構(gòu)建鄉(xiāng)村數(shù)字化人才教育保障體系,促使鄉(xiāng)村居民認(rèn)識到數(shù)字化教育的重要性,同時實(shí)施人才激勵政策,吸引新青年返鄉(xiāng)創(chuàng)業(yè),從而提高鄉(xiāng)村數(shù)字化教育程度,縮小城鄉(xiāng)差距。其次,為保障系統(tǒng)和信息安全,應(yīng)根據(jù)生成式人工智能產(chǎn)業(yè)鏈的運(yùn)作流程明確上下游企業(yè)的相關(guān)義務(wù)與責(zé)任,上游企業(yè)負(fù)責(zé)維護(hù)生成式人工智能的系統(tǒng)安全,下游企業(yè)負(fù)責(zé)保障數(shù)據(jù)內(nèi)容的安全性和準(zhǔn)確性,同時上下游企業(yè)應(yīng)建立健全生成式人工智能中生成不符合倫理規(guī)范內(nèi)容的阻斷機(jī)制。生成式人工智能的上下游企業(yè)分工合作,共同保障用戶的個人隱私安全和所產(chǎn)生數(shù)據(jù)的真實(shí)性。

3 結(jié)語

以ChatGPT 為代表的生成式人工智能的大規(guī)模興起,將對人們的生活和社會的發(fā)展產(chǎn)生巨大的影響。生成式人工智能和社會發(fā)展之間存在密切的關(guān)系,在推動生成式人工智能發(fā)展的同時,需要充分考慮其對社會發(fā)展的負(fù)面影響。面對新技術(shù)帶來的風(fēng)險(xiǎn),與其排斥,不如學(xué)會利用新技術(shù),化危為機(jī)迎難而上,充分發(fā)揮人類的主觀能動性,將生成式人工智能掌握在自己手中。

猜你喜歡
鴻溝人工智能數(shù)字
婚姻不是用來填補(bǔ)鴻溝的
2019:人工智能
人工智能與就業(yè)
答數(shù)字
鴻溝為界
數(shù)讀人工智能
數(shù)字看G20
下一幕,人工智能!
真實(shí):作文難以逾越的鴻溝嗎?
讓學(xué)生都跨過說話的“鴻溝”