孫洪艷 謝政恩 袁郭萍
DOI:10.16660/j.cnki.1674-098X.2106-5640-3219
摘? 要:隨著人工智能在社會(huì)各行業(yè)的不斷發(fā)展融合,智能技術(shù)給社會(huì)生產(chǎn)生活帶來便利的同時(shí)又伴隨著一系列的社會(huì)風(fēng)險(xiǎn)。通過對(duì)人工智能技術(shù)應(yīng)用現(xiàn)狀的分析,從個(gè)人層面和社會(huì)層面提出人工智能帶來的社會(huì)挑戰(zhàn)。在對(duì)人工智能風(fēng)險(xiǎn)挑戰(zhàn)分析的基礎(chǔ)上,提出風(fēng)險(xiǎn)防范機(jī)制和措施,并從技術(shù)研發(fā)、社會(huì)應(yīng)用及風(fēng)險(xiǎn)治理三方面構(gòu)建了人工智能風(fēng)險(xiǎn)防范路徑,形成了人工智能應(yīng)用風(fēng)險(xiǎn)防范體系。
關(guān)鍵詞:社會(huì)穩(wěn)定 人工智能? 風(fēng)險(xiǎn)分析 防范路徑
中圖分類號(hào):TP18? ? ? ? ? ? ? ? ? ? ? ? ? ? 文獻(xiàn)標(biāo)識(shí)碼:A? ? ? ? ? ? ? ? ? 文章編號(hào):1674-098X(2021)06(b)-0082-05
Risk prevention of artificial intelligence application based on the perspective of social stability
SUN Hongyan XIE Zhengen YUAN Guoping
(Southwest Medical University, Luzhou, Sichuan? Province, 646000? China)
Abstract: With the continuous development and integration of artificial intelligence in various social industries, intelligent technology not only brings convenience to social production and life, but also accompanied by a series of social risks. Through the analysis of the application status of artificial intelligence technology, this paper puts forward the social challenges brought by artificial intelligence from the personal and social levels. Based on the analysis of the risk challenge of artificial intelligence, this paper puts forward the risk prevention mechanism and measures, constructs the risk prevention path of artificial intelligence from the three aspects of technology R & D, social application and risk governance, and forms the risk prevention system of artificial intelligence application.
Key Words: Social stability; Artificial intelligence; Risk analysis; Prevention path
信息技術(shù)的發(fā)展促使人工智能時(shí)代的到來,以物聯(lián)網(wǎng)為基礎(chǔ)的人工智能被廣泛的應(yīng)用于工業(yè)制造、醫(yī)療健康、家庭助手、金融與商業(yè)等領(lǐng)域。人工智能技術(shù)日漸成熟,計(jì)算機(jī)深度學(xué)習(xí)與邊緣計(jì)算、5G技術(shù)等也進(jìn)入快速融合發(fā)展時(shí)期,人工智能正逐步進(jìn)入社會(huì)大眾的日常生活之中,其廣闊的發(fā)展前景也得到公眾和社會(huì)的認(rèn)可。智能應(yīng)用和社會(huì)生產(chǎn)生活不斷地融合使得工作生活便利的同時(shí),也因智能產(chǎn)品自身感知能力等原因,引發(fā)了安全和風(fēng)險(xiǎn)的很多負(fù)面問題,如智能設(shè)備劫持、虛擬語音詐騙、智能網(wǎng)絡(luò)攻擊等[1]。同時(shí),人工智能的自主性發(fā)展到一定程度機(jī)器會(huì)擁有自主意識(shí),可能會(huì)致使人工智能失去控制,對(duì)人類社會(huì)造成威脅。這些問題和威脅促使對(duì)人工智能應(yīng)用風(fēng)險(xiǎn)和防范進(jìn)行研究,期望維護(hù)社會(huì)安全的同時(shí)填補(bǔ)人工智能應(yīng)用規(guī)范化方面的空白,這對(duì)社會(huì)穩(wěn)定和人工智能的健康發(fā)展具有重要的意義。
1? ?人工智能社會(huì)化發(fā)展
人工智能的起源是在20世紀(jì)50年代,由馬文·明斯基和鄧恩·埃德蒙所建造的世界上第一臺(tái)神經(jīng)網(wǎng)絡(luò)計(jì)算機(jī),因此馬文·明斯基也被后人稱為人工智能之父。1956年達(dá)特茅斯會(huì)議上,計(jì)算機(jī)專家約翰·麥卡錫首次提出“人工智能”一詞,標(biāo)志著人工智能的正式誕生,此后十余年的時(shí)間人工智能得到了迅速發(fā)展。但自20世紀(jì)70年代以后,由于科研人員在人工智能研究中對(duì)項(xiàng)目難度預(yù)估不足,導(dǎo)致人工智能的發(fā)展受到限制[2]。直到20世界90年代,隨著神經(jīng)網(wǎng)絡(luò)的逐步發(fā)展,人工智能在模式識(shí)別和智能預(yù)測(cè)方面得到突破。在此之后,得益于計(jì)算機(jī)硬件技術(shù)發(fā)展和算法的不斷改進(jìn),人工智能在社會(huì)生活中的應(yīng)用也不斷深入,如人臉識(shí)別、智能搜索、自動(dòng)駕駛等,使得公眾生活享受到極大便利。人工智能的發(fā)展應(yīng)用給社會(huì)各行業(yè)帶來了新的發(fā)展機(jī)遇,也催生了新的經(jīng)濟(jì)增長(zhǎng)點(diǎn)。與此同時(shí),人工智能的應(yīng)用也造成了一定的社會(huì)安全隱患。某知名智能人臉識(shí)別系統(tǒng)曾遭攻擊者侵入管理端,通過程序修改致使人臉識(shí)別門禁失效,任何人臉都可以通過門禁。2018年在上海召開的世界人工智能大會(huì),社會(huì)安全風(fēng)險(xiǎn)再次和網(wǎng)絡(luò)安全風(fēng)險(xiǎn)、信息安全風(fēng)險(xiǎn)和國(guó)家安全風(fēng)險(xiǎn)等被提出和強(qiáng)調(diào)。
根據(jù)自主學(xué)習(xí)程度,人工智能的應(yīng)用可以分為弱人工智能(Weak AI)、強(qiáng)人工智能(Strong AI)、超人工智能(Super Intelligence)3個(gè)級(jí)別[3]。弱人工智能只能應(yīng)用于解決某一特定領(lǐng)域問題,是具有限制性的人工智能。強(qiáng)人工智能指的是可以勝任人類所有工作的人工智能,也稱為完全人工智能。超人工智能是指通過計(jì)算機(jī)程序的不斷發(fā)展,所產(chǎn)生的比人類天賦更高的人工智能系統(tǒng)。目前,人工智能在社會(huì)中的應(yīng)用處于完成簡(jiǎn)單指令的弱人工智能階段。有學(xué)者指出,處于弱人工智能階段的智能應(yīng)用一旦與人類的一般智力相匹配,可能會(huì)迅速超越人類智慧,產(chǎn)生所謂的“超級(jí)人工智能”,對(duì)社會(huì)生產(chǎn)及人類安全形成巨大威脅[3]。人工智能的發(fā)展給社會(huì)生產(chǎn)生活帶來了極大的便利和不可預(yù)知的潛在風(fēng)險(xiǎn),在享受人工智能技術(shù)帶來的便利的同時(shí)規(guī)避智能應(yīng)用的風(fēng)險(xiǎn),已成為亟待當(dāng)今眾多學(xué)者研究解決的熱點(diǎn)問題。
2? 人工智能對(duì)社會(huì)穩(wěn)定的挑戰(zhàn)
面對(duì)人工智能技術(shù)的迅猛發(fā)展和失控風(fēng)險(xiǎn),霍金曾警告世人,人類的貪婪和無知將不可避免的催生出“流氓人工智能系統(tǒng)”[4]。人工智能具有以往任何技術(shù)所不具備的自主性的特征,自主性為人工智能解決問題帶來可控制和可預(yù)見性,這也是人工智能所帶來社會(huì)風(fēng)險(xiǎn)主要原因所在。為系統(tǒng)全面的分析人工智能應(yīng)用帶來的風(fēng)險(xiǎn),下面從個(gè)人層面和社會(huì)層面2個(gè)維度對(duì)人工智能影響社會(huì)穩(wěn)定的相關(guān)風(fēng)險(xiǎn)進(jìn)行分類評(píng)述。
2.1 個(gè)人層面的挑戰(zhàn)
2.1.1 加速個(gè)人數(shù)據(jù)信息的泄露風(fēng)險(xiǎn)
伴隨著基于傳感器、物聯(lián)網(wǎng)等智能設(shè)備應(yīng)用的增多,致使應(yīng)用于人工智能問題處理以及決策的數(shù)據(jù)也越來越多。智能設(shè)備上的社交、行程、支付等方面非結(jié)構(gòu)化數(shù)據(jù)的增多,個(gè)人數(shù)據(jù)經(jīng)常被過度的采集應(yīng)用,導(dǎo)致個(gè)人隱私數(shù)據(jù)被泄露。2019年國(guó)內(nèi)某智能家居公司產(chǎn)品數(shù)據(jù)庫(kù),在物聯(lián)網(wǎng)管理平臺(tái)無任何密碼的情況下運(yùn)行,泄露包括用戶名、密碼、電子郵件等信息的20億條日志。如果這些信息被別有用心者獲取,通過數(shù)據(jù)訓(xùn)練改變?cè)蟹诸惼鬟吔?,或者利用反饋機(jī)制對(duì)數(shù)據(jù)庫(kù)發(fā)動(dòng)攻擊,向數(shù)據(jù)模型輸入篡改后數(shù)據(jù)或信息,將導(dǎo)致人工智能無法做出正確的判斷。
2.1.2 智能算法存在社會(huì)歧視
人工智能技術(shù)上的盲點(diǎn)和偏見會(huì)導(dǎo)致特定人群成為系統(tǒng)“偏見”和“歧視”的受害者[5]。牛津大學(xué)一項(xiàng)研究顯示,個(gè)人在瀏覽網(wǎng)頁(yè)時(shí),智能算法會(huì)基于瀏覽者的瀏覽行為,推斷個(gè)人敏感信息,并且根據(jù)偏好推送定制化信息為廣告商推送精準(zhǔn)受眾。這樣不但破壞了個(gè)人自主選擇的權(quán)利,而且容易產(chǎn)生價(jià)格歧視。在智能信息時(shí)代算法歧視還會(huì)引發(fā)更為隱蔽的算法連帶歧視,即便算法在信息生產(chǎn)和分發(fā)中處于中立立場(chǎng),也存在被濫用的風(fēng)險(xiǎn)。算法歧視存在的主要原因在于算法的局限性以及不透明性。一方面算法是計(jì)算進(jìn)程對(duì)人類社會(huì)運(yùn)作規(guī)則的重構(gòu),而世界文化空間的多元化使得算法無法完全量化,容易造成社會(huì)歧視的發(fā)生。另一方面,算法形成過程中因涉及商業(yè)或技術(shù)機(jī)密,運(yùn)算過程具有不透明性。
2.2 社會(huì)層面的挑戰(zhàn)
2.2.1 具有加巨社會(huì)兩級(jí)分化風(fēng)險(xiǎn)
社會(huì)層面的智能應(yīng)用風(fēng)險(xiǎn)主要表現(xiàn)為:加劇失業(yè)以及社會(huì)貧富分化。對(duì)于制造業(yè)等重復(fù)的生產(chǎn)過程,人工智能的應(yīng)用能夠提高生產(chǎn)效率、降低生產(chǎn)成本。未來10~15年,智能技術(shù)與社會(huì)生產(chǎn)生活應(yīng)用融合過程中,將帶來更加自動(dòng)化的生產(chǎn)和智能化服務(wù),將有越來越多的工作不需要或只需要很少的人來完成,這就意味著以此類行業(yè)為生的工人將面臨失業(yè)風(fēng)險(xiǎn);智能化社會(huì)的發(fā)展,使得新興智能產(chǎn)業(yè)能夠在較短時(shí)間內(nèi)獲得較大的發(fā)展空間,由此導(dǎo)致行業(yè)分化趨勢(shì)也更加明顯[6]。為超級(jí)富翁帶來驚人財(cái)富的同時(shí),也給數(shù)百萬的失業(yè)者帶來極度的貧困。
2.2.2 網(wǎng)絡(luò)信息安全受到嚴(yán)重威脅
人工智能超強(qiáng)的自動(dòng)化程度和強(qiáng)大的數(shù)據(jù)分析能力,成為許多家庭、企業(yè)以及政府檢測(cè)與對(duì)抗網(wǎng)絡(luò)安全的工具。智能時(shí)代的網(wǎng)絡(luò)安全威脅主要來源于以下2個(gè)方面:第一,人工智能本身可能存在的安全漏洞。智能產(chǎn)品及服務(wù)的架構(gòu)極有可能存在系統(tǒng)安全漏洞。隨著人工智能在社會(huì)中的應(yīng)用越來越廣泛,無人值守等智能一旦因系統(tǒng)漏洞發(fā)生網(wǎng)絡(luò)劫持,將造成嚴(yán)重的社會(huì)公共安全事件。第二,有組織的網(wǎng)絡(luò)攻擊。最著名的就是近年來智能語音所遭受的“海豚音攻擊”行為,該攻擊人耳無法聽見,黑客通過超聲波信號(hào)劫持智能設(shè)備的語音系統(tǒng),再利用麥克風(fēng)硬件漏洞開啟語音助手,就能把用戶的智能設(shè)備當(dāng)做竊聽器來竊取私人信息。人工智能的分析處理能力可提升網(wǎng)絡(luò)攻擊性,對(duì)網(wǎng)絡(luò)安全防護(hù)體系造成威脅與挑戰(zhàn)。
2.2.3 人工智能法律制度缺失
人工智能與社會(huì)應(yīng)用的不斷融合,使得智能系統(tǒng)功能不斷強(qiáng)大,人工智能的控制和監(jiān)督問題也不斷出現(xiàn)。當(dāng)前智能醫(yī)療技術(shù)已趨于成熟,但現(xiàn)實(shí)中推廣阻力重重。表面看來是隱私泄露以及使用不合法等原因制約了人工智能在醫(yī)學(xué)中的應(yīng)用發(fā)展,但究其最主要原因還在于人工智能法律制度的空白。缺少了法律制度的規(guī)范和保障,人工智能與社會(huì)各行業(yè)的深度融合也只能浮在空中。有學(xué)者研究指出,人工智能系統(tǒng)應(yīng)用帶來的風(fēng)險(xiǎn)可能會(huì)被證實(shí)法律體系難以應(yīng)對(duì)的[6]。一般來說,法律法規(guī)監(jiān)管分為事前監(jiān)管和事后監(jiān)管。智能產(chǎn)品的研發(fā)具有不透明性、不明確性,這使得傳統(tǒng)產(chǎn)品的監(jiān)管方法,在處理人工智能應(yīng)用的風(fēng)險(xiǎn)時(shí)產(chǎn)生嚴(yán)重不足,導(dǎo)致事前監(jiān)管會(huì)困難重重。人工智能自主性引發(fā)風(fēng)險(xiǎn)的可預(yù)見性和可控性的難度較高,也經(jīng)常使得事后監(jiān)管起不到效果。
3? 社會(huì)穩(wěn)定視角下的人工智能風(fēng)險(xiǎn)防范路徑
人工智能研發(fā)設(shè)計(jì)的目標(biāo)在于將智能化的技術(shù)應(yīng)用于社會(huì)生產(chǎn)和生活中,在造福社會(huì)公眾的同時(shí),促進(jìn)各行業(yè)、領(lǐng)域的創(chuàng)新升級(jí)。友好人工智能概念的提出者尤德科夫斯基指出:人工智能系統(tǒng)的設(shè)計(jì)開發(fā)應(yīng)該是對(duì)人類有益且無害的,如果人工智能是以犧牲社會(huì)利益為代價(jià)的話,那么它就不應(yīng)由于設(shè)計(jì)者的私利而在社會(huì)中應(yīng)用[7]。面對(duì)人工智能對(duì)社會(huì)穩(wěn)定造成的種種挑戰(zhàn),需要構(gòu)建風(fēng)險(xiǎn)防范體系來保障人工智能朝有利于人類社會(huì)的方向發(fā)展。
3.1 人工智能的風(fēng)險(xiǎn)防范
3.1.1 技術(shù)層面的風(fēng)險(xiǎn)風(fēng)范
技術(shù)層面的風(fēng)險(xiǎn)挑戰(zhàn)主要是人工智能的研發(fā)方式。因?yàn)橹悄芟到y(tǒng)的設(shè)計(jì)不局限與特定時(shí)間地點(diǎn),同時(shí)系統(tǒng)開發(fā)經(jīng)常處于不對(duì)外公開的狀態(tài)。致使危險(xiǎn)人工智能的設(shè)計(jì)處于無監(jiān)督意識(shí)狀態(tài),常出現(xiàn)產(chǎn)品安全、算法偏見、法律及倫理道德等的安全問題。其中危險(xiǎn)程度和防范難度最高的當(dāng)屬惡意人工智能,對(duì)于這種通過人為制造的惡意人工智能,可以通過研發(fā)過程中的約束機(jī)制和倫理道德防范培訓(xùn),來促使研發(fā)過程中的規(guī)范性,從而發(fā)展安全有益的人工智能。
一方面在智能應(yīng)用的研發(fā)過程中,采取有力約束機(jī)制。必須對(duì)設(shè)計(jì)的有效性、安全性和可控性等進(jìn)行反復(fù)驗(yàn)證,避免技術(shù)帶來的負(fù)面影響,保證產(chǎn)品的可解釋性和安全投入使用。另一方面,建立完善、系統(tǒng)的倫理道德培訓(xùn)機(jī)制,促進(jìn)研發(fā)人員樹立良好的倫理道德價(jià)值觀念。人工智能倫理道德培訓(xùn)體系主要包括:責(zé)任、權(quán)利、公平性等,由人工智能研發(fā)專家、心理學(xué)、社會(huì)哲學(xué)等多學(xué)科專家同參與制訂,經(jīng)過不斷完善修改最終形成一套完善的培訓(xùn)體系。高校相關(guān)專業(yè)(人工智能、計(jì)算科學(xué)等計(jì)算機(jī)相關(guān)專業(yè))將倫理道德課程引入專業(yè)必修,從大學(xué)期間加強(qiáng)未來技術(shù)人員的倫理道德素養(yǎng)。
3.1.2 數(shù)據(jù)層面的風(fēng)險(xiǎn)防范
人工智能數(shù)據(jù)層面的風(fēng)險(xiǎn)防范主要靠國(guó)家層面的數(shù)據(jù)治理和監(jiān)管,通過相關(guān)法律法規(guī)來規(guī)范智能應(yīng)用產(chǎn)生數(shù)據(jù)的獲取范圍。數(shù)據(jù)層面的人工智能應(yīng)用防范需要從數(shù)據(jù)安全和算法安全制定應(yīng)對(duì)策略。
關(guān)于數(shù)據(jù)安全方面的風(fēng)險(xiǎn)防范主要通過立法來保證數(shù)據(jù)的安全使用,從法律政策上規(guī)范智能設(shè)備數(shù)據(jù)的安全運(yùn)用。同時(shí),加強(qiáng)數(shù)據(jù)安全監(jiān)管和增強(qiáng)管理人員的安全意識(shí)。建立人工智能數(shù)據(jù)監(jiān)管機(jī)構(gòu),協(xié)調(diào)人工智能數(shù)據(jù)研發(fā)、軟硬件設(shè)備、數(shù)據(jù)使用共同響應(yīng),在不斷推進(jìn)人工智能技術(shù)創(chuàng)新發(fā)展的同時(shí),保障智能數(shù)據(jù)的安全使用;增強(qiáng)智能系統(tǒng)管理人員安全意識(shí),定時(shí)后臺(tái)巡查數(shù)據(jù)運(yùn)行狀況,做到能夠快速靈活的應(yīng)對(duì)未知威脅,從而降低數(shù)據(jù)安全風(fēng)險(xiǎn)發(fā)生事件。
算法安全風(fēng)險(xiǎn)防范主要從數(shù)據(jù)全面性和算法可解釋性加強(qiáng)防范。智能操作的前提是對(duì)數(shù)據(jù)的訓(xùn)練,保證訓(xùn)練數(shù)據(jù)集的全面、實(shí)時(shí)和廣泛性是消除算法偏見和歧視,確保算法安全的前提。其次,確保算法的可解釋性可消除人工智能決策的不可控性。人工智能監(jiān)管部門對(duì)智能算法進(jìn)行審查備案,利用最新測(cè)試技術(shù)審核算法的各種概念和權(quán)重,打破黑盒操作的不可解釋性,促使算法向透明性和可解釋性方向發(fā)展,及時(shí)發(fā)現(xiàn)和消除算法實(shí)施中的歧視和偏見。
3.1.3 社會(huì)關(guān)系層面的應(yīng)用防范
人工智能發(fā)展在社會(huì)層面主要是面臨技術(shù)失控風(fēng)險(xiǎn)。短期內(nèi)取決于可預(yù)見性風(fēng)險(xiǎn)的控制程度,長(zhǎng)期風(fēng)險(xiǎn)存在于智能設(shè)備的自動(dòng)化程度,超人工智能擁有等同甚至高于人類的自主能力,以現(xiàn)有認(rèn)知能力還難以預(yù)測(cè)和判斷?;诖松鐣?huì)層面的應(yīng)用風(fēng)險(xiǎn)防范主要從風(fēng)險(xiǎn)研究、法律規(guī)范、社會(huì)監(jiān)管等方面為人工智能的可預(yù)期發(fā)展提供安全指導(dǎo)。
加大人工智能安全風(fēng)險(xiǎn)研究構(gòu)筑安全防控體系。從國(guó)家層面組織人工智能科研機(jī)構(gòu),專門研究人工智能在社會(huì)應(yīng)用中的風(fēng)險(xiǎn)及防范,研究成果為法律政策、技術(shù)監(jiān)管提供有效指導(dǎo)。針對(duì)研究發(fā)現(xiàn)的安全風(fēng)險(xiǎn),不斷建設(shè)和完善人工智能安全防控體系,做到在社會(huì)生產(chǎn)和公眾生活中利用好人工智能技術(shù),推進(jìn)智能技術(shù)安全可靠的發(fā)展。
加快人工智能應(yīng)用立法。人工智能技術(shù)的不斷發(fā)展必然引發(fā)社會(huì)生產(chǎn)關(guān)系和社會(huì)結(jié)構(gòu)行為的不斷變化,容易引發(fā)不可預(yù)知的安全風(fēng)險(xiǎn),必須通過法律制度來規(guī)范智能主體的異常變化。人工智能發(fā)展的現(xiàn)階段,法律研究及問題主要聚焦于智能主體的法律地位、智能行為的法律責(zé)任等。技術(shù)更新迭代速度飛快,人工智能立法研究也應(yīng)該具有前瞻性,這樣才能使不斷出現(xiàn)的新問題有法可依有章可循。
加強(qiáng)人工智能的社會(huì)監(jiān)管。針對(duì)研究可能面臨的人工智能安全問題,組織與智能產(chǎn)品生產(chǎn)服務(wù)無直接關(guān)聯(lián)的社會(huì)機(jī)構(gòu),對(duì)智能產(chǎn)品和服務(wù)進(jìn)行社會(huì)監(jiān)管。一方面對(duì)智能產(chǎn)品或服務(wù)做市場(chǎng)應(yīng)用前的測(cè)試和審查;另一方面對(duì)存在安全缺陷的產(chǎn)品和服務(wù)依法上報(bào)處理,積極運(yùn)用人工智能技術(shù)提高安全監(jiān)管能力,做到對(duì)智能產(chǎn)品和服務(wù)全方位、立體化監(jiān)管。
3.2 基于社會(huì)穩(wěn)定層面的人工智能風(fēng)險(xiǎn)防范體系構(gòu)建
隨著社會(huì)發(fā)展與人工智能的不斷融合,智能技術(shù)在完成創(chuàng)新發(fā)展,提高社會(huì)效益的同時(shí),也對(duì)社會(huì)穩(wěn)定提出了新的挑戰(zhàn)。結(jié)合人工智能應(yīng)用構(gòu)建了人工智能風(fēng)險(xiǎn)防范體系,具體如圖1所示。
在技術(shù)研發(fā)階段,主要是人工智能工程技術(shù)人員對(duì)智能系統(tǒng)的設(shè)計(jì)、研發(fā)和實(shí)施。需要人工智能技術(shù)研發(fā)者和智能風(fēng)險(xiǎn)評(píng)估專家相互配合,在智能系統(tǒng)的開發(fā)前期杜絕人為安全隱患,將智能系統(tǒng)可能存在的安全問題降到最低。
社會(huì)應(yīng)用階段,以具體的智能應(yīng)用為基礎(chǔ),將智能應(yīng)用分為短期、中期和長(zhǎng)期3個(gè)階段。在短期階段,人工智能的應(yīng)用風(fēng)險(xiǎn)主要是智能系統(tǒng)的可靠性和可解釋性,主要表現(xiàn)為數(shù)據(jù)訓(xùn)練集的全面性以及預(yù)測(cè)結(jié)果的準(zhǔn)確度,同時(shí)智能系統(tǒng)運(yùn)算過程必須具有可解釋性,避免黑盒操作帶來的不可預(yù)知風(fēng)險(xiǎn)。中期階段,智能系統(tǒng)可通過更有效的算法進(jìn)行數(shù)據(jù)的訓(xùn)練,在現(xiàn)實(shí)應(yīng)用中可得到更精確的運(yùn)算結(jié)果。此階段的風(fēng)險(xiǎn)防范主要是防范人類智能對(duì)人工智能的過度依賴,人類應(yīng)通過技術(shù)、服務(wù)和管理的相互配合來掌握智能應(yīng)用的主動(dòng)權(quán),同時(shí)預(yù)防因過度依賴智能系統(tǒng)導(dǎo)致的人類大腦進(jìn)化中的退化。長(zhǎng)期階段,人工智能應(yīng)用的風(fēng)險(xiǎn)來自于智能系統(tǒng)的自主干預(yù)性。當(dāng)智能應(yīng)用擁有自主意識(shí)后,怎樣安全有效的完成既定目標(biāo),以及智能物和智能物之間的安全聯(lián)系,都是需要進(jìn)一步研究的課題。
基于人工智能社會(huì)應(yīng)用各階段的風(fēng)險(xiǎn)點(diǎn),建議采用多主體多層次的風(fēng)險(xiǎn)防范監(jiān)管模式。從人工智能技術(shù)的研發(fā)方面,實(shí)施多層次的備案監(jiān)管制度。一般研發(fā)由地方監(jiān)管部門備案登記,并實(shí)施監(jiān)管,重大研發(fā)項(xiàng)目應(yīng)在國(guó)家專門部門備案并監(jiān)管。從人工智能的社會(huì)應(yīng)用方面,實(shí)施由智能應(yīng)用主管部門的自律與監(jiān)督制度是人工智能在諸如金融、制造、醫(yī)療等重要領(lǐng)域的有效工具。同時(shí),人工智能技術(shù)和社會(huì)應(yīng)用迭代速度之快,在防范智能系統(tǒng)性風(fēng)險(xiǎn)的發(fā)生的同時(shí),還要密切關(guān)注智能技術(shù)的社會(huì)應(yīng)用風(fēng)險(xiǎn),將自身風(fēng)險(xiǎn)和濫用風(fēng)險(xiǎn)都降到最低范圍。
風(fēng)險(xiǎn)治理階段主要包括:風(fēng)險(xiǎn)的評(píng)估、責(zé)任的判定、懲罰與補(bǔ)償?shù)?,以及風(fēng)險(xiǎn)發(fā)生過后的法律制度完善和實(shí)施保障。同時(shí),風(fēng)險(xiǎn)循環(huán)反饋保障機(jī)制貫穿于研發(fā)、應(yīng)用和治理三部分,為風(fēng)險(xiǎn)防控體系提供實(shí)時(shí)動(dòng)態(tài)數(shù)據(jù)更新,有效保障人工智能技術(shù)的安全應(yīng)用。
4? 結(jié)語
人工智能的迅速崛起對(duì)社會(huì)穩(wěn)定發(fā)展提出了新的挑戰(zhàn),有效解決發(fā)展與挑戰(zhàn)之間的關(guān)系除了加強(qiáng)技術(shù)和社會(huì)關(guān)系的防范外,還要加快人工智能領(lǐng)域的立法以及全球合作。當(dāng)前我國(guó)人工智能除了技術(shù)與應(yīng)用方面的發(fā)展,在網(wǎng)絡(luò)安全和數(shù)據(jù)應(yīng)用方面也有涉及,而《中華人民共和國(guó)網(wǎng)絡(luò)安全法》的頒布,在法律層面對(duì)個(gè)人信息安全進(jìn)行保護(hù)。2020年8月,國(guó)家新一代人工智能體系建設(shè)指南頒布,旨在發(fā)展負(fù)責(zé)任的人工智能。雖然人工智能的發(fā)展已備受國(guó)家層面的關(guān)注,但是人工智能的法律保障體系是缺失的,世界各國(guó)對(duì)人工智能的立法也都還處于探討時(shí)期,沒有成型的法律法規(guī)可供參考。
目前我國(guó)處在人工智能技術(shù)的領(lǐng)先國(guó)家行列,智能技術(shù)與社會(huì)應(yīng)用在跨界融合推動(dòng)社會(huì)發(fā)展的同時(shí),也面臨史無前例的社會(huì)安全隱患,這也恰恰是最大的時(shí)機(jī)。在人工智能的社會(huì)應(yīng)用中及時(shí)發(fā)現(xiàn)和解決存在的安全隱患,使智能技術(shù)朝著友好人工智能方向發(fā)展,應(yīng)成為全球人工智能發(fā)展的共識(shí)。
參考文獻(xiàn)
[1] 王君,張于喆,張義博.人工智能等新技術(shù)進(jìn)步影響就業(yè)的機(jī)理與對(duì)策[J].宏觀經(jīng)濟(jì)研究,2017(10):169-181.
[2] 張?jiān)盘?基于“人工智能+”經(jīng)濟(jì)模式創(chuàng)新的分析[J].自然辯證法研究,2019,35(9):61-66.
[3] 劉濤雄,劉駿.人工智能、機(jī)器人與經(jīng)濟(jì)發(fā)展研究進(jìn)展綜述[J].經(jīng)濟(jì)社會(huì)體制比較,2018(6):172-178.
[4] G.Graetz and G.Michaels,Robots at Work.The Impact on Productivity and Jobs,CentrePiece-The Magazine for Economic Performance,vol.447,Centre for Economic Performance, LSE[Z].2015.
[5] 李新瑜,張永慶.基于產(chǎn)業(yè)鏈視角的人工智能風(fēng)險(xiǎn)分析及其防范[J].人文雜志,2020(4):47-57.
[6] 陳洪兵,陳禹衡.刑法領(lǐng)域的新挑戰(zhàn):人工智能的算法偏見[J].廣西大學(xué)學(xué)報(bào):哲學(xué)社會(huì)科學(xué)版,2019(5): 85-93.
[7] 李政濤.依托人工智能開展大學(xué)生就業(yè)觀教育改革的策略研究[J].科技資訊,2020,18(2):142-144.
[8] 馬長(zhǎng)山.人工智能的社會(huì)風(fēng)險(xiǎn)及其法律規(guī)制[J].法律科學(xué),2018(6):47-55.
[9] 陳偉光,袁靜.人工智能全球治理:基于治理主體、結(jié)構(gòu)和機(jī)制的分析[J].國(guó)際觀察,2018(4):23-27.