国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能的行政法規(guī)制

2018-06-12 05:53:58文//董
21世紀(jì) 2018年6期
關(guān)鍵詞:識別性領(lǐng)域人工智能

文//董 妍

董妍 天津大學(xué)法學(xué)院副教授,中國人民大學(xué)憲法學(xué)與行政法學(xué)專業(yè)博士。主要研究方向?yàn)樾姓▽W(xué)。天津市131工程人才,天津市“雙千計(jì)劃”人才。2018年借調(diào)科技部生物技術(shù)發(fā)展中心,從事科技領(lǐng)域相關(guān)立法工作。曾在《南京大學(xué)學(xué)報(bào)》《法制與社會發(fā)展》《陜西師范大學(xué)學(xué)報(bào)》《行政論壇》等核心期刊發(fā)表過相關(guān)領(lǐng)域論文十余篇。

有學(xué)者指出,人類在進(jìn)入到21世紀(jì)的三個(gè)關(guān)鍵時(shí)間點(diǎn),相繼出現(xiàn)了三個(gè)互相聯(lián)系又略有區(qū)別的新時(shí)代,即網(wǎng)絡(luò)社會時(shí)代、大數(shù)據(jù)時(shí)代、人工智能時(shí)代,三者共同構(gòu)成了新的社會時(shí)代。人工智能技術(shù)是人類的偉大發(fā)明,但是也存在著極大的潛在風(fēng)險(xiǎn)。人工智能的發(fā)展程度已經(jīng)足以讓人類開始警覺甚至為自己的地位擔(dān)憂。同時(shí),有學(xué)者也盤點(diǎn)了人工智能失敗的案例,如路易斯維爾大學(xué)網(wǎng)絡(luò)安全實(shí)驗(yàn)室(Cybersecurity Lab)的主任 Roman Yampolskiy 發(fā)表了一篇論文,名為《ArTIficial Intelligence Safety and Cybersecurity:a TImeline of AI Failures》,其中列出了2016年人工智能表現(xiàn)不太好的例子。文章作者指出,這些失敗都可以歸因于AI系統(tǒng)在學(xué)習(xí)階段以及表現(xiàn)階段中犯的錯(cuò)誤。有學(xué)者更是將人工智能可能帶來的風(fēng)險(xiǎn)歸結(jié)為十大類:意識形態(tài)和國家安全風(fēng)險(xiǎn);軍事風(fēng)險(xiǎn);公共安全風(fēng)險(xiǎn);社會不穩(wěn)定風(fēng)險(xiǎn);倫理風(fēng)險(xiǎn);個(gè)人隱私風(fēng)險(xiǎn);算法歧視和數(shù)據(jù)歧視;知識產(chǎn)權(quán)風(fēng)險(xiǎn);信息安全風(fēng)險(xiǎn);未成年人身心健康風(fēng)險(xiǎn)。由此可見,無論是人工智能的高速發(fā)展,特別是其發(fā)展的不確定性,抑或是人工智能研發(fā)不完善而導(dǎo)致的事故,都使得人工智能的法律規(guī)制,特別是政府對人工智能的行政規(guī)制成為了迫在眉睫的任務(wù)。對于人工智能的行政規(guī)制,主要應(yīng)當(dāng)體現(xiàn)在以下幾個(gè)方面:

構(gòu)建和完善人工智能研發(fā)準(zhǔn)入制度及標(biāo)準(zhǔn)

準(zhǔn)入制度與研究的自由程度成反比,準(zhǔn)入制度越嚴(yán)格,開展研究所需要的周期就越長,研發(fā)速度也隨之減慢。但對于人工智能領(lǐng)域,準(zhǔn)入制度是十分必要的。以無人駕駛技術(shù)為例,大多數(shù)國家都對無人駕駛的研發(fā)、測試進(jìn)行了嚴(yán)格的規(guī)定,目的就在于防止無人駕駛對人身造成傷害,對社會秩序造成沖擊。這一點(diǎn)在國外有一些較為成熟的經(jīng)驗(yàn)可供借鑒。如美國內(nèi)華達(dá)州2011年通過的AB511法案,2012年加利福尼亞州通過的SB1298法案,主要目的都是為了保障無人駕駛汽車的安全。歐洲國家法國、英國和德國也有相關(guān)的立法。日本較韓國激進(jìn),為保障該技術(shù)的發(fā)展,專門設(shè)計(jì)了路線圖和法規(guī),并且對生產(chǎn)商等人員承擔(dān)的責(zé)任進(jìn)行了明確。而在韓國,主要是由政府部門來主導(dǎo)該技術(shù)的開發(fā)和測試,持一個(gè)保守的態(tài)度。由此看出,無人駕駛汽車行政規(guī)制有全球趨同化的趨勢,其最佳效果是能夠降低生產(chǎn)廠商的成本。

因此,我國應(yīng)當(dāng)盡快建立和完善人工智能研發(fā)的準(zhǔn)入制度。雖然在簡政放權(quán)的背景下,清理不必要的行政許可是法治政府建設(shè)的重要要求之一,但對于有可能造成重大隱患的新領(lǐng)域,應(yīng)當(dāng)本著謹(jǐn)慎的態(tài)度,設(shè)置研發(fā)的準(zhǔn)入制度,對研發(fā)者的資質(zhì)和研發(fā)項(xiàng)目的內(nèi)容進(jìn)行嚴(yán)格審核,確保其研究目的和研究計(jì)劃不至于發(fā)生嚴(yán)重的社會危害。我國目前沒有設(shè)置任何人工智能研發(fā)準(zhǔn)入制度,但其如果涉及到在不同領(lǐng)域的應(yīng)用,可能會需要取得不同領(lǐng)域的行政許可。但在現(xiàn)實(shí)中出現(xiàn)了人工智能躲避許可制度的現(xiàn)象:如“智能投顧”就是打著人工智能的幌子進(jìn)行理財(cái)產(chǎn)品的推薦和代銷。其實(shí),這一產(chǎn)品就是利用數(shù)據(jù)算法優(yōu)化產(chǎn)品配置,其本質(zhì)上是對理財(cái)產(chǎn)品的推薦和銷售。因此,進(jìn)入這一領(lǐng)域應(yīng)當(dāng)取得相應(yīng)的行政許可,而不能借人工智能逃避行政許可制度。

此外,對于部分已經(jīng)在實(shí)踐中應(yīng)用的領(lǐng)域,如無人駕駛等,應(yīng)當(dāng)盡快制定各項(xiàng)制造標(biāo)準(zhǔn),特別是安全標(biāo)準(zhǔn),確保在研發(fā)、制造、測試中遵循統(tǒng)一的標(biāo)準(zhǔn)以保證使用者的人身安全。

同時(shí),制定一套嚴(yán)格的市場準(zhǔn)入規(guī)則及研發(fā)標(biāo)準(zhǔn),既是規(guī)制本國人工智能研制的一個(gè)必要舉措,也是爭奪國際法治話語權(quán)的重要措施之一。人工智能在各國都是新興事物,在這一領(lǐng)域中尚未形成統(tǒng)一的國際立法規(guī)則,加快在這一領(lǐng)域的立法可以使我國掌握國際法治話語權(quán)。

避免算法歧視,保障公民平等權(quán)

算法是解決問題的方案,人工智能中算法是一個(gè)非常重要的問題,算法的設(shè)置直接影響結(jié)果。在人工智能領(lǐng)域,由于算法是由人預(yù)先設(shè)定的,因此人的價(jià)值判斷難免滲透其中,或者由于某地區(qū)基礎(chǔ)數(shù)據(jù)等問題,算法容易導(dǎo)致新的歧視出現(xiàn),而且這種歧視是赤裸裸,不加任何掩飾的。有學(xué)者指出,由于人工智能算法技術(shù)具有復(fù)雜性,這些算法就猶如一個(gè)“黑箱”,用戶根本無法獲知算法的意圖和目標(biāo),也不知道開發(fā)者和實(shí)際控制者以及算法最后得出的結(jié)論,在此種情況下,更談不上監(jiān)督問題。

如前文述及的人工智能失敗的案例中,Northpointe公司開發(fā)了一套AI系統(tǒng),它可以預(yù)測被指控罪犯再次違法的概率。這套算法遭到指責(zé),它可能存在種族歧視,與其他種族相比,黑人未來犯罪的幾率更高,威脅性更大。還有一些媒體指出,不論種族如何,Northpointe軟件在一般情況下都無法準(zhǔn)確預(yù)測。此外,在第一屆由AI擔(dān)任評委的國際選美比賽中,機(jī)器人小組對選手的臉進(jìn)行評判,算法可以精準(zhǔn)評估各項(xiàng)標(biāo)準(zhǔn),這些標(biāo)準(zhǔn)與人類對美和健康的感知聯(lián)系在一起。由于AI沒有經(jīng)歷過多樣化訓(xùn)練,最終比賽選出來的贏家全部是白人。Yampolskiy評價(jià)說:“美成為了模式識別器?!?/p>

在上述案例中,由于算法出現(xiàn)問題而導(dǎo)致人工智能產(chǎn)品運(yùn)行結(jié)果或是與人類期望不符,或是與事實(shí)不符,或是完全不顧道德和社會習(xí)慣甚至是法律的方式,將運(yùn)行結(jié)果赤裸裸地展現(xiàn)出來。在人工智能產(chǎn)品下,種族歧視、地域歧視、性別歧視這些本來已經(jīng)在社會中被長期抑制的錯(cuò)誤觀點(diǎn)死灰復(fù)燃,甚至人工智能運(yùn)行結(jié)果會刻意被某些人進(jìn)行強(qiáng)調(diào),用以證明自己帶有偏見的觀點(diǎn),讓本已經(jīng)失去普遍認(rèn)可度的觀點(diǎn)再次對部分人造成傷害,使得科技的進(jìn)步雖然帶來了技術(shù)的前進(jìn)和飛躍,但是卻帶來了社會領(lǐng)域中的倒退,這自然與人類的期望不符。有觀點(diǎn)認(rèn)為,這種單詞嵌入技術(shù)其實(shí)只是對社會存在觀點(diǎn)的一個(gè)客觀反映,真正帶有歧視的并不是這種單詞嵌入技術(shù)所導(dǎo)致的結(jié)果,而是因?yàn)樯鐣斜緛砭痛嬖谄缫暫推?。因此,?yīng)當(dāng)被糾正的是社會中那些錯(cuò)誤的觀點(diǎn),而這與人工智能算法本身無關(guān)。對這一說法,本文認(rèn)為應(yīng)當(dāng)謹(jǐn)慎對待,科技發(fā)展應(yīng)當(dāng)有助于矯正這種性別歧視而并非擴(kuò)大這種歧視,在算法還不足以對社會觀點(diǎn)起到糾偏作用的時(shí)候,至少應(yīng)當(dāng)做到不放大這些帶有問題的觀點(diǎn),更不能將這些觀點(diǎn)作為基礎(chǔ)數(shù)據(jù)進(jìn)行加工,形成進(jìn)一步的結(jié)果。

因此,在行政法領(lǐng)域,應(yīng)當(dāng)建立對于算法禁止性標(biāo)準(zhǔn)的制定,在選定算法及數(shù)據(jù)庫的時(shí)候,要盡量剔除任何可能有歧視的因素,至少對于這種偏見和歧視不能通過人工智能系統(tǒng)進(jìn)行放大。如前文述及的微軟機(jī)器人,其采用單詞嵌入技術(shù)以谷歌新聞作為基礎(chǔ)數(shù)據(jù)庫,其原因是專業(yè)記者撰寫的文章應(yīng)當(dāng)不會帶有明顯的歧視,但結(jié)果并非如此。特別是經(jīng)過預(yù)定算法下單詞嵌入技術(shù)的處理,這種歧視被明顯擴(kuò)大。而帶有這種算法的處理又會進(jìn)一步導(dǎo)致歧視觀點(diǎn)的出現(xiàn)和新的社會不公平。例如按照谷歌新聞數(shù)據(jù)庫中的單詞嵌入處理結(jié)果,如果搜索程序員的簡歷,男性的簡歷會排在女性的簡歷之前;搜索醫(yī)生的簡歷,男性醫(yī)生的簡歷會排在女性醫(yī)生的簡歷之前,這就導(dǎo)致了極端的性別歧視。研發(fā)人員通過對于單詞嵌入技術(shù)的改良,已經(jīng)在一定程度上避免了上述情況的發(fā)生,這意味著對于人工智能運(yùn)行的結(jié)果,目前人類還是具有絕對主動權(quán)的。在行政法領(lǐng)域中,應(yīng)當(dāng)加強(qiáng)對這一問題的政府規(guī)制,制定算法標(biāo)準(zhǔn),從而對人工智能的運(yùn)行結(jié)果進(jìn)行控制。

保護(hù)個(gè)人信息,刪除具有識別性的數(shù)據(jù)

有人曾經(jīng)準(zhǔn)確地描述,互聯(lián)網(wǎng)是一個(gè)真實(shí)的虛擬存在,在互聯(lián)網(wǎng)中,人類擁有了“數(shù)字化人格”,每個(gè)人在網(wǎng)絡(luò)空間上的活動成為了整個(gè)大數(shù)據(jù)庫中的一部分。而依托于互聯(lián)網(wǎng)而發(fā)展起來的人工智能離不開大數(shù)據(jù)的支撐,而大數(shù)據(jù)中的基礎(chǔ)數(shù)據(jù)大多數(shù)來源于公民個(gè)人。美國《生物信息隱私法案》中設(shè)有用戶的知情同意權(quán),互聯(lián)網(wǎng)用戶應(yīng)當(dāng)被告知自己信息獲取的期限和方式,特別是自己面部、身體等生物信息。盡管如此,F(xiàn)acebook的人臉識別功能仍然被包括德國在內(nèi)的許多國家認(rèn)定為違反了數(shù)據(jù)保護(hù)法,要求Facebook刪除相關(guān)數(shù)據(jù)。最終,F(xiàn)acebook被迫在歐洲關(guān)閉人臉識別功能,并且刪除了在歐洲采集的所有人臉數(shù)據(jù)。這其中有一個(gè)我們需要思考的法律問題就是,這些人工智能技術(shù)搜集到的個(gè)人生物信息,將在何種程度上被以何種方式進(jìn)行使用。

不當(dāng)?shù)拇髷?shù)據(jù)分析和人工智能使用,不但會產(chǎn)生信息泄露,而且會對用戶產(chǎn)生切實(shí)的影響。如前一段時(shí)間熱議的“大數(shù)據(jù)殺熟”現(xiàn)象,通過大數(shù)據(jù)的比對和智能分析,可以得出每個(gè)人的消費(fèi)習(xí)慣和可接受的價(jià)格,從而形成了針對個(gè)體用戶的定價(jià),實(shí)現(xiàn)了經(jīng)濟(jì)學(xué)上一直不具有可操作性的“一級價(jià)格歧視”。這些都是由于對數(shù)據(jù)的不當(dāng)使用而導(dǎo)致的。

我國個(gè)人信息保護(hù)法的制定已經(jīng)提上日程,之前的《全國人大常委會關(guān)于加強(qiáng)網(wǎng)絡(luò)信息保護(hù)的決定》、網(wǎng)絡(luò)安全法以及民法總則和“兩高”《關(guān)于辦理侵犯公民個(gè)人信息刑事案件適用法律若干問題的解釋》都對于個(gè)人信息保護(hù)問題作出了規(guī)定。個(gè)人信息最重要的特點(diǎn)是具有特定身份的可識別性,如果去除這一特征,僅利用群體大數(shù)據(jù)進(jìn)行分析,則造成損害結(jié)果的幾率會大大降低。如搜集某地區(qū)某種高發(fā)疾病人群的信息,對這些數(shù)據(jù)進(jìn)行分析可以對疾病預(yù)防,提升健康水平具有十分重要的意義。但是如果沒有剔除具有可識別性的信息,會導(dǎo)致個(gè)人健康等隱私信息泄露,在就業(yè)、購買保險(xiǎn)等方面造成嚴(yán)重障礙,給個(gè)人生活帶來極大的不利影響。

因此,監(jiān)管部門應(yīng)當(dāng)建立具有可識別信息的數(shù)據(jù)庫銷毀制度。在進(jìn)行數(shù)據(jù)錄入的時(shí)候,具有可識別性的信息和不具有可識別性的信息應(yīng)當(dāng)分別錄入在兩個(gè)數(shù)據(jù)庫中,對不具有可識別性信息的數(shù)據(jù)庫,可以應(yīng)用到各種研究中,并且鼓勵這種數(shù)據(jù)庫的跨平臺共享,政府?dāng)?shù)據(jù)開放以及企業(yè)數(shù)據(jù)信息共享。這種共享和開放,有利于數(shù)據(jù)的最大化利用,有利于政府在大數(shù)據(jù)和智能分析的幫助下作出正確的判斷,也有利于企業(yè)判斷市場形勢,從而作出正確的決定。而對于具有可識別性的信息,應(yīng)當(dāng)在數(shù)據(jù)完成錄入后永久性刪除,任何人不得再次獲取這些具有個(gè)人信息的數(shù)據(jù),避免其不當(dāng)利用。

人工智能的研發(fā)剛剛起步,其可能產(chǎn)生的風(fēng)險(xiǎn)和負(fù)面影響并不明晰。作為監(jiān)管部門應(yīng)當(dāng)在促進(jìn)科技發(fā)展的前提下,對人工智能的準(zhǔn)入制度、算法標(biāo)準(zhǔn)等進(jìn)行規(guī)制,避免算法歧視,保障公民平等權(quán),加強(qiáng)個(gè)人信息保護(hù)。

同時(shí),人工智能技術(shù)的興起,還有責(zé)任主體認(rèn)定、道路交通安全、勞動法等領(lǐng)域中的法律問題亟待解決,這是我們法律人所面臨的新的時(shí)代課題。

猜你喜歡
識別性領(lǐng)域人工智能
領(lǐng)域·對峙
青年生活(2019年23期)2019-09-10 12:55:43
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
國產(chǎn)汽車標(biāo)志設(shè)計(jì)批評
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
符號的識別性在廣告視覺形式中的體現(xiàn)——以標(biāo)志設(shè)計(jì)為例
新聞傳播(2016年19期)2016-07-19 10:12:08
以改性松香為交聯(lián)劑的甲硝唑磁性分子印跡固相萃取材料的制備、表征及分子識別性研究
新常態(tài)下推動多層次多領(lǐng)域依法治理初探
游樂場所安全標(biāo)志識別性研究
宝清县| 耒阳市| 水城县| 融水| 墨江| 西宁市| 措勤县| 会同县| 准格尔旗| 明水县| 库伦旗| 贵定县| 武义县| 西盟| 郧西县| 外汇| 乡宁县| 安陆市| 渭南市| 法库县| 商城县| 贵港市| 岳阳市| 英德市| 东平县| 潮安县| 东源县| 平阴县| 定远县| 句容市| 屏东市| 屯昌县| 进贤县| 如皋市| 贺兰县| 南部县| 利津县| 彰化县| 车险| 青铜峡市| 武乡县|