安章 姜健 安振艷 王猛
摘要:在科技、網(wǎng)絡的發(fā)展下,我們處于一個“萬物互聯(lián)”的人工智能時代,這極大地改變了人們的生產(chǎn)和生活。其中,數(shù)據(jù)是人工智能的基礎,人工智能依靠大數(shù)據(jù)發(fā)展,但這也會使我們的隱私保護受到挑戰(zhàn)。同時,人工智能與人類的界限也變得更加模糊,一些高危險和重復性的工作都可以由機器人完成,人類倫理也受到了相應的挑戰(zhàn)。
關鍵詞:人工智能;隱私保護;倫理挑戰(zhàn)
前言:
人工智能經(jīng)過六十多年的發(fā)展,當前被應用到許多領域,如金融、教育、無人駕駛等,滲透到人們生活的方方面面,這形成了人工智能+教育等多個模式。雖然它為我們的生活、學習帶來了極大的便利,但也容易起到隱私保護挑戰(zhàn)和倫理保護挑戰(zhàn),如人工智能會利用大數(shù)據(jù)手機用戶的信息和數(shù)據(jù),其方式不一定合作,這會給用戶的隱私生活帶來挑戰(zhàn),為人們帶來更多困擾,當前人們要看到這一問題,采取積極的措施去解決。
一、隱私保護挑戰(zhàn)
在大數(shù)據(jù)按的發(fā)展下,人工智能也在不斷地發(fā)展,成為當前社會的熱點話題。在人工智能的發(fā)展下,人們的隱私保護面臨越來越多的問題,主要包括以下的方面。
(一)數(shù)據(jù)采集中的隱私侵犯
在數(shù)據(jù)采集設施的普及下,智能系統(tǒng)可通過心跳、指紋、語音、面部識別辨別用戶的身份,還能根據(jù)人們的行為滿足人們的喜好,如自動播放音樂、調(diào)節(jié)按燈光、語言播報天氣、調(diào)節(jié)室內(nèi)溫度等。在判斷人的健康時,會通過體征變化、睡眠時間、鍛煉情況、體征變化等方式。這也說明了人工智能會搜集大量用戶的個人隱私信息,甚至比用戶還了解他們,當這些數(shù)據(jù)被正確使用,人們的生活會更加便利,但當這些信息被不法分子得到時,其隱私保護就受到了挑戰(zhàn)。
(二)云計算中的隱私風險
云計算有許多的優(yōu)勢,如成本低廉、使用方便,能長時間保存人們的信息,人們可根據(jù)自身需求上傳想要保存的信息,由此,許多政府組織和公司會將數(shù)據(jù)上傳、儲存到云端,此時,這些信息容易受到攻擊和威脅。由于人工智能系統(tǒng)對計算能力有較高的要求,由此云計算被認為是主要框架,在開發(fā)和運用智能軟件中,人們要考慮云端隱私的保護。
(三)知識抽取中存在的隱私問題
人工智能可從大數(shù)據(jù)中抽取知識在,同時,當前出現(xiàn)了越來越多的知識抽取工具,整合許多看似不相關的數(shù)據(jù)片段,對人的性格特征、個人行為特征能有效地識別。例如,當人們購物后,人工智能會彈出你喜愛的商品,當人們?yōu)g覽看房信息后,會接到賣房銷售的電話。這說明人工智能可將人們的購物過程、網(wǎng)站瀏覽記錄等整合在在一起,這便能分析出個人的行為習慣和個人偏好,能勾勒出個人的行為軌跡,能對消費者的潛在需求有效預測,如此商家能夠為他們精準地提供相應的商品、服務。但這一過程也是個人隱私保護受到挑戰(zhàn)的時候,人們的隱私會被發(fā)現(xiàn)和曝光,在這一背景下,如果保護人們的隱私是值得思考的問題。
二、倫理規(guī)范挑戰(zhàn)
人工智能在給人們帶來便利的同時,也帶來了倫理問題,所涉及的倫理問題很多,以下的方面是值得注意的。
(一)機器人的行為規(guī)則
當前,人工智能在某些時候可代替人完成決策,如人工智能在駕駛無人汽車時,會遵守相應的社會規(guī)則。例如,當智能機器人駕駛汽車行駛在道路上,此時出現(xiàn)這一現(xiàn)象,人行道上突然出現(xiàn)了兩個行人,路邊一個行人,而它無法剎車,此時它會選擇撞向人行道的兩個行人,還是撞向路邊?運用人工智能將生活中的一些倫理問題系統(tǒng)化,研究人員在系統(tǒng)設計時如果不思考未來社會的倫理約束,機器人在決策時會做出與人類不同的決定,這會產(chǎn)生嚴重的后果。
(二)機器人的權利
當前,研究人員已經(jīng)在醫(yī)療、司法等領域中研究人工智能在其中能夠進行疾病診斷、審判分析等的決策能力。但當研究人員授予他們這些權利后,人們不單單要考慮其中的安全問題,更面臨著新的倫理問題,即他們是否有資格這樣做,這樣做的后果是什么?在機器人在特定領域內(nèi)掌握更多的知識,他們的決策能力會超過人類在,此時人們會在更多方面對機器人產(chǎn)生依賴,這一倫理問題也是需要考慮清楚的。
(三)機器人的教育
有倫理學的專家指出,未來機器人不僅會掌握決策、感知、認知等能力,他們還會得到不斷發(fā)展和演變,能形成不同的性格在、個性。新華報中曾報道過:國外的一個聊天機器人,在網(wǎng)上跟人聊天后,學會了罵人,這一現(xiàn)象可引起人們對機器人教育問題的思考。雖然未來人工智能在發(fā)展中會產(chǎn)生他們自身的思想,能展現(xiàn)出不同的性格特點,但這與使用者是密不可分的。使用者需要像監(jiān)護人一樣,他們要承擔相應的安法律責任、道德責任,以防對社會文明產(chǎn)生消極的影響。
三、啟示與建議
隨著社會的發(fā)展,人機共存的時代將要到來,為了更好控制人工智能系統(tǒng),實現(xiàn)和諧發(fā)展,設計人員在生產(chǎn)、設計、研發(fā)中要采取一系列的對策,處理好人工智能在隱私、倫理方面上出現(xiàn)的風險。
(一)研發(fā)解釋性和透明性更高的智能計算模型
在大數(shù)據(jù)和計算數(shù)據(jù)的發(fā)展下,出現(xiàn)了智能計算模型,它有著很強的能力,但對這一機器模型的研究還不完善,人們現(xiàn)在很難解決AI系統(tǒng)運行中出現(xiàn)異常情況的原因,研發(fā)者也不能準確把握和推測智能系統(tǒng)運行的邊界,這需要人們研發(fā)出更具有解釋性、更透明的智能計算模型,清晰地解釋智能系統(tǒng),防止系統(tǒng)出現(xiàn)的不確定性和不可預知性,這也是人工智能研究的重點。
(二)制定倫理準則,完善技術的研發(fā)規(guī)范
人工智能系統(tǒng)完成的行動和決策要滿足社會發(fā)展的倫理規(guī)則和道德規(guī)則,這需要研究人員在開發(fā)和設計這些規(guī)則時,要將這一需求考慮其中。為此,在研發(fā)環(huán)節(jié),要建立與人類倫理規(guī)則相符的準則,能對其進行風險評估、道德評估,形成完善的研發(fā)規(guī)范,能機器人的行為符合規(guī)定。
結論:
綜上所述,人工智能是以算法和數(shù)據(jù)作為支撐的,能方便人們的生活,還會對人們的隱私保護、社會倫理帶來挑戰(zhàn)。面對這些新挑戰(zhàn),我們不妨跳出傳統(tǒng)單一的思維,探索一條科學的隱私保護路徑,促進人工智能更好地發(fā)展。
參考文獻:
[1]張夏明,張艷.人工智能應用中數(shù)據(jù)隱私保護策略研究[J].人工智能,2020(04):76-84.
[2]鄭志峰.人工智能時代的隱私保護[J].法律科學(西北政法大學學報),2019,37(02):51-60.
[3]邵國松,黃琪.人工智能中的隱私保護問題[J].現(xiàn)代傳播(中國傳媒大學學報),2017,39(12):1-5.