楊 曦
(漯河職業(yè)技術(shù)學(xué)院,河南 漯河 462000)
隨著科技的不斷發(fā)展,第五代移動(dòng)通信、大數(shù)據(jù)、云計(jì)算、人工智能已經(jīng)成為電子信息領(lǐng)域炙手可熱的技術(shù),其中人工智能被認(rèn)為是引發(fā)社會(huì)創(chuàng)新和產(chǎn)業(yè)變革的重要驅(qū)動(dòng)力,具有巨大的發(fā)展空間。習(xí)近平總書記在中央政治局就人工智能發(fā)展現(xiàn)狀和趨勢(shì)進(jìn)行集體學(xué)習(xí)時(shí)強(qiáng)調(diào):“要整合多學(xué)科力量,加強(qiáng)人工智能相關(guān)法律、倫理、社會(huì)問題研究,建立健全保障人工智能健康發(fā)展的法律法規(guī)、制度體系、倫理道德?!蔽覀?cè)陉P(guān)注人工智能帶來的文明智慧和美好藍(lán)圖的同時(shí),也需要不斷思考和探究其存在的諸多倫理道德問題。
馬克思主義倫理觀認(rèn)為“倫理道德是人們現(xiàn)實(shí)生活中由經(jīng)濟(jì)關(guān)系所決定,以善惡為評(píng)價(jià)標(biāo)準(zhǔn),依靠人的內(nèi)心信念、社會(huì)傳統(tǒng)習(xí)慣和輿論所維系的一類社會(huì)現(xiàn)象?!比斯ぶ悄茏鳛橐豁?xiàng)革命性技術(shù),對(duì)一些領(lǐng)域具有顛覆性影響,不斷觸碰人們傳統(tǒng)的價(jià)值觀念。目前人工智能的開放性應(yīng)用場(chǎng)景不斷拓展,不可避免地沖擊現(xiàn)有的人倫關(guān)系,引發(fā)諸多倫理沖突,帶來各種各樣的倫理道德難題,引發(fā)了人們對(duì)人工智能倫理道德問題的廣泛關(guān)注和相關(guān)討論。
任何事物都具有兩面性,科技也是如此,在人類文明進(jìn)程中,經(jīng)歷了許許多多“危機(jī)論”,源于對(duì)一些新生事物未知的想象而產(chǎn)生的恐慌和抵觸情緒。例如在19世紀(jì)中期,工業(yè)文明開始起步,蒸汽機(jī)車開始“轟鳴”著進(jìn)入以馬車為傳統(tǒng)運(yùn)送工具的西方人的生活,被稱為“魔鬼之車”。歷史的發(fā)展始終由科技所驅(qū)動(dòng),科技的兩面性源于其使用屬性,用蒸汽機(jī)生產(chǎn)的汽車,推動(dòng)了人類社會(huì)的文明進(jìn)步;而用蒸汽機(jī)生產(chǎn)的武器,卻威脅人類生存。人工智能也是如此。隨著大量企業(yè)使用人工智能技術(shù),實(shí)現(xiàn)了生產(chǎn)流程的自動(dòng)化,解放了大量勞動(dòng)力,提高了產(chǎn)品的一致性和企業(yè)的生產(chǎn)效率。但同時(shí),對(duì)于重復(fù)性高的生產(chǎn)崗位,由于自動(dòng)化設(shè)備取代了傳統(tǒng)的人工操作,增加了這些崗位工作人員的失業(yè)風(fēng)險(xiǎn)。由此人們預(yù)見,人工智能的發(fā)展最終會(huì)取代人類勞動(dòng),人們可選擇的崗位會(huì)越來越少,“人”作為傳統(tǒng)意義上的勞動(dòng)力概念將逐步被淡化,而“智能機(jī)器”則會(huì)成為勞動(dòng)力的新符號(hào)。因此,人們?cè)谙硎苋斯ぶ悄芩鶐淼谋憬萆畹耐瑫r(shí),也擔(dān)憂崗位得失、貧富差距、身心健康等問題,感受到人工智能技術(shù)給自身帶來的威脅。譬如在今年我國(guó)新冠疫情期間,大量人工智能技術(shù)應(yīng)用于防疫抗疫,在智能測(cè)溫、智能遠(yuǎn)程服務(wù)、智能社區(qū)管理、智能辦公、在線教學(xué)等環(huán)節(jié)都發(fā)揮了無可替代的作用。疫情的存在,推動(dòng)全世界應(yīng)用人工智能的加速度,但人們擔(dān)憂人工智能技術(shù)在社會(huì)生活中的過度應(yīng)用,會(huì)使人們對(duì)其依賴度上升,導(dǎo)致思維能力及學(xué)習(xí)能力下降,最終影響人類探索世界的靈感和改造世界的創(chuàng)造性。另外,人工智能的商業(yè)化、軍事化應(yīng)用場(chǎng)景也使人類面臨諸多人工智能倫理道德問題。一些科學(xué)家認(rèn)為,人工智能將是人類生存的最大威脅,甚至可能導(dǎo)致人類滅亡,人類需要敬畏人工智能的崛起。因此,我們應(yīng)不斷提高對(duì)人工智能應(yīng)用和發(fā)展的認(rèn)知水平,對(duì)人工智能潛在的威脅保持高度警惕。
人工智能技術(shù)在快速發(fā)展和廣泛應(yīng)用中走向成熟但遠(yuǎn)未成熟,其可能導(dǎo)致的倫理道德后果難以準(zhǔn)確預(yù)料。近期,網(wǎng)絡(luò)上類似“換臉”APP、DeepNude軟件引起的道德拷問不計(jì)其數(shù);有關(guān)虛擬現(xiàn)實(shí)、智能駕駛帶來的倫理與道德規(guī)范問題,也在拷問著人工智能場(chǎng)域下的社會(huì)倫理秩序等等。自從IBM的計(jì)算機(jī)“深藍(lán)”在國(guó)際象棋人機(jī)對(duì)弈中擊敗加里·卡斯帕羅夫以來,以人工智能為核心的智能機(jī)器,雖然遵循人類賦予它的理性規(guī)則,但卻在與人類的較量中一次次獲勝。隨著技術(shù)的不斷創(chuàng)新,智能機(jī)器的自主程度會(huì)不斷提高,具備高度自主意識(shí)和高速自我更新、自我復(fù)制的再生能力,表現(xiàn)出超越人類的文明智慧,但其價(jià)值觀只能依附于過往的經(jīng)驗(yàn)數(shù)據(jù),無法始終趨同于人類的價(jià)值觀。當(dāng)與人類預(yù)期出現(xiàn)偏差時(shí),會(huì)引發(fā)傳統(tǒng)倫理道德價(jià)值的沖突。人工智能所引發(fā)的倫理道德問題,不僅存在于公共社會(huì)層面,而且也存在于軍事博弈中,智能機(jī)器人武器系統(tǒng)已經(jīng)有多個(gè)國(guó)家在研發(fā),正如微軟公司總裁史密斯的判斷,未來我們將無法避免“殺手機(jī)器人”的出現(xiàn),人類社會(huì)應(yīng)該有一套道德標(biāo)準(zhǔn)來約束與引導(dǎo)人工智能的發(fā)展。就目前而言,人工智能技術(shù)所引起的倫理道德問題,只是少數(shù)技術(shù)操作者的行為,但是由于科技倫理規(guī)范的缺失以及網(wǎng)絡(luò)傳播的推波助瀾,極易被更多人模仿,其造成的社會(huì)危害程度無法估量,由此引起人們對(duì)人工智能瓦解社會(huì)倫理道德秩序的擔(dān)憂。對(duì)于人工智能所觸發(fā)的倫理道德問題,已經(jīng)引起了各國(guó)政府及相關(guān)行業(yè)協(xié)會(huì)的重視,我們應(yīng)針對(duì)科技公司開發(fā)者及使用者制定人工智能開發(fā)與使用的道德與法律規(guī)則,調(diào)整和約束開發(fā)者和使用者的行為,以促使人工智能在創(chuàng)新發(fā)展與倫理道德規(guī)范上找到平衡點(diǎn)。
人工智能倫理的水平,與人工智能的成熟度正相關(guān)。隨著時(shí)間的推移,人工智能與人文的異化作用凸現(xiàn),其隱含的對(duì)于社會(huì)倫理道德秩序的挑戰(zhàn)也愈發(fā)明顯,已經(jīng)涉及數(shù)據(jù)隱私、權(quán)責(zé)機(jī)制、公共安全等諸多倫理道德問題。
人工智能利用強(qiáng)大的信息挖掘能力和數(shù)據(jù)運(yùn)算能力,在海量數(shù)據(jù)中提取“有用”的信息,其快速性和精準(zhǔn)性為各行業(yè)構(gòu)建了快捷高效的管理和服務(wù)體系,但目前為止,隱私保障問題依然是行業(yè)面臨的主要挑戰(zhàn)。如諸多政府部門、通信服務(wù)商、圖書檔案館、醫(yī)院、學(xué)校等機(jī)構(gòu)為業(yè)務(wù)需要而對(duì)個(gè)人信息數(shù)據(jù)的采集與使用,往往模糊個(gè)人信息的所屬權(quán),并且這些個(gè)人數(shù)據(jù)并非完全服務(wù)于原始目的。在人工智能的諸多細(xì)分應(yīng)用領(lǐng)域中,人們認(rèn)識(shí)較多的是移動(dòng)支付、人臉識(shí)別、聲音識(shí)別、指紋識(shí)別以及智能駕駛、自動(dòng)翻譯等,智能系統(tǒng)獲取個(gè)人信息數(shù)據(jù)變得更加容易,這些私人數(shù)據(jù)給誰用、用來做什么以及使用后如何處理等問題,數(shù)據(jù)采集方往往擁有更多的控制權(quán)和自主權(quán),使大多數(shù)人開始擔(dān)憂人工智能會(huì)威脅到自己的隱私。在人工智能面前,算法拆解人的身份特征并使之?dāng)?shù)字化,通過不同身份特質(zhì)的再組合重構(gòu),以虛擬形象擬制真人,必然造成嚴(yán)重的社會(huì)后果,對(duì)個(gè)人的隱私和人類社會(huì)固有的倫理道德形成沖擊和挑戰(zhàn)。
人工智能需要大數(shù)據(jù)及其算法優(yōu)化的支撐,才能進(jìn)行高效而精準(zhǔn)的數(shù)據(jù)分析,從而通過數(shù)據(jù)驅(qū)動(dòng)實(shí)現(xiàn)智能決策。機(jī)器行為通過一定的算法模型預(yù)先設(shè)定,算法程序的設(shè)計(jì)、訓(xùn)練和使用場(chǎng)景受人類認(rèn)知條件的約束,無法窮盡包括未知領(lǐng)域在內(nèi)的所有場(chǎng)景情形,無論如何都難以避免誤差彈性。以目前最受關(guān)注的智能駕駛汽車為例,由于受大數(shù)據(jù)技術(shù)的支撐,可以通過自動(dòng)規(guī)劃路線規(guī)避道路擁擠,提高乘用效率;通過智能化的無人駕駛規(guī)避交通事故,提高安全系數(shù)等等。但無人駕駛不可能做到盡善盡美,2018年3月9日晚,美國(guó)亞利桑那州一條普通的公路上發(fā)生一起無人駕駛汽車撞人致死事故,處于無人駕駛狀態(tài)的汽車通過傳感器探測(cè)到了行人,但自動(dòng)駕駛系統(tǒng)并未實(shí)施避讓決策。這起事故反映出人工智能技術(shù)在機(jī)器算法上面臨的挑戰(zhàn),在程序編制過程中,受制于對(duì)陌生情形的考量和預(yù)判,具有局限性和不可預(yù)見性,在遇到緊急情況時(shí),系統(tǒng)根本無法得到對(duì)應(yīng)的設(shè)定,只能從數(shù)據(jù)庫(kù)中隨機(jī)選擇類似的案例加以類推,無法像自然人那樣憑借經(jīng)驗(yàn)和直覺做出本能反應(yīng),由此映射出智能駕駛在極端情況下的“倫理困境”。
平等公平是人類社會(huì)體系構(gòu)建的最基本準(zhǔn)則,也是衡量人類社會(huì)文明水平的重要標(biāo)志之一。社會(huì)平等公平的意義是,在同一事件面前,以同等的態(tài)度對(duì)待每個(gè)人,不分性別、身份、膚色以及所處地區(qū)。然而,當(dāng)今社會(huì),諸多不公平的表現(xiàn)形式往往在各個(gè)社會(huì)層面顯現(xiàn),人工智能的應(yīng)用加劇了這一現(xiàn)象。人工智能本身具有理性的算法和客觀的數(shù)據(jù),不帶有情緒和偏好,能夠帶來中立的結(jié)果。但事實(shí)上,由于人為因素的存在,數(shù)據(jù)質(zhì)量、算法歧視以及設(shè)計(jì)者的偏好往往導(dǎo)致非中立性的結(jié)果,如性別歧視、種族歧視等。有一項(xiàng)研究表明,在美國(guó)被普遍使用的COMPAS算法,存在種族歧視“偏見”,該算法在法院的犯罪預(yù)測(cè)評(píng)估中,預(yù)測(cè)黑人的再犯罪風(fēng)險(xiǎn)是白人的兩倍。面部識(shí)別是人工智能的一項(xiàng)重要算法,也無法避免性別和種族偏見問題,麻省理工學(xué)院的Joy Buolamwini發(fā)現(xiàn),IBM、微軟和中國(guó)公司 Megvii的三個(gè)最新的性別識(shí)別AI可以在99%的情況下準(zhǔn)確從照片中識(shí)別一個(gè)人的性別,但這僅限于白人;對(duì)于女性黑人來說,這個(gè)準(zhǔn)確率會(huì)降至35%。人工智能早已滲入了各個(gè)領(lǐng)域,數(shù)據(jù)和算法導(dǎo)致的“偏見”往往具有隱蔽性,當(dāng)遭遇不公平對(duì)待時(shí),人們難以發(fā)現(xiàn)和消除。
虛擬現(xiàn)實(shí)是信息智能技術(shù)的產(chǎn)物,智能機(jī)器能夠“讀懂”人的語(yǔ)言、表情、手勢(shì)、動(dòng)作,通過虛擬場(chǎng)景,讓人產(chǎn)生身臨其境的交互式感覺。虛擬現(xiàn)實(shí)可以在身體和精神上讓人獲得神奇的虛擬體驗(yàn),成為有別于現(xiàn)實(shí)的另外的人,可能會(huì)導(dǎo)致一些新穎的倫理道德問題。智能秘書、智能教師、智能醫(yī)生、智能保姆、智能護(hù)理等,往往會(huì)對(duì)傳統(tǒng)的人際關(guān)系形成挑戰(zhàn)。人越來越多地與智能終端相處,借助它并依賴它,仿佛已成為人體的一部分而離不開它。過度沉迷這種虛實(shí)一體的生活,極易產(chǎn)生不現(xiàn)實(shí)的幻想,尤其是各種虛擬游戲,充斥著血腥暴力、荒誕色情等毫無道德底線的內(nèi)容,使人變得孤僻、冷漠、厭世、精神麻木,危害人格健康。虛擬現(xiàn)實(shí)技術(shù)還在不斷嘗試突破,應(yīng)用場(chǎng)景不可限量,但其在倫理責(zé)任和道德規(guī)范方面的挑戰(zhàn)不容忽視。
只有重視人工智能發(fā)展過程中所蘊(yùn)含的社會(huì)風(fēng)險(xiǎn)和倫理挑戰(zhàn),并有意識(shí)地加以疏導(dǎo)和改變,共建規(guī)制,為技術(shù)發(fā)展清理路障,才能從本質(zhì)上實(shí)現(xiàn)科技向善的發(fā)展理念。
在過去的幾十年里,世界范圍內(nèi)高科技公司越來越強(qiáng)大,其掌握的數(shù)據(jù)量越來越多,在構(gòu)建人工智能技術(shù)及服務(wù)平臺(tái)方案時(shí),世界各國(guó)應(yīng)該加強(qiáng)合作,以審慎、負(fù)責(zé)任的態(tài)度,更好地了解大家對(duì)人工智能倫理問題的認(rèn)識(shí),在爭(zhēng)議中尋求治理方案,共同應(yīng)對(duì)新科技帶來的挑戰(zhàn)??苹米骷野⑽髂虺鲇诒Wo(hù)人類的目的于1940年就提出了“機(jī)器人三原則”,其中第一條即機(jī)器人不得傷害人類,或看到人類受到傷害而袖手旁觀;2019年斯坦福大學(xué)成立人工智能研究院,基于人工智能的社會(huì)影響促進(jìn)科技與人文的協(xié)調(diào)發(fā)展;Facebook公司借助德國(guó)慕尼黑工業(yè)大學(xué)的學(xué)術(shù)資源建立了人工智能倫理研究所,在包括公平、隱私、安全和透明度等領(lǐng)域探討“行業(yè)內(nèi)無法單獨(dú)回答”的問題。我國(guó)在人工智能倫理道德問題的研究,也走在了世界前列,在2019年全國(guó)“兩會(huì)”上馬化騰提出《關(guān)于加強(qiáng)科技倫理建設(shè) 踐行科技向善理念的建議》,同年5月《人工智能北京共識(shí)》發(fā)布,提出了各參與方應(yīng)該遵循的有益于人類命運(yùn)共同體構(gòu)建和社會(huì)發(fā)展的15條準(zhǔn)則。由此可見,企業(yè)、行業(yè)協(xié)會(huì)、學(xué)術(shù)界和政府行業(yè)部門針對(duì)人工智能的研發(fā)、使用、治理,布局人工智能發(fā)展規(guī)劃,構(gòu)建完整的人工智能倫理道德風(fēng)險(xiǎn)防控體系,監(jiān)測(cè)新科技可能引發(fā)的倫理道德問題,從法律法規(guī)層面促使新科技與人文倫理道德的協(xié)調(diào)發(fā)展。