(蘇州科技大學(xué),江蘇 蘇州 215001)
隨著現(xiàn)代社會(huì)飛速發(fā)展,高新科技在社會(huì)科技研發(fā)投入中的比重日益增大。技術(shù)的發(fā)展必然導(dǎo)致社會(huì)體系部分剝落重整,社會(huì)文化自然與倫理意識(shí)產(chǎn)生沖擊摩擦。
我們從來都沒有把倫理學(xué)認(rèn)為是不可撼動(dòng)的巨石。倫理學(xué)不是一成不變的頑固死規(guī)矩,隨著我們社會(huì)發(fā)展和科技進(jìn)步,倫理學(xué)也會(huì)隨之被逐漸修正完善。我們不能打破的是倫理道德的基本底線而非被禁錮的倫理學(xué)本身,一味地追求維護(hù)先前的適用倫理學(xué)不做任何修正只會(huì)使整個(gè)社會(huì)的科技水平固步自封。當(dāng)前倫理學(xué)要研究的不是如何守好倫理學(xué),而是怎么在科學(xué)發(fā)展與倫理發(fā)展之間找到平衡的支點(diǎn)。
AI技術(shù)在人類文明史上大致有三個(gè)階段,1943年,兩位科學(xué)家沃倫·麥卡洛克和沃爾特·皮茨發(fā)表了論文 《神經(jīng)活動(dòng)中內(nèi)在思想的邏輯演算》。這篇論文講述了計(jì)算機(jī)也可以進(jìn)行深度學(xué)習(xí),描述了如何讓人造神經(jīng)元網(wǎng)絡(luò)實(shí)現(xiàn)邏輯功能,AI的大門正式打開。1956年達(dá)特茅斯會(huì)議提出人工智能的概念,并指出要用“人工智能”替代“人智能”。第二階段AI技術(shù)發(fā)展開始于20世紀(jì)七十年代,神經(jīng)網(wǎng)絡(luò)算法備受追捧,掀起了一股研究AI技術(shù)的熱潮?,F(xiàn)代AI技術(shù)自2006年多倫多大學(xué)杰弗里教授發(fā)表了三篇關(guān)于人工智能領(lǐng)域深度學(xué)習(xí)的論文,并提出了深度信念網(wǎng)絡(luò)的概念,基于大數(shù)據(jù)互聯(lián)網(wǎng)的全面普及,當(dāng)代社會(huì)又進(jìn)入了AI技術(shù)第三階段?,F(xiàn)階段的AI技術(shù)已在云計(jì)算、健康醫(yī)療、政務(wù)國(guó)防、隱私保護(hù)、數(shù)據(jù)匿名化、衛(wèi)星數(shù)據(jù)處理、網(wǎng)絡(luò)安全、工農(nóng)自動(dòng)化、自動(dòng)駕駛、金融分析、材料科學(xué)等諸多方面有了廣泛發(fā)展。
AI技術(shù)仍有深遠(yuǎn)的發(fā)展前景。許多學(xué)者一致認(rèn)為,世界即將邁進(jìn)“AI新時(shí)代”。于此同時(shí),在陸續(xù)出現(xiàn)的云計(jì)算、手機(jī)語音人工智能、具有“行為主義”學(xué)習(xí)的AI程序、無人駕駛技術(shù)等創(chuàng)新性的AI技術(shù)逐漸走入人們生活的同時(shí),AI換臉技術(shù)、腦機(jī)接口技術(shù)等直接依托于人應(yīng)用的AI技術(shù)產(chǎn)生的倫理問題接踵而至,引發(fā)了全社會(huì)對(duì)AI技術(shù)安全倫理性的質(zhì)疑,各國(guó)緊急叫停多個(gè)AI研究室并逐漸形成了基本的AI技術(shù)發(fā)展倫理制約規(guī)定。但即便如此,各項(xiàng)新興AI技術(shù)的面世仍伴隨著社會(huì)各界的質(zhì)疑。
2017年IEEE新版人工智能與倫理報(bào)告中提出了:重視人工智能的邊界問題,提出了“鼓勵(lì)、限制、禁止”三種發(fā)展人工智能的政策。預(yù)告成立中科院“人工智能技術(shù)、倫理與法律聯(lián)盟”的合作平臺(tái)??梢砸姷?,在目前世界范圍內(nèi),倫理關(guān)系已然成為制約AI技術(shù)發(fā)展的先決條件。不受倫理制約的AI技術(shù)發(fā)展也將打破人類生活的正常秩序,極大程度改變目前以人為主導(dǎo)的社會(huì)體系。
我國(guó)在語音識(shí)別、視覺識(shí)別、機(jī)器翻譯、中文信息處理等AI技術(shù)方面處于世界領(lǐng)先地位。依托《關(guān)于積極推進(jìn)“互聯(lián)網(wǎng)+”行動(dòng)的指導(dǎo)意見》、《“十三五”國(guó)家科技創(chuàng)新規(guī)劃》等國(guó)家扶持政策,我國(guó)至未來幾十年間都將把AI技術(shù)置于高新技術(shù)發(fā)展的重要地位。我國(guó)擅長(zhǎng)的AI技術(shù)領(lǐng)域涉及較少的倫理問題,主要的發(fā)展風(fēng)險(xiǎn)來自于用戶個(gè)人數(shù)據(jù)泄露。
目前提出的用戶數(shù)據(jù)保護(hù)原則:第一,收集信息必須在用戶有感知的情況下;第二,要主動(dòng)體現(xiàn)采集來的信息如何投入實(shí)際應(yīng)用;第三,使用戶可以動(dòng)態(tài)控制自身信息的應(yīng)用場(chǎng)景。隨著我國(guó)AI科技的不斷發(fā)展,數(shù)據(jù)保護(hù)政策也在逐步完善。
全球范圍內(nèi)的AI技術(shù)不僅局限于基礎(chǔ)人工智能發(fā)展,他們更多的不是縱向深入研究人工智能機(jī)器人、數(shù)據(jù)分析AI等。美國(guó)應(yīng)用其目前擁有較為先進(jìn)的AI科研技術(shù),橫向探索類似AI換臉技術(shù)、基因重組AI模擬、各類對(duì)比檢測(cè)AI技術(shù)。據(jù)科研調(diào)查顯示年輕人、兼職、西班牙人和美國(guó)低收入人群反映受到AI技術(shù)進(jìn)步影響最大,青中年男性對(duì)AI技術(shù)發(fā)展的關(guān)注度十分顯著。這也是為什么國(guó)外數(shù)據(jù)聯(lián)想產(chǎn)生的AI換臉技術(shù)多針對(duì)男性用戶研發(fā)。
隨著AI技術(shù)越發(fā)成熟,世界各國(guó)家、組織都制訂了國(guó)家級(jí)AI發(fā)展戰(zhàn)略,但是AI技術(shù)在全球的統(tǒng)一倫理標(biāo)準(zhǔn)尚不完善,還有待各國(guó)的溝通協(xié)商。
1.1 現(xiàn)代AI技術(shù)涉及的經(jīng)濟(jì)倫理學(xué)
現(xiàn)代AI技術(shù)涉及經(jīng)濟(jì)倫理學(xué),狹義上與AI相關(guān)的企業(yè)經(jīng)營(yíng)倫理學(xué)。廣義上則包含組織和個(gè)人全部的經(jīng)濟(jì)決策、經(jīng)濟(jì)行為、經(jīng)濟(jì)制度的倫理規(guī)范合理性。
經(jīng)濟(jì)倫理學(xué)顧名思義,是研究倫理學(xué)與經(jīng)濟(jì)學(xué)之間的現(xiàn)實(shí)聯(lián)系,主要任務(wù)是遵循兩學(xué)派間的基本原則解決實(shí)際生活中的沖突矛盾。經(jīng)濟(jì)倫理學(xué)的學(xué)科本質(zhì)在于使人們?cè)谕ㄟ^發(fā)展AI科技獲取經(jīng)濟(jì)利益的同時(shí)完善道德價(jià)值取向,通過協(xié)調(diào)利益關(guān)系規(guī)范科研過程,使AI技術(shù)的發(fā)展具有原則性,有確實(shí)的善惡取向,不盲目追求利益。
1.2 現(xiàn)代AI科技涉及的商業(yè)倫理學(xué)
科技最終的目的是流于商業(yè),促進(jìn)經(jīng)濟(jì)。商業(yè)倫理學(xué)一向應(yīng)用范圍較窄,在過去的長(zhǎng)久發(fā)展中,商業(yè)的最終目的都被設(shè)定為獲取利益。如何搶占更多的市場(chǎng),如何降低成本發(fā)展更多受人追捧的產(chǎn)品是每一個(gè)企業(yè)商人的追求。在獲取利益的道路上,很多人選擇了讓倫理妥協(xié),這是商業(yè)社會(huì)中牢固的觀念?,F(xiàn)代西方經(jīng)濟(jì)學(xué)與此種理論相依相存,形成了一種牢固的商業(yè)體系,對(duì)全球商業(yè)模式也產(chǎn)生了深遠(yuǎn)影響。
現(xiàn)階段AI科技如果遵循此種商業(yè)體系,追尋利益,亟待開發(fā)的就是關(guān)于讀取個(gè)人信息、操控個(gè)人意識(shí)、育成合成人胚胎等技術(shù)。部分商界巨富愿意拿出大筆資金資助研究室開發(fā)類似科技,他們認(rèn)為這類AI科技的投入使用會(huì)產(chǎn)生翻天覆地的經(jīng)濟(jì)動(dòng)蕩,他們可以借此東風(fēng)獲得機(jī)遇,賺取常人難以想象的利益。這些巨富和研究者各懷目的,以利益為發(fā)展目的,自然根本不會(huì)去考慮商業(yè)倫理,甚至任何擋在他們研發(fā)道路上的問題都會(huì)被認(rèn)定為他們牟利的絆腳石。
商業(yè)倫理學(xué)在近代極速發(fā)展,因?yàn)槿藗兘K于看到了長(zhǎng)期以來頻繁發(fā)生的企業(yè)失德行為,一次次破壞了商業(yè)秩序,極大程度阻礙了社會(huì)經(jīng)濟(jì)發(fā)展。于是商業(yè)各界開始正視商業(yè)倫理學(xué)的重要性,并依次標(biāo)準(zhǔn)重新評(píng)判一個(gè)企業(yè)的價(jià)值發(fā)展前景。無秩序?qū)だ腁I科技值此發(fā)展洪流將如逆水行舟,作為新興科技產(chǎn)業(yè),研發(fā)標(biāo)準(zhǔn)尚不明確。我們也應(yīng)該給予現(xiàn)代AI科技發(fā)展更加嚴(yán)格的商業(yè)倫理標(biāo)準(zhǔn)和企業(yè)管控。
1.3 現(xiàn)代AI科技涉及的人文倫理學(xué)
人文倫理學(xué)的核心在于個(gè)人本身。人文倫理中有一項(xiàng)重要的原則為:個(gè)人自治。即個(gè)人有生存、思考、探索、決定的權(quán)利,在不影響他人的情況下,任何人都有為自己的人生做出任何決定的權(quán)利。任何人意識(shí)形態(tài)的產(chǎn)生都該被尊重,這與現(xiàn)代AI科技探索人類思維網(wǎng)絡(luò)的過程產(chǎn)生了巨大的沖突。
人文倫理學(xué)所倡導(dǎo)的個(gè)人自治并不拋棄責(zé)任。其學(xué)科主張自由社會(huì)與責(zé)任共存,生活在社會(huì)中的每個(gè)人都有責(zé)任承擔(dān)起自身的義務(wù)。除此之外,社會(huì)對(duì)個(gè)人自由的形成才能予以庇護(hù)。這項(xiàng)原則即現(xiàn)代AI技術(shù)的發(fā)展成果不能僅基于小部分人的利益,AI技術(shù)的研發(fā)和應(yīng)用必須基于整個(gè)社會(huì)的發(fā)展。
2.1 現(xiàn)代AI技術(shù)在科研中產(chǎn)生的倫理沖突
現(xiàn)代AI技術(shù)中僅在科研階段就被叫?;蛘叨喾较拗频亩酁獒t(yī)療技術(shù),比如計(jì)算機(jī)編輯基因技術(shù)、腦機(jī)接口技術(shù)等。
直接作用在人身體上的神經(jīng)科學(xué)和AI可能帶來比AI在其他領(lǐng)域的應(yīng)用更深遠(yuǎn)的倫理影響。腦機(jī)接口AI技術(shù)已初步實(shí)現(xiàn)了控制猴腦神經(jīng)元活動(dòng),這一研究一經(jīng)發(fā)布引發(fā)了世界各國(guó)的廣泛關(guān)注。部分醫(yī)學(xué)家認(rèn)為依靠此技術(shù)在未來可以通過構(gòu)建某種AI模型達(dá)到訓(xùn)練、控制病人的大腦,治愈多種因大腦皮層功能異常產(chǎn)生的神經(jīng)性疾病,例如人格分裂、癲癇、抑郁等。另一部分專家學(xué)者則認(rèn)為無法保證全部醫(yī)者在醫(yī)治過程中不會(huì)窺探患者隱私,乃至暗示、控制病人的大腦。另一方面,掌握此項(xiàng)科技的科學(xué)家可以通過不法手段設(shè)計(jì)AI程序,違背他人意愿,達(dá)到操控他人的目的。即使先摒棄未來可能產(chǎn)生的倫理問題,現(xiàn)實(shí)的案例也已經(jīng)表明,智能機(jī)器和腦機(jī)接口設(shè)備的運(yùn)作能使一個(gè)人開始懷疑自己的身份,懷疑自己的行為是否受自己控制,再拔除腦機(jī)后使用者仍有被操控感,無法輕易從被操控狀態(tài)脫離,產(chǎn)生嚴(yán)重的身份認(rèn)同危機(jī)。
這極大程度違背了:人工智能不應(yīng)用來收集或使用信息,以監(jiān)視人和控制人的基本倫理原則。
2.2 現(xiàn)代AI技術(shù)在實(shí)踐中產(chǎn)生的倫理沖突
目前新興爭(zhēng)議較大的AI技術(shù)大致可以分為:基于信息識(shí)別對(duì)比大數(shù)據(jù)庫(kù)模擬數(shù)據(jù)得出某項(xiàng)檢測(cè)結(jié)果或產(chǎn)出衍生品的AI分析技術(shù)、基于計(jì)算機(jī)編寫基因代碼技術(shù)、各類將人腦與計(jì)算機(jī)上AI模型相連的腦機(jī)接口技術(shù)三個(gè)方面。
AI分析技術(shù)有多種形式,比如:2018年7月來自墨爾本大學(xué)的研究員設(shè)計(jì)出的一種AI生物識(shí)別鏡,此項(xiàng)技術(shù)可以檢測(cè)一個(gè)人對(duì)AI的理解以及對(duì)其獨(dú)有特征的相關(guān)信息的反應(yīng)。系統(tǒng)會(huì)在幾秒鐘內(nèi)檢測(cè)出用戶的一系列面部特征。然后將數(shù)據(jù)與內(nèi)部存儲(chǔ)的面部照片數(shù)據(jù)進(jìn)行比較,進(jìn)而產(chǎn)生包括性別、年齡、種族,以及魅力、性格古怪之處和情緒穩(wěn)定度等。①通過此種技術(shù),生物識(shí)別鏡投放者可通過暗中安裝識(shí)別鏡掃描他人的臉部,檢測(cè)就外貌分析出的所有結(jié)果。更可怕的是,這類檢測(cè)結(jié)果并不完全準(zhǔn)確,卻可能為被檢測(cè)人蓋棺定論。換而言之,任何人都有可能因?yàn)樘焐耐饷捕粩嘌跃哂蟹缸飪A向或被認(rèn)定沒有任何提升潛力。
2012年基因編輯技術(shù)CRISPR/Cas9問世,雖然在識(shí)別提取具體基因序列和打印單序列基因方面技術(shù)還較為粗糙。但此項(xiàng)技術(shù)已經(jīng)構(gòu)建出人類社會(huì)未來可通過打印目標(biāo)基因植入某個(gè)物種的基因序列中,從而改變生物的性質(zhì)甚至創(chuàng)造全新的物種。從倫理學(xué)角度來講,這類創(chuàng)造出的物種介于自然物種和假象生物之間,違背了自然規(guī)律。制造出的物種如果不符合實(shí)驗(yàn)初始目的,必定會(huì)被立刻終止生命,無論是立即毀滅還是用于科研都有悖于人文倫理。
現(xiàn)階段AI技術(shù)對(duì)人類的威脅大多集中在搶奪一部分體力工作者的崗位等方面,還沒有引發(fā)全社會(huì)直接關(guān)注,但是我們必須預(yù)先了解和設(shè)想到不加管控的AI技術(shù)發(fā)展可能帶來的嚴(yán)重后果。
新興AI分析技術(shù)可能使人類繼種族歧視、性別歧視、宗教壓迫等后產(chǎn)生“AI數(shù)據(jù)檢測(cè)”歧視。僅僅基于理論數(shù)據(jù)即對(duì)被檢測(cè)人進(jìn)行分類、推斷?;蛟SAI分析技術(shù)最后會(huì)演化成一個(gè)人從嬰兒出生起就會(huì)經(jīng)歷各種檢測(cè),以決定他將來被劃分為哪一類人群,從事何種工作,以什么樣的方式度過一生。
AI換臉技術(shù)雖然使用戶能夠 “一鍵換臉明星”,但這項(xiàng)技術(shù)也經(jīng)常用于被人惡意剪輯不良圖片、視頻,給諸多明星、政府工作人員造成了名譽(yù)和心理的雙重?fù)p害。
現(xiàn)實(shí)的擔(dān)憂就是隨著人工智能在各行各業(yè)的普及,會(huì)導(dǎo)致大量勞動(dòng)力失業(yè),國(guó)家失業(yè)率上升必定導(dǎo)致一系列社會(huì)問題。這些都是我們?cè)诎l(fā)展AI技術(shù)的同時(shí)應(yīng)該考慮到的隱患。
要保證AI技術(shù)在發(fā)展和使用中的安全,首先必須在研發(fā)過程中進(jìn)行嚴(yán)格的監(jiān)管。AI技術(shù)的發(fā)展是達(dá)摩克利斯之劍,它既可能給我們帶來龐大的利益、醫(yī)學(xué)史的突飛猛進(jìn)、生活上的種種便利,但稍加不慎,人類的文明歷史將受到破滅性打擊。所以不基于基本倫理的AI研究都違背了科學(xué)發(fā)展的基本準(zhǔn)則,即:以人為本。
無視其背后潛藏的巨大風(fēng)險(xiǎn)執(zhí)意展開缺少倫理制約的技術(shù)研究,大多都是為了少部分人的短期利益絕非所謂“為了社會(huì)的發(fā)展”。除了在研究、實(shí)踐AI技術(shù)的過程中堅(jiān)持遵循“第一,以人為本;第二,完全可控;第三,以全社會(huì)的價(jià)值取向?yàn)榘l(fā)展方向”的基本倫理原則外;如果現(xiàn)代社會(huì)對(duì)現(xiàn)階段某種AI技術(shù)發(fā)展可能產(chǎn)生的負(fù)面印象無力抵抗,我們應(yīng)該適當(dāng)延緩其發(fā)展,而不是對(duì)未知的領(lǐng)域盲目探究。
注釋:
①《世界首款A(yù)I魔鏡:一照識(shí)別你的性格》,中國(guó)大數(shù)據(jù),2018 年,據(jù) http://chuansong.me/.
山東農(nóng)業(yè)工程學(xué)院學(xué)報(bào)2020年5期