段偉文
基于大規(guī)模預訓練語言模型的生成式與對話式人工智能在涌現(xiàn)出強大能力的同時也產(chǎn)生了巨大爭議,需要我們在加速創(chuàng)新和有序發(fā)展之間作出更具系統(tǒng)性和預見性的研判
近年來,數(shù)據(jù)驅(qū)動的人工智能及其社會應用取得迅猛發(fā)展,呈現(xiàn)出諸多具有顛覆性社會影響的創(chuàng)新前景,迫使我們不得不思考如何認識其可能帶來的社會、倫理乃至安全風險,進而采取合理的應對之策。特別是繼深度合成技術(shù)之后,基于大規(guī)模預訓練語言模型的生成式與對話式人工智能在涌現(xiàn)出強大能力的同時也產(chǎn)生了巨大爭議,需要我們在加速創(chuàng)新和有序發(fā)展之間作出更具系統(tǒng)性和預見性的研判。
從工程技術(shù)上講,近期興起的基于大模型的人工智能開啟了對類人類智能的探索,雖然這還不是認知科學意義上的通用人工智能,但應該看到其中具有革命性的創(chuàng)新突破。認知科學意義上的通用人工智能是指機器人和智能軟件及算法能夠作為獨立的智能體進行學習、認識和決策,甚至具有獨立的自我意識。而當前出現(xiàn)的生成式人工智能是一個由人類和機器智能構(gòu)成的巨型智能生態(tài)系統(tǒng),實質(zhì)上是通過工程和系統(tǒng)方法在人類智能和機器智能的復雜組合之上實現(xiàn)的。盡管如此,我們還是應該認識到其在工程技術(shù)和產(chǎn)業(yè)應用層面可能帶來的革命性因素,看到與可能的突破性創(chuàng)新相伴隨的高度不確定性。其中,有三個方面的問題尤其值得關注。
一是從用戶體驗上講,生成式和對話式人工智能在人機交互的工程實現(xiàn)方面突破了一個臨界點,意味著人工智能可以在較流暢的人機對話指引下做各種工作。二是在人工智能生成內(nèi)容層面,大量實施了人機價值對齊工程,通過預訓練和人工標注等工程方法,可以比較有效地調(diào)節(jié)和矯正生成內(nèi)容中存在的價值觀念沖突,進而實現(xiàn)對相關社會風險的控制。三是這一波生成式和對話式的人工智能剛起步,對其可能進一步涌現(xiàn)的創(chuàng)新強度、深度和規(guī)模作出準確判斷還為時尚早,一旦其應用無處不在,的確難以預見其可能帶來的風險,而這也是最近出現(xiàn)呼吁暫停相關實驗的主要原因。
第一,生成式人工智能的廣泛運用會強化目前已經(jīng)顯現(xiàn)的各種社會倫理問題。一是偏見和歧視。如果用于開發(fā)人工智能算法和模型的訓練數(shù)據(jù)有偏見,算法和模型也會有偏見,從而導致生成式人工智能的回應和建議出現(xiàn)歧視性的結(jié)果。二是信息誤導。人工智能語言模型所生成的對話可能會向用戶提供不準確或誤導性的回應,進而導致錯誤信息的傳播。三是信息濫用。人工智能大模型及其預訓練需要收集和處理大量的用戶數(shù)據(jù),其中必然涉及技術(shù)和商業(yè)保密數(shù)據(jù)以及國家安全數(shù)據(jù),隱私數(shù)據(jù)和敏感個人信息可能會被濫用。四是虛假內(nèi)容及惡意使用。盡管生成式人工智能目前還沒有實現(xiàn)大規(guī)模商業(yè)化社會應用,但從信息網(wǎng)絡媒體、虛擬現(xiàn)實和深度合成等技術(shù)的發(fā)展經(jīng)驗不難看到,生成式人工智能可能被用于制造不易識別的虛假內(nèi)容,甚至被惡意使用,從而影響、干預和操縱社會輿論和政治過程。五是對個人自主性的干預。生成式人工智能在商業(yè)上可能被用來影響或操縱用戶的行為和決策。
第二,生成式人工智能可能使知識生產(chǎn)方式發(fā)生根本性變革,不僅會對傳統(tǒng)的知識產(chǎn)權(quán)帶來顛覆性影響,還可能沖擊工作方式和就業(yè)。生成式人工智能對知識產(chǎn)權(quán)的顛覆性影響。目前,人工智能在藝術(shù)創(chuàng)作領域的應用受到了大量的侵權(quán)指控,但作為一種內(nèi)容生成技術(shù),不能沒有數(shù)據(jù)作為原料,而其所生成的內(nèi)容與生產(chǎn)原料存在區(qū)別,因此,是否侵權(quán)比較難以界定,并且會隨著技術(shù)的發(fā)展越來越難界定。這不僅使按照現(xiàn)有法律應該得到知識產(chǎn)權(quán)保護的人類創(chuàng)作內(nèi)容的保護變得越來越困難,并且對于人工智能生成內(nèi)容的版權(quán)是否應該得到保護成為一個新問題。鑒于生成式人工智能是一種全新的內(nèi)容和知識生產(chǎn)方式,其模型訓練必須大量使用現(xiàn)有內(nèi)容,而目前法律上對內(nèi)容侵權(quán)的界定是在這種技術(shù)出現(xiàn)之前提出的,如果要發(fā)展生成式人工智能并對其實現(xiàn)有效監(jiān)管,須重新界定其內(nèi)容使用邊界。
生成式人工智能對工作方式和就業(yè)的根本性沖擊。生成式人工智能與人類高度類似的對話能力表明,它將使人機交互的便捷程度大大提升,各行各業(yè)現(xiàn)有的工作流程都可能因此得到簡化,必然帶來對現(xiàn)有工作內(nèi)容的改變和工作崗位的擠壓。特別值得關注的是這次被取代的可能是受教育程度比較高的專業(yè)技術(shù)人員,如文秘、咨詢、翻譯、文創(chuàng)、設計甚至醫(yī)療和教育等領域的人員可能面臨失業(yè)。這實際上會導致大量專業(yè)技術(shù)人員教育投入的加速折舊,加大并形成新的數(shù)字鴻溝,造成規(guī)模更大和更復雜的社會問題。
在社會認知層面,可能因為過度依賴人工智能而導致將其視為知識權(quán)威、道德權(quán)威乃至精神權(quán)威等深層次的認知幻象。一方面,生成式人工智能進一步發(fā)展,很可能成為普通人日常生活中的人工智能助手,幫助解答知識、辨別是非乃至區(qū)分善惡。鑒于人工智能并不真正理解其所生成的知識內(nèi)容以及對是非善惡的判斷,而且會產(chǎn)生錯誤或隨意堆砌和編造的內(nèi)容,故對人工智能的過度依賴難免放大其生成的不準確內(nèi)容和知識上的錯誤,甚至對社會認知產(chǎn)生結(jié)構(gòu)性的負面影響。另一方面,生成式人工智能存在過度擬人化趨勢,隨著人機對話的場景應用日益普遍,可能會出現(xiàn)濫用的風險。其中,值得關注的是將對話式人工智能不負責任地用于教育引導、心理咨詢和精神健康治療,特別是用于青少年的情況。在目前人工智能并不能理解其生成內(nèi)容的情況下,沒有老師、家長和專家的審核與監(jiān)督,不能采取以人工智能與青少年直接對話的方式實施教育引導和精神健康治療。
第三,生成式人工智能的發(fā)展及其技術(shù)產(chǎn)業(yè)模式本身也存在巨大的爭議。其中既包括治理層面的挑戰(zhàn),也包括其資源耗費對生態(tài)環(huán)境的影響等。鑒于以上對生成式人工智能社會倫理風險的認識,首先,在創(chuàng)新探索的同時,從國家層面制定研究創(chuàng)新和部署應用指南,以確保其研發(fā)和應用符合倫理和法律,促使其更好地造福社會和避害向善,使每個人都公平地享受科技創(chuàng)新的紅利。2023年4月11日,為促進生成式人工智能技術(shù)健康發(fā)展和規(guī)范應用,國家互聯(lián)網(wǎng)信息辦公室起草了《生成式人工智能服務管理辦法(征求意見稿)》。其次,加強對人工智能及其社會倫理影響的研究,推動相關知識的普及傳播,引導人們正確地理解和使用這種兼具創(chuàng)新潛力和顛覆性風險的強大力量。再次,積極應對生成式人工智能對就業(yè)和教育帶來的沖擊,采取有效的政策措施緩解社會矛盾。最后,至關重要的是,構(gòu)建人工智能驅(qū)動的科學研究和社會研究平臺,為基礎研究、應用研究和對策研究提供知識生產(chǎn)的工具和平臺,以促進人工智能良性有序發(fā)展。