張爍
人工智能審核尚處在探索和嘗試之中,有些功能還不完全智能。目前,人工智能對數(shù)字出版內(nèi)容的審核仍存在亟待解決的地方,是“文圖音視”形態(tài)領(lǐng)域內(nèi)的通病。2017年4月,美國《Nature》雜志發(fā)表的一項研究成果表明,智能算法的原理是對人類所書寫的文本內(nèi)容進行分析處理和深度學(xué)習(xí),那自然就會帶有人類的習(xí)慣,難免會像人類那樣存在帶有偏見的刻板印象[1],因而算法就會產(chǎn)生一些歧視、錯誤等問題,比如“較高的誤報率和漏檢率”。由于一些詞語存在多語義的情況,一句話相鄰詞語之間的鏈接容易造成誤報,以及不法分子還可以通過一些文字變異手段輕松繞開關(guān)鍵詞匹配。
1.誤報誤傷現(xiàn)象時有發(fā)生,應(yīng)減少算法歧視
目前市場上有多種計算機校對軟件,其中包括模式較為簡單的校對模塊,更有功能更加強大的專業(yè)校對軟件。由于計算機智能審核的算法是基于對數(shù)據(jù)庫的深度學(xué)習(xí),那么它的學(xué)習(xí)樣本必然是海量龐大的,為了盡最大程度用上所學(xué),智能審核的算法會萬分“謹慎”,有著較高的靈敏度就會導(dǎo)致誤傷一些正確內(nèi)容。
案例一:除去文字誤傷,圖片內(nèi)容被誤傷更為頻繁。2015 年,谷歌研究并發(fā)布了一款自動圖像標記軟件,用以識別分類和審核,在識別一對黑人夫婦的圖像時,由于膚色與“黑猩猩”特征相似,將其標記為“黑猩猩”,并將黑人照片自動上傳[2],其實,許多其他公司研發(fā)的自動標記系統(tǒng)也都存在諸如此類的問題。這些程序形成的“低級錯誤”雖成為人們的玩笑談資,但也警醒著人們,在實際應(yīng)用中這種技術(shù)不成熟所導(dǎo)致的“低級錯誤”可能會形成更為嚴重的歧視結(jié)果。[3]
案例二:YouTube用戶Jamison Go收到了一份平臺的違規(guī)處理通知,平臺方直接刪除了他發(fā)布的機器人比賽格斗視頻,算法檢測到該視頻涉及對虐待動物或迫使動物打斗。而視頻中的真實情況卻是機器人喬普正在和另一個機器人格斗。而實際上YouTube本身并沒有關(guān)于禁止上傳機器人格斗視頻的規(guī)定,此番操作或許是因為算法誤將該視頻標注了虐待動物的詞條,經(jīng)審核后系統(tǒng)自動將其刪除。在接到投訴后,YouTube人工團隊重新進行了人工檢驗并恢復(fù)了原先被誤刪的視頻。因此以后在類似審核案件中,應(yīng)該由人工智能審核進行初審,有必要的情況下由人工進行再次篩查。
2.對于審核遺漏,改善算法技術(shù)
正所謂“道高一尺魔高一丈”,用戶在熟悉了平臺的智能審核原理后,有些圖謀不軌的用戶會借此打擦邊球,但是阿里云計算公司在世界杯期間利用自然語言處理技術(shù)能夠智能地分析出文字的語言情感,防止文本變異而產(chǎn)生的審核遺漏。
中華文化歷史悠久,漢語的發(fā)展歷程源遠流長、博大精深,但是對古籍文獻的審核是目前智能校對軟件需要一同努力攻克的難題,有時還是需要專業(yè)的人工審核介入。
3.智能審核應(yīng)注重社會效益,盡快建立人工智能算法審查機制
人工智能的飛速發(fā)展必然帶來大量法律法規(guī)的立、改、廢,甚至?xí)饌惱怼⒌赖聦用娴囊恍﹥r值沖突。[4]在美國,17歲少女遭到殘忍殺害的血腥照片瘋傳網(wǎng)絡(luò),部分網(wǎng)友表示看后產(chǎn)生惡心、心理陰影等不良反應(yīng),F(xiàn)acebook平臺的人工智能審核力度遭到網(wǎng)友的強烈質(zhì)疑。此次不良影響究竟是人工智能審核系統(tǒng)的失靈遺漏還是為了熱度而故意保留,暫時無法考證,因而更加需要建立人工智能算法審查機制,在高質(zhì)量完成審核工作的同時也要注重社會影響保障社會效益。
正如尼爾·波茲曼在《娛樂至死》中評價電視時提出的“每一種思想的新工具的誕生都會達到某種平衡,有得必有失,雖然這種平衡并不是絕對的;我們在或毀或譽時要十分小心,因為未來的結(jié)果往往是出人意料的。”[5]
也就是說如果人工智能的審核過濾機制原本是為用戶屏蔽掉一些不良的極端信息,從而營造清爽的網(wǎng)絡(luò)環(huán)境,但如果把自殺、他殺等殘暴行為的發(fā)布內(nèi)容或網(wǎng)絡(luò)求助信息通過算法屏蔽掉后,平臺方未作出后續(xù)行為從而掩蓋了事實,妨礙案件的發(fā)現(xiàn)及辦案,就與審核的根本目的大相徑庭了。由于缺乏有效的自動化技術(shù)來識別這些內(nèi)容,所有這些不可信和不恰當?shù)膬?nèi)容都需要依賴于專業(yè)人員的知識儲備、個人評判來識別,并核對事件的關(guān)注度和可信度從而甄別定奪是否告知于警方。[6]因此在人工智能審核惡意內(nèi)容的技術(shù)尚不完善的前提下,建議人工介入處理。人工智能應(yīng)該做到互聯(lián)互通,當標記出有自殺等有危險性的想法時,應(yīng)該幫忙聯(lián)系急救人員。
2020年3月起《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》開始實行,筆者認為人工智能審核技術(shù)很適合對網(wǎng)絡(luò)暴力等網(wǎng)絡(luò)不良行為進行追蹤監(jiān)測,以及加強對可疑用戶的審核,從內(nèi)容生產(chǎn)者和傳播者的角度控制劣質(zhì)內(nèi)容的產(chǎn)生及傳播。盡快出臺算法的倫理道德規(guī)范,從而劃分算法倫理道德法律的界限。
4.建議將區(qū)塊鏈技術(shù)應(yīng)用到智能審核中
區(qū)塊鏈與人工智能的關(guān)系就好比計算機和互聯(lián)網(wǎng):前者是數(shù)據(jù)的存儲方式,后者則是由數(shù)據(jù)產(chǎn)生的應(yīng)用。區(qū)塊鏈的真實就意味著更多優(yōu)質(zhì)訓(xùn)練數(shù)據(jù),在應(yīng)用人工智能技術(shù)的同時,用區(qū)塊鏈保證流程的透明和靈活;人工智能在算法上的突破,也能幫助區(qū)塊鏈提升數(shù)據(jù)的傳輸效率。數(shù)字出版產(chǎn)品的版權(quán)審核,如果將區(qū)塊鏈技術(shù)與人工智能結(jié)合,將促進“版權(quán)審核”更加智能化、規(guī)范化。
5.探尋機器和人的新關(guān)系
自從人工智能進入大眾視野以來,“機器是否會取代人類?人工智能給人員就業(yè)帶來何種壓力”的言論甚囂塵上。但是在出版界,機器和人的關(guān)系一直都是人機協(xié)作、機器輔佐人工。在出版的審校工作中,編輯人員雖不如機器那般依托于龐大的數(shù)據(jù)庫而擁有海量的知識儲備,甚至工作效率遠不及智能審核,但是在人工智能的協(xié)助下,編輯的功能正在逐步轉(zhuǎn)變——編輯的工作將會向掌控全局、調(diào)整軟件參數(shù)、最終審查等工作上發(fā)展。[7]同時,編輯不能產(chǎn)生惰性而過于信賴機器,仍然要發(fā)揮好把關(guān)人的作用。編輯要緊密觀察機器的動態(tài),及時對智能審核系統(tǒng)進行查漏補缺,完善其深度學(xué)習(xí)的數(shù)據(jù)庫,讓審核更加智能高效。
結(jié)語
在這個萬物皆可AI的時代,人工智能的確對我們的工作起到了提質(zhì)增效的作用,無論它技術(shù)進步得多么迅速和完善,人工智能審核都不能完全取代人工,智能和人工之間的關(guān)系永遠都是智能服務(wù)于人工,機器輔佐人類,減輕人類的工作量。我們不能過于依賴它,否則人們便成了傀儡,要做AI的主人而不是奴隸。善于將AI靈活運用,使其成為我們的工具,探索出一條人機協(xié)作的高效之路。