( 峰橋集團)
近十多年來,云計算范式的成熟帶來了算力的提升,與此同時全球范圍的數字化,使得匯聚和共享的數據量呈指數式增長,再加上算法與機器學習通過融合當今物理學、生物學、神經科學和心理學等學科的知識后取得了重大進展。在算力、數據及算法三者的強力支撐下,人工智能技術(AI)異軍突起,目前已經廣泛的應用于社會、經濟和政治生活的各個領域,創(chuàng)造了極高的價值。
具體而言,如AI技術應用于制造業(yè),提高了生產效率;在醫(yī)療領域中應用AI技術,促進了醫(yī)學專家系統(tǒng),能夠為復雜病例提供輔助診斷;投資領域應用AI技術則可以提供復雜的投資決策;數字營銷中應用AI技術能夠為用戶提供定制化的信息;而個性化的數字媒體能夠高效地提供信息??偠灾?,人工智能在諸多領域表現地比人類更優(yōu)秀,將引領新一輪數字革命。
當今人工智能技術雖然發(fā)展態(tài)勢良好,也已取得了相當大的成就,但尚未完全成熟,并未出現出類人智能的跡象。從技術發(fā)展來看,目前人工智能技術主要局限于使用數據驅動方法來解決特定問題,即其應用類型為面向特定任務而非通用問題。傳統(tǒng)的人工智能技術主要基于優(yōu)化理論及數學建模,優(yōu)化方法服務于高效解決特定問題這一目標,而數學建模則通過映射來處理輸入輸出,從而實現模式識別、學習和預測。雖然可以看到AI在棋類游戲擊敗了人類選手,但應當明了棋類游戲所需智能僅屬于人類智力活動的一種,另外棋類游戲具有規(guī)則固定、輸贏目標也很明確的特點,但在現實世界中,規(guī)則首先是模糊、不明確的,而目標則可能是動態(tài)變化的。因此當前人工智能技術的發(fā)展,距離人們所期望的擁有真實智慧或者實現真正的人工智能這一目標仍然很遙遠。人類擅長舉一反三,即抽象學習某領域的知識之后,將學習成果拓展到其他領域,就像一個人類棋手會下好多種棋、一個運動健將精于多項運動一樣,可以明確的是目前機器遠遠不能實現此類功能,這是因為機器通常是根據特定的任務目標而設計的,即便某些相似任務之間差異非常細小,但仍然需要對機器重新編程來適應新任務。對于當前人工智能技術的發(fā)展狀態(tài),我有兩個基本判斷:
● AI固然能在國際象棋和圍棋中擊敗人類棋手,但它們還無法創(chuàng)造新游戲;
● AI或許能通過大學入學考試,但它們不會問不出什么好的問題;
因此我相信,真實的機器智慧應當像人類一樣能通過學習、總結和運用所學的成果來解決跨領域的問題,這才是人工智能技術發(fā)展的未來,也是前所未有的挑戰(zhàn),尤其在安全方面還存在算法偏見和算法黑箱的情況下。
當前的機器學習效果易被訓練數據的質量和算法中的預設前提兩個因素所左右,而更讓人擔憂的是大多數機器學習并無自主校正機制。算法偏見和數據偏差帶來的最終結果是決策偏差、模型不穩(wěn)定性及結果易被操縱,只要提供不完整的數據集就很容易來操縱訓練成果,該問題的教訓也很多:如人類采納由AI推薦的投資建議但實際造成了經濟損失、由AI作出的信用評價使得貸款被拒絕、聽從AI的醫(yī)療診斷但最終導致醫(yī)療事故等,當然還有一些在數字營銷及選舉中都出現過極其惡劣的現實操縱事例,這些現象很難不讓人對于人工智能應用的安全性和倫理性進行探討和反思。數據永遠不會盡善盡美,人們也無法窮盡所有自然現象背后的規(guī)律來設定一個完美的算法模型,那么我們應當如何讓人工智能具備足夠的魯棒性來容忍數據錯誤和不妥假設呢?首先這是技術問題的本質,也就是統(tǒng)計分析中常見的過度擬合和過度泛化問題。1994年筆者在IEEE神經網絡通訊中發(fā)表的“一種魯棒的反向傳播神經網絡學習算法” 研究成果,即提出針對訓練數據不完全的情形來實現魯棒機器學習方法。
與人們所熟知的決策理論略有不同,使用神經網絡學習解決問題的邏輯并不透明,外人通常無從知曉結果從何而來、又為何如此,也就是常說的人工智能黑箱問題,這讓人工智能技術發(fā)展面臨透明度的挑戰(zhàn)。
當然更復雜的問題還在于道德、倫理層面,例如在生產中應用人工智能技術能夠提高效率和生產力,減少或替代人類勞動力,但這項成果可能最終只會讓少數人受益,有違普惠原則。人工智能技術還能被用于操縱人類的行為,常見的事例如游戲成癮、投票成見、優(yōu)先行為(preferential behavior)等,在優(yōu)先行為中,人們將再也不能通過自主選擇來閱讀或看到自己希望讀或看的東西,而只能被動接受算法強推的結果。在前面已經討論過當前AI的訓練過度依賴數據質量,而且不良數據必然導致有偏見的學習成果。退一步說,數據對于訓練人工智能如此重要,但在訓練和使用過程中應當如何保護個人隱私和數據安全?另外開發(fā)人員可能會將自身的思維方式、道德信仰等融入算法中,最終這些算法未必具備可被社會認可的完備道德。更讓人擔憂的是,如果未來有一天機器人如同人類開始具備感知能力并產生情感意識,那是否應當賦予它們一些人類的基本權利?
對于以上這些問題,我們目前非但沒有答案,甚至也沒有達成共識。雖然現在已有部分積極開發(fā)人工智能技術的企業(yè),也意識到了人工智能技術潛在的安全和倫理問題,基于企業(yè)或企業(yè)家的價值觀提出了各自的原則。如美國微軟公司希望確保應用人工智能技術合乎倫理,提出人工智能的六項基本準則:公平、可靠與安全、隱私與保密、包容、透明、負責。谷歌公司首席執(zhí)行官桑達爾·皮查伊(Sundar Pichai)則通過其個人博客發(fā)表了“谷歌七原則”,分別是:對社會有益、避免制造或加劇不公平的偏見、建立并測試安全性、對人負責、保證隱私、堅持科學的高標準、從用途和技術獨特性及規(guī)模等方面來權衡應用。這些準則既為各自企業(yè)開發(fā)人工智能類應用提供了原則性思維方法,同時也或多或少存在對超人工智能這類新生物種的敬畏。
本人從事人工智能理論研究工作多年,同時也積極投身技術應用開發(fā)的產業(yè)界,參與過運用機器學習來分析日志實現數字內容安全保障的志翔科技(Zshield),提供高級駕駛員輔助系統(tǒng)(ADAS)和無人駕駛解決方案的芯侖光電(CelePixel),將AI技術用于風力渦輪機葉片的三維檢測的擴博智能(Clobotics)等相關企業(yè)的技術應用開發(fā)??偨Y多年的相關理論研究和應用實踐的經驗,關于人工智能安全提出數點個人思考,我認為人工智能應具備如下基本特征:
● 善為先: 人工智能必須是公正、無偏和普惠的;
● 有擔當:人類開發(fā)者要承擔人工智能所作所為帶來的責任;
● 透明化:人們能清楚人工智能作出任何決定是事先已知并可知;
● 可追問:人工智能技術的應用結果應該能夠被驗證;
● 能預測:人們可以像對待人一樣能夠預測人工智能的行為;
● 免操控:人工智能解決方案應當完備,使其不容易被操控;
人工智能技術應用日見普遍,保障其安全性并疏解道德倫理風險注定道堵且長,我們現在就開始研討這些問題尤時未晚,因此拋磚引玉提出個人見解和觀點與各位同仁交流,期待相互認同,攜手共同促成人工智能技術的安全發(fā)展。