人工智能面臨的安全問題可能超出很多人的想象。中國網(wǎng)絡(luò)空間安全協(xié)會副理事長杜躍進博士表示,人工智能在為時代發(fā)展帶來深遠影響的同時,也面臨著嚴峻的安全問題,唯有讓人工智能和安全有機融合,才能讓人工智能有一個光明的未來。
杜躍進指出,智能化對“壞人”也意味著“機會”。當今社會是互聯(lián)互通的,網(wǎng)絡(luò)攻擊可以從虛擬空間滲透到物理空間,其危害是空前的。他列舉了人工智能安全的“七宗罪”。
一是硬件層面。很多人工智能元器件在物理層面缺乏安全保障,哪怕只有一段線路沒有進行電磁屏蔽,也會給物理干擾留下機會。
二是軟件層面。任何軟件都有漏洞,它們可以被攻擊者利用,實現(xiàn)代碼執(zhí)行、控制流劫持、信息泄露等目標。
三是協(xié)議層面。很多專用通信協(xié)議設(shè)計缺乏安全考慮。
中國網(wǎng)絡(luò)空間安全協(xié)會副理事長 杜躍進
四是數(shù)據(jù)層面。大數(shù)據(jù)時代有一個“黑箱悖論”,即只知道計算的結(jié)果但不知道原因。人工智能離不開數(shù)據(jù),但數(shù)據(jù)本身有可能被“污染”,這時人工智能就像被“投毒”了卻沒人知道。
五是業(yè)務(wù)層面,算法本身可以被欺騙、誤導(dǎo)。當人工智能越來越多地被用于控制相關(guān)業(yè)務(wù)時,可能會產(chǎn)生致命性的影響。
六是應(yīng)用動機層面。壞人有可能更早、更深地看到人工智能帶來的機會,用人工智能技術(shù)做危害他人或社會的事情。
七是機制設(shè)計層面。人工智能用于大規(guī)模社會治理的時候,由于社會系統(tǒng)的復(fù)雜性,可能因為模式設(shè)計考慮不充分,最后導(dǎo)致事與愿違的結(jié)果。
杜躍進博士指出,人工智能安全問題不能僅從技術(shù)的角度考慮。例如從倫理的角度,如果我們不能建立一個人工智能的正確的價值規(guī)范,人工智能可能被壞人用來做危害人類利益的事情。從社會復(fù)雜性的角度來看,人工智能的應(yīng)用往往針對一個個需求點而實施,但因為社會的復(fù)雜性,這種單點思維可能會導(dǎo)致技術(shù)在推廣實施中事與愿違。
因此杜躍進呼吁,人工智能安全問題需要來自安全、通信、社會學、法律等領(lǐng)域的機構(gòu)、企業(yè)、專家共同參與、解決。
杜躍進還強調(diào),人工智能同樣也是當下解決安全問題的利器。在大安全時代,無論是過去的安全痼疾,還是線上線下層面的安全問題,都可能因為人工智能的應(yīng)用而找到突破口。安全行業(yè)一定要充分認識到,我們真正的對手不是其他競爭廠商,而是那些網(wǎng)絡(luò)攻擊者、破壞者。能否幫助客戶、大眾抵御網(wǎng)絡(luò)攻擊,遏制危害,才是衡量安全企業(yè)成功與否的關(guān)鍵。