国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

可解釋人工智能在電力系統(tǒng)中的應用綜述與展望

2024-03-06 08:21:24王小君竇嘉銘劉暢宇蒲天驕和敬涵
電力系統(tǒng)自動化 2024年4期
關鍵詞:解釋性人工智能文獻

王小君,竇嘉銘,劉 曌,劉暢宇,蒲天驕,和敬涵

(1.北京交通大學電氣工程學院,北京市 100044;2.中國電力科學研究院有限公司,北京市 100192)

0 引言

近 期 , 以 Chat Generative Pre-trained Transformer (ChatGPT)[1]為首的大型語言模型因其能夠模擬人類語言行為而震驚世界,引發(fā)人類社會關于人工智能(artificial intelligence,AI)應用的大討論。電力系統(tǒng)作為人類社會重要構成,半個世紀以來,人工智能的發(fā)展同樣為其提供了嶄新道路:聯(lián)結主義、知識主義、行為主義和群體智能等常用方法[2]不僅能夠及時處理電力系統(tǒng)運行控制的大量隨機高維動態(tài)數(shù)據(jù),還能結合機理知識推動電力系統(tǒng)物理信息耦合,實現(xiàn)能源利用效率進一步提高?!癆I+”已成為電力系統(tǒng)實現(xiàn)能源轉型與“雙碳”目標的關鍵舉措與重要推手。

然而,不同形式可再生能源高滲透率的接入與高比例電力電子設備的廣泛應用促使電力系統(tǒng)復雜性進一步加劇:對內(nèi),源荷隨機性顯著與不確定性增強,運行工況樣式繁多,潮流問題復雜多變;對外,密切聯(lián)系政策法規(guī)、社會價值取向,在與社會網(wǎng)絡的交互過程中戰(zhàn)略性與基礎性更加突出[3],對“經(jīng)濟-安全-環(huán)境”三角平衡提出更高要求。為保障具有高維隨機特性并兼有數(shù)據(jù)知識耦合、內(nèi)外利益糾纏的復雜巨系統(tǒng)安全可信,以深度神經(jīng)網(wǎng)絡(deep neural network,DNN)為首的人工智能黑箱模型越來越難以為繼,表現(xiàn)出深度學習模型不透明、網(wǎng)絡參數(shù)意義不確切、學習樣本不均衡且數(shù)據(jù)不完備等問題,阻礙了人工智能在電力系統(tǒng)中的推廣應用。

可 解 釋 人 工 智 能(explainable artificial intelligence,XAI)進入電力系統(tǒng)為解決上述問題提供了重要思路。XAI 的目的是使人類更易于理解人工智能的行為[4],其對于電力系統(tǒng)的作用和意義主要表現(xiàn)在:1)在運行層面,XAI 可使電力專家充分了解、驗證人工智能黑箱模型的控制與操作過程,結合人工經(jīng)驗協(xié)助優(yōu)化調(diào)整運行策略,有助于電力系統(tǒng)更安全穩(wěn)定運行、更高效能源利用與更少量環(huán)境污染;2)在管理層面,XAI 可用于識別電力系統(tǒng)外部風險因素,分析利益相關方的策略選擇與影響程度,有助于協(xié)助人類闡明電力系統(tǒng)演化機理并制定優(yōu)化引導策略;3)在知識層面,XAI 能夠挖掘和傳遞隱含在復雜電力系統(tǒng)數(shù)據(jù)中的高維知識和洞見,揭示人類領域知識未涉獵的新規(guī)律、新機制,有助于完善電力系統(tǒng)知識體系。同時,國家自然科學基金委員會近期也發(fā)布指南[5],要求發(fā)展可解釋、可通用的下一代人工智能方法,推動人工智能在科學領域的創(chuàng)新應用,以支撐中國在新一輪國際科技競爭中的主導地位。因此,適時開展電力系統(tǒng)XAI 研究,探索黑箱人工智能模型結構與機理挖掘,對推動人工智能方法在電力科學領域的創(chuàng)新應用、構建新一代清潔低碳安全高效的智能電網(wǎng)、提高中國在能源與人工智能領域的國際競爭地位具有重要的現(xiàn)實意義與理論價值。

針對XAI 的研究,國內(nèi)外學者已提出諸多理論與實踐方法。部分文章對現(xiàn)有XAI 技術進行總結:文獻[6]從社會科學角度對XAI 進行了論述;文獻[7-8]對機器學習可解釋性方法進行了全面的分析整理;文獻[9]關注了醫(yī)療領域的XAI,文獻[10]則聚焦于XAI 在6G 通信的應用。總體而言,盡管XAI 的定義范圍與評估方式未有普遍認同的標準與體系,但各領域學者正努力找尋XAI 與本領域業(yè)務知識的關鍵結合點,以使領域內(nèi)的智能水平與可信程度并駕齊驅。

在能源領域,已有一些初步關于XAI 的綜述工作[11-15]。文獻[11]從XAI 框架入手,探索了電力系統(tǒng)中機器學習可解釋性方法的基本概念、研究框架與關鍵技術,其主要貢獻在于形成了電力XAI 的整體研究思路與框架。文獻[12]基于文獻計量學方法,對智慧能源系統(tǒng)中XAI 與治理方法選擇多個關鍵詞進行分析,但其對關鍵詞的選擇和分析較為寬泛,未能深入挖掘具體應用場景的細節(jié),導致分析結果有限,難以為實際工程應用提供有效的指導和建議。文獻[14]對能源領域的部分XAI 應用進行了簡要介紹,包括電網(wǎng)應用、能源行業(yè)、建筑能源管理等,但由于其針對多個能源領域開展綜述,未能對電力系統(tǒng)中的運行規(guī)劃、優(yōu)化調(diào)度、電力市場等特定應用進行專門的詳細探討與分析。

總的來看,現(xiàn)有研究對電力系統(tǒng)XAI 應用劃分與局限討論較為寬泛籠統(tǒng),場景的分類仍需統(tǒng)籌規(guī)劃。合適的應用場景是XAI 成功落地的關鍵,利用因地制宜的思想思考電力系統(tǒng)XAI 應用可以從問題本身特點出發(fā),得到適配問題本身的應用方式,從而將XAI 優(yōu)勢最大化凸顯。因此,為使XAI 在新型電力系統(tǒng)中發(fā)揮更大價值,本文特別關注于分析XAI 在電力系統(tǒng)的應用方式與本質特征異同,以期為電力能源結構轉型與“雙碳”目標實現(xiàn)提供助力。本文綜合梳理了電力系統(tǒng)中XAI 的5 種應用,尤其補充優(yōu)化調(diào)度、運行規(guī)劃、電力市場等方面的XAI應用,并深入探討每類應用的局限性和可能的創(chuàng)新方法;展望了電力系統(tǒng)XAI 的研究方向,特別討論了解釋范圍界定困境、解釋能力與準確性矛盾、數(shù)據(jù)模型主導平衡、數(shù)據(jù)機理融合范式挖掘等共性難題,以期為相關研究提供有益參考。

1 電力系統(tǒng)XAI 發(fā)展與現(xiàn)狀

XAI 是人工智能發(fā)展早期就存在的概念。20 世紀八九十年代,電力系統(tǒng)專家系統(tǒng)中已引入“解釋”概念,文獻[16]中指出專家系統(tǒng)解釋部分的主要功能是解釋系統(tǒng)本身的推理結果,使用戶接受。2004 年,文獻[17]首先運用英文explainable artificial intelligence 表示具有可解釋能力的人工智能,但此概念僅限于基于全譜命令的人工智能系統(tǒng)在軍事仿真游戲中的解釋能力。

XAI 概念自提出以來,逐漸進入快速發(fā)展通道。電力系統(tǒng)中,文獻[18]綜述了系統(tǒng)中故障診斷的各種研究方法,認為基于人工神經(jīng)網(wǎng)絡的電力系統(tǒng)故障診斷方法缺乏解釋自身行為和輸出結果的能力,限制了其在大型電力系統(tǒng)中的應用。2006 年,“深度學習”的概念[19]被提出,人工智能研究進入了新的階段。然而,深度學習雖然加深了網(wǎng)絡深度,提升了模型效果,但卻大大減少了人們對模型內(nèi)部的理解。面對該問題,2017 年5 月,美國國防部高級研究計劃局啟動了XAI 計劃[20],從解釋模型學習、解釋界面設計與解釋心理研究三方面入手,較為完整和明確地闡述了關于人工智能可解釋性的概念,即一整套能夠產(chǎn)生更多可解釋模型,維持高水平學習性能,使用戶理解、信任和有效管理人工智能的機器學習技術,正式拉開了XAI 快速發(fā)展的帷幕[21]。

近年來,為促使人工智能應用快速落地,中國出臺了各類XAI 相關政策。2017 年,國務院公開印發(fā)的《新一代人工智能發(fā)展規(guī)劃》中強調(diào):“實現(xiàn)具備高可解釋性、強泛化能力的人工智能”[22]。2021 年,新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能倫理規(guī)范》[23],指出:“在算法設計、實現(xiàn)、應用等環(huán)節(jié),提升透明性、可解釋性、可理解性、可靠性、可控性”。在產(chǎn)業(yè)界,阿里[24]、京東[25]等公司都針對XAI 展開前沿部署。值得注意的是,2022 年12 月,國網(wǎng)山東省電力公司聯(lián)合阿里巴巴公司共同實現(xiàn)了基于XAI 的負荷預測,有力地支撐電網(wǎng)安全穩(wěn)定運行[26]。

在學術界,XAI 與電力系統(tǒng)的聯(lián)系日益緊密,已有一些相關綜述與研究論文發(fā)表。已發(fā)表的電力系統(tǒng)XAI 綜述論文如表1 所示,其分別從電力系統(tǒng)可解釋框架、能源領域XAI 文獻計量、建筑能源XAI應用等方面開展綜述,對XAI 在電力系統(tǒng)落地應用具有較強的借鑒價值與意義。同時,本文基于知識圖譜軟件——visualization of similarities viewer(VOSviewer)[27]分析了電力系統(tǒng)XAI 論文(基于中國知網(wǎng)),通過聚類分析了解XAI 在電力系統(tǒng)的關鍵領域,如圖1 所示。在技術層面,XAI 與機器學習、深度學習、決策樹、注意力機制、隨機森林、卷積神經(jīng)網(wǎng)絡(convolutional neural network,CNN)等人工智能技術關系密切;在應用層面,XAI 與故障診斷、暫態(tài)穩(wěn)定評估、電力負荷預測、風電功率預測等電力系統(tǒng)關系密切。

圖1 電力系統(tǒng)XAI 文獻關鍵詞聚類結果Fig.1 Clustering results of XAI literature keywords related to power system

表1 近期發(fā)表的電力/能源系統(tǒng)相關XAI 綜述總結Table 1 Summary of XAI reviews in power/energy system published in recent years

隨著國家扶持與行業(yè)推動,XAI 在電力系統(tǒng)的交互已向縱深發(fā)展,成為電力系統(tǒng)智能化升級的重要趨勢。

2 經(jīng)典XAI 方法

考慮到在電力系統(tǒng)中引入XAI 具有重要意義,本章將介紹幾種經(jīng)典的XAI 技術,并闡述其在電力系統(tǒng)中的常見應用。經(jīng)典XAI 可根據(jù)解釋方式分為兩類,即具有自解釋能力的人工智能模型與人工智能模型解釋方法。前者指本身具備一定解釋能力的模型,包括線性模型、決策樹、隨機森林、注意力機制等;后者則指一類用于解釋人工智能模型的方法,該類方法往往與模型關系不大,常見的如沙普利值加性解釋方法(Shapley additive explanations,SHAP)[28]、模型無關的局部可解釋 性方法(local interpretable model-agnostic explanations,LIME)[29]和梯度加權類激活映射方法(gradient-weighted class activation mapping,Grad-CAM)[30]等等。各類方法的對比如表2 所示。

表2 經(jīng)典XAI 方法對比Table 2 Comparison of classical XAI methods

2.1 自解釋人工智能模型

2.1.1 線性模型

線性模型是機器學習中最簡單且具有自解釋性的人工智能模型,其通過建立輸入特征與輸出特征之間的線性關系來進行預測。線性模型的預測結果通常可以建模為:

式中:y為預測結果;xi為輸入特征;wi為模型需要學習的特征權重;ε為預測結果與真實值的誤差。線性模型的主要目標是找到一組最佳參數(shù)wi,使得預測輸出與實際輸出之間的誤差最小,常用方法包括最小二乘法和梯度下降法等。

線性模型的解釋性體現(xiàn)在其可直觀解釋每個輸入特征對輸出結果影響的重要性,由于只涉及加法和乘法運算,線性模型的計算效率較高,適用于數(shù)據(jù)維度較高的實際問題。然而,線性模型假設輸入與輸出之間存在線性關系,故在處理非線性問題時,其擬合能力有限,且存在對異常值較為敏感的問題。

2.1.2 決策樹和隨機森林

決策樹[31]是一種具有可解釋性的學習方法,通過計算葉子節(jié)點的熵以尋找最優(yōu)的分割特征,從而在每個節(jié)點上進行分裂。決策樹可解釋性體現(xiàn)在其能把數(shù)據(jù)轉化為可解釋的形式(如圖2 所示),每個節(jié)點指代一種可判斷的決策,沿著樹的分支、經(jīng)過一系列決策即可得到結論?;跊Q策樹構成的隨機森林[32]也同樣具有一定程度的可解釋性。作為一種集成學習算法,該方法通過構建多個決策樹聚合所有樹的預測結果,決定一個共同的輸出結果。

圖2 決策樹模型結構Fig.2 Structure of decision tree model

然而,決策樹與隨機森林存在著共同的缺陷,即當決策樹層數(shù)較大或具有多棵決策樹的復雜推理過程時,根據(jù)先驗知識對推理過程進行解釋也會變得非常困難,可解釋性會受到一定限制。但層數(shù)較大的決策樹與隨機森林也有可用的解釋分析方法。例如:決策樹擁有weight、gain、cover 等特征重要性指標[33],其中,weight 表示在所有樹中某一特征用于分裂節(jié)點的次數(shù),gain 表示在所有樹中某一特征用于分裂節(jié)點的平均增益,cover 則表示在所有樹中某一特征用于分裂節(jié)點的平均覆蓋率;另外,SHAP 也可對決策樹與隨機森林模型進行局部解釋,揭示每個樣本點的預測是如何根據(jù)所有特征的聯(lián)合貢獻得出的。

在電力系統(tǒng)中,決策樹和隨機森林的解釋性體現(xiàn)在其可了解不同特征如何在決策過程中影響人工智能模型的結果。例如,以歷史數(shù)據(jù)為基礎,將電力系統(tǒng)的狀態(tài)和控制變量分解為若干特征(如系統(tǒng)負荷、風速、氣象等),通過學習不同特征組合的控制策略,基于決策樹開展調(diào)度優(yōu)化。在該過程中,決策樹可以描述系統(tǒng)狀態(tài)與控制決策之間的關系,并直觀地反映出不同特征組合對應的控制策略,具有一定解釋效果。文獻[34]針對變電站運維專家系統(tǒng)擴充困難與專家依賴的問題,提出基于決策樹的專家規(guī)則提取方法。所提出的規(guī)則能夠滿足高解釋度、高置信度、路徑清晰的基本要求。

2.1.3 注意力機制

深度學習中的注意力機制[35]是一種仿效人類注意力機制的計算模型,最初是為了解決序列到序列模型在處理長距離依賴問題的困難而提出的。其能夠在處理輸入數(shù)據(jù)時,動態(tài)地將注意力集中在重要的特征上,從而在保持高精度的同時,減少不必要的計算[36]。

注意力機制模型的解釋性主要體現(xiàn)在其能夠清晰顯示模型關注的重點(如圖3 所示[37]),更加靈活地處理輸入數(shù)據(jù),并且根據(jù)不同的任務和數(shù)據(jù)動態(tài)地調(diào)整注意力權重,從而提高了模型的性能和可解釋性。

圖3 注意力機制處理過程Fig.3 Processing process of attention mechanism

在電力領域,注意力機制及其構成的模型已被用來解釋電力系統(tǒng)暫態(tài)穩(wěn)定評估[38]、設備故障診斷[39]和可再生能源出力預測[40]中的深度學習模型,用于識別時間序列數(shù)據(jù)中對模型決策有最大貢獻的特征。另外,注意力機制可以與基于強化學習(reinforcement learning,RL)的調(diào)度方法相結合,例如利用注意力機制的智能體嵌入式向量表示方法揭示調(diào)度模型的內(nèi)部工作原理。在這種情況下,注意力機制可幫助調(diào)度員理解模型在做出調(diào)度決策時所關注的關鍵因素,從而提高模型的可解釋性與可靠性。

2.2 人工智能模型解釋方法

人工智能模型解釋方法主要是指能夠解釋現(xiàn)有人工智能黑箱模型的方法。一般來說,電力系統(tǒng)中常見的人工智能黑箱模型包括DNN、深度強化學習(deep reinforcement learning,DRL)和高斯過程等。

1)DNN 的不可解釋性主要反映在其復雜網(wǎng)絡結構與多層次網(wǎng)絡參數(shù)間的相互作用,使得最終的預測結果難以直觀地解釋。此外,對于同一輸入,不同神經(jīng)元的激活方式可能存在多種組合,亦增加了人類對于模型內(nèi)部原理的理解難度。

2)DRL 的不可解釋性主要反映在其學習過程中,通過與環(huán)境的交互來優(yōu)化策略。這種交互過程中的狀態(tài)轉換與獎勵變化通常難以直觀地解釋。同時,DRL 策略網(wǎng)絡與價值網(wǎng)絡的參數(shù)更新過程復雜且相互依賴,使得模型的決策過程難以解釋。

3)高斯過程的不可解釋性主要反映在其基于概率分布的推理過程。高斯過程通過對輸入數(shù)據(jù)的協(xié)方差矩陣進行計算,從而得到一個預測分布。然而,這種基于概率的推理過程往往在處理高維數(shù)據(jù)和復雜關系時難以直觀地解釋。

針對人工智能黑箱有一些經(jīng)典的解釋方法,包括SHAP、LIME、Grad-CAM 等等,這些方法通過不同的技術和原理,揭示了模型工作機制,提高人工智能黑箱模型的可解釋性。下面分別進行分析。

1)SHAP

SHAP 是一種用于解釋機器學習模型的非參數(shù)方法,適用于預測問題。SHAP 發(fā)展歷史可追溯到上世紀50 年代,經(jīng)濟學家L.Shapley 提出了“Shapley值”[41]的概念,用于衡量每個人在集體中的貢獻度。2017 年,文獻[28]提出解釋預測的統(tǒng)一框架SHAP,其可幫助解釋機器學習模型之外的因素如何影響模型的輸出,以及不同屬性對預測結果的貢獻大小。

在電力系統(tǒng)中,SHAP 可應用在大部分監(jiān)督學習領域,表現(xiàn)出了顯著的優(yōu)勢。在源荷預測應用中,文獻[42]提出一種結合長短期記憶(long shortterm memory,LSTM)遞歸神經(jīng)網(wǎng)絡與多任務學習的綜合能源預測方法,并利用SHAP 解釋技術進行解釋,提高了能源預測的準確性和可解釋性。在暫態(tài)穩(wěn)定研究中,文獻[43]提出基于SHAP 理論的暫態(tài)電壓穩(wěn)定評估歸因分析框架,量化了暫態(tài)電壓穩(wěn)定特征對穩(wěn)定評估結果的影響。

2)LIME

LIME 是由Ribeiro 等人于2016 年提出的一種模型無關的可解釋方法[29]。其基本原理是針對每個待解釋樣本,在其附近選取一定數(shù)量的鄰近數(shù)據(jù)點,并為這些鄰近數(shù)據(jù)點賦予與待解釋樣本的距離成反比的權重,形成了一個新的、局部有限的加權數(shù)據(jù)集。隨后,LIME 基于該數(shù)據(jù)集訓練一個簡單、可解釋的模型(如線性回歸模型),盡可能逼近原模型在該局部范圍內(nèi)的預測結果。

LIME 的目標是解釋原模型在目標樣本上的預測行為,而不是重新擬合整個訓練集。它通過在局部范圍內(nèi)擬合一個簡單的代理模型,揭示了預測結果是如何受到各特征值和模型參數(shù)的影響。這樣,LIME 可為每個樣本提供針對性的解釋,有助于理解原模型在不同樣本上的預測差異。

在電力系統(tǒng)中,LIME 模型已被廣泛應用到穩(wěn)定性評估[44]、源荷預測[45]等領域。通過探究原模型在各個樣本上的局部可解釋性,LIME 有助于提高電力系統(tǒng)預測與評估的準確性和可信性。

3)Grad-CAM

Grad-CAM 是一種解釋CNN 預測過程的可視化方法,適用于任何CNN 模型且無須改變網(wǎng)絡結構。其通過生成熱力圖來揭示網(wǎng)絡在識別圖像時所關注的區(qū)域,以幫助人類更好地理解模型的決策依據(jù)。該方法的核心在于計算預測類別相對于某個中間層的梯度,以表示該層特征圖的重要性。然后,將特征圖權重與梯度相乘,得到類激活映射(class activation mapping,CAM)。最后,將CAM 上采樣至原始圖像大小,生成直觀的熱力圖。從輸入輸出關系來說,Grad-CAM 顯示的是輸入特征對輸出標簽概率的重要性。

在電力系統(tǒng)中,Grad-CAM 方法已在多個圖像處理領域得到研究,例如電力線路安全檢測[46]、螺栓多屬性分類[47]、絕緣子故障檢測[48]等。通過使用Grad-CAM 生成的熱圖,研究人員和工程師可以直觀地了解輸入圖像的哪些區(qū)域對模型的預測結果產(chǎn)生了重要貢獻,從而提高模型預測的可解釋性,輔助決策制定和診斷過程。

3 XAI 在電力系統(tǒng)中的應用

為促使XAI 在電力系統(tǒng)的進一步發(fā)展與應用,本章回顧部分文獻并討論經(jīng)典研究,將XAI 在電力系統(tǒng)中的應用劃分為源荷預測、系統(tǒng)規(guī)劃、運行控制、故障診斷、電力市場等5 類應用(如圖4 所示),并在每類應用最后討論不足,以期為相關領域研究提供思路。

圖4 電力系統(tǒng)XAI 應用范圍Fig.4 Scope of XAI applications in power system

3.1 XAI 在源荷預測中的應用

XAI 可幫助人類理解源荷預測模型的工作原理并提高預測結果的可信度,經(jīng)由人機交互后可提高未來源荷預測的準確性。XAI 在源荷預測中的應用可以劃分為新能源出力預測和負荷預測。

3.1.1 新能源出力預測

準確的新能源出力預測可幫助相關部門提前做好規(guī)劃和調(diào)度工作,合理統(tǒng)籌部署發(fā)輸電設備,提升消納能力。XAI 通過分析出力預測模型內(nèi)在機制,發(fā)現(xiàn)非預期因素,針對人工智能黑箱模型存在的問題進行校正和改進,提升預測結果的解釋性能。本節(jié)綜述了XAI 在新能源出力預測中的兩類應用:風電出力預測與光伏出力預測,如表3 所示。

表3 XAI 在新能源出力預測中的相關文獻Table 3 Related literatures on application of XAI in power output prediction of renewable energy

1)風電出力預測

現(xiàn)有風電出力預測均具有較高的準確度,但其內(nèi)部決策機制無法完全被使用者理解。為解決此問題,文獻[49]提出一套基于可解讀概念的風電功率超短期預測模型分析方法,并通過LIME 對風電功率預測效果較好和較差的個體分別解讀,分析影響風電功率預測模型實際表現(xiàn)因素(例如170 m 高度風速、100 m 高度風速和氣壓)。同時,根據(jù)解釋結果更改風電超短期功率預測策略,提高了風電出力預測的準確率,形成了“建?!獪y試—解釋—提升”的反饋閉環(huán)。文獻[50]改進了WANN[58]并應用到風機功率超短期預測中。WANN 是一種獨特的神經(jīng)網(wǎng)絡架構,其強調(diào)網(wǎng)絡結構而非權重的重要性。相比于DNN 中數(shù)百萬甚至數(shù)十億的參數(shù),WANN的權重簡化使得神經(jīng)網(wǎng)絡架構更易于分析和理解。在該文中,WANN 的解釋性主要體現(xiàn)在網(wǎng)絡激活函數(shù)依據(jù)特征本身相關的屬性進行選擇,例如,風速相關特征以線性函數(shù)或絕對值函數(shù)為主,變槳角度、風向角等角度特征以正弦函數(shù)或余弦函數(shù)為主,這與風機物理特性相近。為挖掘海上風電場出力預測的時空關聯(lián)并實現(xiàn)模型的可解釋,文獻[59]提出了基于多重時空注意力圖神經(jīng)網(wǎng)絡(graph neural network,GNN)的風電出力預測模型。該模型在空間、特征和時間3 個維度引入多頭注意力機制,借由各維度注意力權重的熱力圖解釋模型工作機理,并結合專家知識驗證了解釋結果的合理性。

2)光伏出力預測

除風電外,光伏發(fā)電自身所具有的不確定性與光伏裝機能力的加強也需重新設計預測方法,通過考慮多種氣象因素(如云量、輻照度等因素),提高了光伏預測的準確性。針對隨機森林回歸實現(xiàn)的光伏發(fā)電預測模型,文獻[54]應用LIME、SHAP 和ELI5這3 個XAI 工具進行了解釋。其中,ELI5 全稱Explain Like I’m 5(即像“我五歲”一樣解釋),即解釋非常容易理解。作為一種可解釋機器學習模型的Python 庫[60],ELI5 可以解釋線性分類器和回歸器的權重和預測,顯示決策樹特征重要性并解釋決策樹和基于樹的組合的預測。在該文中,ELI5 被用來檢查單個光伏出力樣本的預測情況,LIME 利用光伏原始特征值解釋特定數(shù)據(jù),而SHAP 則用于分析光伏預測的全局特征重要性,以及局部特征間的交互影響(如表面太陽輻射率下降值與每日時刻間的關系),在其算例中得出了“表面太陽能輻射是光伏出力預測中最重要的特征”等知識。另外,文獻[55]利用樹結構自組織映射與XGBoost 實現(xiàn)了光伏功率預測,并借由SHAP 開展解釋,在算例中發(fā)現(xiàn)“總輻射度平均值對大多數(shù)樣本預測結果影響最大”等相關知識。針對可再生能源發(fā)電不確定性與預測負荷之間存在的誤差問題(鴨子曲線),文獻[61]提出一種結合注意力機制和LSTM 模型的XAI 方法,用于理解氣象因素對光伏出力的影響。注意力機制在預測輸出時聚焦于特征的某些部分,并利用上下文向量、注意力權重和輸入變量來顯示對該預測值的解釋。文獻[62]針對數(shù)據(jù)驅動難以綜合考慮模型結構和數(shù)據(jù)特征給出合理解釋的問題,提出一種融合多注意力DNN 的可解釋光伏功率區(qū)間預測模型,利用神經(jīng)元電導梯度法解釋模型結構,結合注意力權重分析光伏功率預測特征,發(fā)現(xiàn):隨著模型訓練迭代次數(shù)的增加,特征注意力權重變化可以很好地揭示與光伏出力預測最相關的因素。

3.1.2 負荷預測

除了出力預測外,XAI 在負荷預測中的應用也已引起廣泛關注(表4 總結了相關文獻),特別是在電力負荷和多元負荷的預測中,以下將詳細介紹這兩個方向的文獻。

表4 XAI 在負荷預測中的相關文獻Table 4 Related literatures on application of XAI in load forecasting

在電力負荷預測領域,文獻[71]利用SHAP 解釋了基于LightGBM 的建筑電力負荷預測模型,在該模型中發(fā)現(xiàn)“在電力負荷預測中,溫熱指數(shù)和風寒溫度表現(xiàn)出比氣象信息的溫度、濕度和風速更大的影響”等知識。文獻[72]提出基于LSTM、多任務學習和人口流動性優(yōu)化的新冠肺炎期間短期負荷預測模型,利用Shapley 可視化模型進行解釋,認為:相關性高的指標與其對預測結果的貢獻并不同步。同樣,文獻[73]利用SHAP 解釋了用于日前負荷預測多層感知機模型,發(fā)現(xiàn):在模型中添加節(jié)日變量會被賦予一個相對較大的負Shapley 值。

在多元負荷預測領域,文獻[67]為了尋找建筑負荷預測模型影響最大的輸入變量,采用SRC 和LIME、SHAP 確定建筑負荷預測模型的輸入特征。其中,SRC 是一種用于線性模型的全局敏感性分析方法[74],其核心思想是將自變量與因變量進行標準化處理,從而消除量綱對回歸系數(shù)的影響,并通過比較標準化后的回歸系數(shù)來評估各自變量對因變量的相對重要性。SRC 與LIME、SHAP 共同用于比較對負荷預測中輸入變量的簡化能力,SHAP 比LIME 在建筑負荷預測模型中更有優(yōu)勢,因為在大多數(shù)情況下SHAP 可以比LIME 用更少的基本輸入變量保持準確性。在交通能耗方面,文獻[75]利用LIME 解釋家庭交通能源消耗的預測結果,分析家庭出行特征(如家庭旅行、人口統(tǒng)計和鄰里)對特定交通分析區(qū)交通能源消耗的重要性和影響,認為XAI 不僅能夠提供透明的預測結果,而且能提供不同特征對預測家庭交通能源使用的影響。

3.1.3 XAI 在源荷預測應用的進一步思考

在源荷預測應用中,XAI 可提供相應輸入?yún)?shù)對預測結果的影響,從而更好地了解預測模型的行為。盡管有多種XAI 方法可以應用,但它們?nèi)杂幸欢ň窒扌浴O旅娣謩e從XAI 方法與XAI 在源荷預測中應用的問題兩方面進行分析。

1)源荷預測中的XAI 方法

第一,源荷預測場景下的特征選取。用于源荷預測的XAI 方法所解釋的特征一般采用預先定義特征,并非自動提取特征。一方面,預先定義特征的優(yōu)勢在于更易于包含電氣領域的專業(yè)知識,相對于自動提取特征的可解釋性更強;另一方面,預先定義的特征會造成XAI 方法解釋范圍受限,只限于解釋預先定義好的特征,存在泛化能力差的問題。如何平衡好二者的關系需要結合工程實際開展研究。

第二,源荷預測場景下的時空關系。源荷預測所使用的XAI 方法難以有效提取特定時刻前后的特征,導致模型難以考慮源荷預測樣本所在空間的全局景象。同時,源荷預測可能涉及從幾分鐘到幾天甚至幾個月的時間尺度。不同的時間尺度可能需要不同的模型結構和特性。因此,可進一步開發(fā)具備多時間尺度全局解釋能力XAI 方法,如概率圖模型[76]、循環(huán)神經(jīng)網(wǎng)絡的代理模型[77]等,以在源荷預測中實現(xiàn)不同時刻間可解釋性特征的比較和分析。

2)XAI 在源荷預測的應用

第一,源荷預測場景下的XAI 算例構建。目前,尚未存在針對源荷預測與解釋的標準算例系統(tǒng)。源荷預測在電力系統(tǒng)運行、調(diào)度及規(guī)劃中具有重要地位,關系到系統(tǒng)穩(wěn)定性與經(jīng)濟效益。XAI 能夠揭示源荷預測內(nèi)部運作機制,為決策者提供透明、可靠的預測理由,從而確保更加科學、合理的電力調(diào)度和規(guī)劃決策。因此,構建一個針對電力系統(tǒng)源荷預測的標準XAI 算例系統(tǒng),不僅可以為研究者提供統(tǒng)一的研究平臺和基準,還有助于推動電力系統(tǒng)預測及決策支持的智能化和精確化。

第二,源荷預測場景下的人機交互。需進一步提升源荷預測場景下XAI 的交互性優(yōu)化與人類的協(xié)同作用。例如,利用可視化手段,將生成的可解釋特征直觀地展示給工業(yè)部門或物業(yè)負責人等用戶,以幫助其更好地理解負荷預測結果,實現(xiàn)進一步能源管理。另外,還可與ChatGPT 等大型預訓練語言模型合作,通過問答形式與用戶交互,提供有針對性的解釋及建議。例如,當工業(yè)用戶詢問為什么明天的負荷預測比今天高時,智能解釋系統(tǒng)可根據(jù)模型分析結果回答:“明天的氣溫預計會降低,導致暖氣使用增加,同時晚上將進行一次安保演練,需要照明設備加班,這也是負荷預測增加的原因?!边@種高度互動的方式有助于管理者深入洞悉模型預測背后的驅動因素,并根據(jù)實際情況調(diào)整能源使用策略。此過程不僅實現(xiàn)了技術與人的緊密融合,更是將能源管理知識與策略傳遞給了人類。

第三,源荷預測場景下的XAI 應用限制性。現(xiàn)有源荷預測研究中,XAI 方法多為直接套用SHAP或LIME 的官方案例。這種統(tǒng)計學方法在某種意義上忽視了電力領域的物理原理與特性,無法從物理意義上解釋預測結果的依據(jù)。同時,現(xiàn)有研究未能針對不同源荷預測的特點設定獨特的人工智能預測方法與解釋方法,這限制了將特定領域知識深入、準確地傳遞給人類。因此,亟須開發(fā)面向特定應用場景的解釋工具與理解方式,以定量分析預測結果的特定影響特征和交互特征之間的相互關系。

3.2 XAI 在電力系統(tǒng)規(guī)劃中的應用

“雙碳”背景下,高比例可再生能源與高比例電力電子設備接入使得新型電力系統(tǒng)規(guī)劃問題愈發(fā)困難。系統(tǒng)規(guī)劃的目標是設計和管理復雜的電力系統(tǒng),以提供高質量、可信、安全和持續(xù)的電力服務,XAI 可以為此提供重要的支持。近期,文獻[78]開發(fā)了一種機器學習流程,用于預測發(fā)電項目能否成功。該模型應用梯度提升樹構建模型,利用工廠容量、燃料、網(wǎng)絡連接、所有權和融資情況等特征進行項目成功預測,并利用SHAP 對預測結果解釋。值得注意的是,該文不僅研究了一階SHAP 值(某一特征對預測結果的影響),還研究了二階SHAP 值(某一特征與其他特征的相互影響),豐富了SHAP在電力系統(tǒng)中的應用。針對風能和太陽能電站的優(yōu)化選址問題,文獻[79]提出一種基于XAI 的風能太陽能發(fā)電廠選址適宜性評估方法,利用超過55 000個真實風光電站的特征因素訓練了隨機森林、支持向量機和多層感知機模型,基于SHAP 解釋了風光電站選址過程中技術、經(jīng)濟、環(huán)境和社會因素對風光電站選址空間決策的影響,解釋結果展示:“風電場最適合選址的地點是水位高、距離城市遠的地方,而靠近城市和溫度適中的地方最有可能投資太陽能光伏電站?!?/p>

總的來看,XAI 在系統(tǒng)規(guī)劃中的應用較為匱乏,未來可以在下面幾個方面探索:

第一,系統(tǒng)規(guī)劃場景下的XAI 風險研究。電力系統(tǒng)中,人工智能技術可實現(xiàn)高效的規(guī)劃方案生成,但在生成方案的過程中需保證規(guī)劃方案的可解釋性。項目管理人員對人工智能所生成的規(guī)劃方案及其潛在風險深度理解是至關重要的,使管理者了解方案的優(yōu)劣性與可能后果。此方向可重點研究人工智能規(guī)劃模型與模型解釋工具的交互式迭代,以實現(xiàn)更好的風險管理。

第二,系統(tǒng)規(guī)劃場景下的XAI 公平性研究。XAI 技術應用帶來更高效的電力系統(tǒng)規(guī)劃,同時可挖掘各個方面的優(yōu)勢和劣勢。可防止由于數(shù)據(jù)樣本偏差造成的規(guī)劃問題,平衡不同區(qū)域、企事業(yè)單位和消費者的利益,推進電力系統(tǒng)規(guī)劃的公平性。

3.3 XAI 在運行優(yōu)化與穩(wěn)定控制中的應用

電力系統(tǒng)的運行優(yōu)化與穩(wěn)定控制是指在保障電力系統(tǒng)安全穩(wěn)定的前提下,提高其運行效率與經(jīng)濟性。而XAI 技術的引入有望提高其決策透明度,從而增強決策者的信任。本節(jié)將分別介紹運行優(yōu)化、穩(wěn)定控制兩方面應用。

3.3.1 運行優(yōu)化

運行優(yōu)化場景中,XAI 可有效地提高系統(tǒng)運行優(yōu)化有效性,并且?guī)椭脩衾斫庀到y(tǒng)的優(yōu)化結果。例如,文獻[80]將SHAP 用于光伏系統(tǒng)無功控制的DNN,量化了負荷和光伏有功功率對相應的最佳光伏無功功率的影響,明確了哪些電網(wǎng)狀態(tài)信息對每個光伏系統(tǒng)的最佳無功功率調(diào)度有重大影響,并分離出重要的特征子集用于建立分散的DNN 控制器。針對電能質量擾動分類問題,文獻[81]提出一種基于Grad-CAM 和遮擋敏感性CNN 的分類器解釋方法。該方法通過提高分類器的透明度,使電力專家能夠在發(fā)生電能質量擾動事件的情況下做出明智和可信的決策。同時,該論文還給出了電能質量擾動應用中關于正確解釋的精確定義。

除上述基于監(jiān)督學習的運行優(yōu)化場景外,XAI目前比較受到關注的是解釋性用于優(yōu)化調(diào)度的RL模型。盡管該問題研究尚處于起步階段,但仍有一些研究可供參考借鑒。下面分別從能源領域RL 可解釋性、能源領域RL 物理知識嵌入,以及人工智能領域RL 可解釋性三方面進行介紹。

1)能源領域RL 可解釋性研究

由于多數(shù)RL 模型由各類神經(jīng)網(wǎng)絡組件構成,針對神經(jīng)網(wǎng)絡應用的人工智能黑箱解釋方法均可在此類RL 中套用,以提高整體可解釋性。例如,文獻[82]提出利用SHAP 反向傳播深度解釋器為基于DRL 的電力系統(tǒng)應急控制提供合理的解釋,其中,SHAP 的作用為解釋DRL 所有輸入特征對所有輸出動作的重要性。在建筑能源領域,文獻[83]為提高RL 策略的透明度,在利用SHAP 揭示每個輸入對最終決策影響的同時,利用樹方法提取RL 中的關鍵控制規(guī)則,以實現(xiàn)最終控制決策的可解釋性。另外,文獻[84]針對電力系統(tǒng)調(diào)度中的圖深度Q 網(wǎng)絡模型,提出了一種改進樣本平衡深度沙普利加性解 釋(sample-balanced deep Shapley additive explanation,SE-DSHAP)與子圖解釋器相結合的多層級解釋方法。一方面,SE-DSHAP 能夠對圖深度Q 網(wǎng)絡模型的特征貢獻進行排序,并通過樣本均衡提高解釋效率;另一方面,子圖解釋器用于選擇與SE-DSHAP 高亮節(jié)點相關的關鍵區(qū)域。總的來看,利用經(jīng)典的深度學習模型解釋方法(如SHAP)確實能夠提供一定DRL 內(nèi)部可解釋性,但現(xiàn)有研究大多針對其中的神經(jīng)網(wǎng)絡部分,而針對RL 的其他要素(如環(huán)境、目標等)[85]及其相互關系的解釋研究則關注較少。針對電力系統(tǒng)環(huán)境中RL 各類要素的解釋,還需要結合電力領域的專業(yè)知識進一步分析。

2)能源領域RL 物理知識嵌入的RL 研究

物理知識嵌入是一種將領域知識直接嵌入RL模型的方法。電力系統(tǒng)優(yōu)化調(diào)度中,其主要表現(xiàn)為將電力系統(tǒng)的物理規(guī)律、操作約束和業(yè)務規(guī)則等領域知識嵌入RL 模型中。通過物理知識嵌入,提高了整體RL 優(yōu)化調(diào)度框架的性能、魯棒性和可解釋性(但RL 內(nèi)部神經(jīng)網(wǎng)絡的可解釋性不受影響)。文獻[86]提出一種大型電網(wǎng)潮流計算收斂的自適應調(diào)節(jié)策略,將知識和經(jīng)驗整合到學習過程中,以減小搜索范圍。通過模擬人工調(diào)整與設置多重獎勵機制,使得搜索算法具有明確的方向,提高了算法動作的可解釋性。文獻[87]對電力調(diào)度中應用的數(shù)據(jù)與知識聯(lián)合驅動的人工智能方法做了總結,認為:知識數(shù)據(jù)聯(lián)合驅動方法在理論上可借助因果思想與機理知識來提高數(shù)據(jù)驅動方法的解釋性,但在增強解釋性的過程中,也可能由于知識融合方式不恰當而導致聯(lián)合驅動模型的擬合性能和精確性下降。因此,如何優(yōu)化領域知識在數(shù)據(jù)模型中的嵌入方法及控制嵌入尺度,是需要根據(jù)電力領域的實際問題開展研究的。

3)人工智能領域RL 可解釋性研究

在人工智能領域,已出現(xiàn)一些關于RL 可解釋性的論文,可為電力系統(tǒng)優(yōu)化調(diào)度應用提供啟發(fā)。文獻[88]對RL 可解釋方法進行綜述,將其按照關鍵要素的構成劃分為環(huán)境解釋、任務解釋與策略解釋。文獻[89]將RL 可解釋問題分為策略與目標模型解釋問題、響應與局部目標解釋問題和模型檢查問題。文獻[90]認為RL 的解釋性應該體現(xiàn)在智能體不僅能夠執(zhí)行所請求的任務,而且可以在自己不確定的時候將任務交還給人類??偟膩砜?上述文獻均認為現(xiàn)有RL 可解釋性需要研究更全面的解釋方法(尤其是在應對安全敏感任務時),以解釋RL智能體在各個方面的行為,從而為人類(例如調(diào)度員)提供易于理解的決策解釋。

基于上述分析,XAI 在運行優(yōu)化場景未來可探索的方向包括:

第一,運行優(yōu)化場景下的RL 環(huán)境感知解釋。在智能體環(huán)境中,可研究電力系統(tǒng)調(diào)度環(huán)境重要因素的定量評估方法,利用注意力機制分析大電網(wǎng)環(huán)境狀態(tài)變化特征與智能體(機組、園區(qū)等)動作結果相關關系,量化分析電力系統(tǒng)環(huán)境狀態(tài)因素對動作結果的沖擊影響;同時,研究基于多園區(qū)(例如多微網(wǎng)、綜合能源系統(tǒng)群等)的多智能體調(diào)度問題時,可考慮多智能體群體間交互特征的解釋方法,結合博弈論、電網(wǎng)物理規(guī)律、群體動力學等解釋掌握環(huán)境規(guī)律。

第二,運行優(yōu)化場景下的RL 動作決策解釋??衫靡蚬茖W、反事實推理,考慮已觀測的智能體動作經(jīng)驗鏈條,對動作過程的已知變量構造不同取值,進行調(diào)度過程的因果推斷與反事實推理以及規(guī)則提取?,F(xiàn)有研究有一些可供參考,例如,文獻[91]提出一種用于RL 的軟注意力機制,能夠通過軟注意力機制迫使智能體順序查詢環(huán)境視圖來關注任務相關信息,可以直接觀察到智能體在選擇行動時所使用的信息。

第三,運行優(yōu)化場景下的RL 獎勵反饋解釋。獎勵是環(huán)境對智能體動作的反饋,研究基于敏感性分析的智能體獎勵解釋方法,例如,通過在大電網(wǎng)調(diào)度過程中對智能體動作添加不同程度的微小擾動,分析智能體受到環(huán)境給予獎勵反饋的變化程度,建立智能體與環(huán)境之間的“策略-獎勵”融合表達形式,提煉電力系統(tǒng)的調(diào)度獎勵規(guī)律與獎勵函數(shù)分解設計方法,為后續(xù)同類RL 問題的獎勵設計提供思路。

第四,運行優(yōu)化場景下的人機交互。研究RL智能體與人類調(diào)度員的交互機制對于調(diào)度過程的實時風險評估處理與知識雙向傳遞至關重要。例如:文獻[92]開發(fā)一種基于實時人工指導的DRL 方法,用于端到端自動駕駛策略訓練。通過所設計的控制轉移機制,人類能夠在模型訓練過程中實時干預和糾正智能體的不合理行為。這種“人在回路”的指導機制可嘗試在電力系統(tǒng)調(diào)度過程使用。通過設計直觀的可視化界面展示智能體狀態(tài)、動作及獎勵機制,開展高效的知識傳遞,有助于調(diào)度員快速捕捉關鍵信息和趨勢。在關鍵決策點引入調(diào)度員參與,利用人類專家經(jīng)驗提升決策質量。通過實時學習調(diào)度員動作反饋,使智能體不斷優(yōu)化決策策略,實現(xiàn)智能體自主進化。

3.3.2 穩(wěn)定控制

穩(wěn)定控制場景中,人工智能模型的任務是判斷系統(tǒng)在受到一定程度擾動后能否正常運行。然而,當人工智能黑箱模型做出穩(wěn)定性評估時,往往難以給出判斷的原因[93],阻礙了系統(tǒng)穩(wěn)定性的進一步分析。針對該問題,本節(jié)分別針對暫態(tài)穩(wěn)定、靜態(tài)穩(wěn)定和新能源并網(wǎng)三方面XAI 應用進行了綜述。XAI在穩(wěn)定控制領域應用的相關文獻如表5 所示。

表5 XAI 在穩(wěn)定控制領域應用的相關文獻Table 5 Related literatures on application of XAI in stability control

1)暫態(tài)穩(wěn)定

針對暫態(tài)穩(wěn)定問題,研究者們主要從人工智能模型解釋方法和具有自解釋能力的人工智能模型兩個方面進行深入探索。首先,在人工智能模型解釋方法方面。文獻[43]提出基于SHAP 的暫態(tài)電壓穩(wěn)定評估歸因分析框架,通過計算Shapley 值的平均絕對值大小得到暫態(tài)電壓穩(wěn)定特征重要性排序,并根據(jù)每個特征的邊際貢獻,進一步量化不同輸入特征對模型輸出結果的影響。針對如何實現(xiàn)快速、準確的電力系統(tǒng)暫態(tài)穩(wěn)定在線評估的問題,文獻[104]提出基于改進一維CNN 的電力系統(tǒng)暫態(tài)穩(wěn)定評估方法,通過Grad-CAM 對暫態(tài)評估模型的類激活圖,并結合系統(tǒng)拓撲結構進行可視化分析。文獻[105-106]利用電力系統(tǒng)故障時發(fā)電機的運行特征構建基于XGBoost 的暫態(tài)穩(wěn)定預測模型,并對具體故障利用LIME 進行解釋,包括特征對單個樣本分類貢獻率以及它們?nèi)绾斡绊戭A測結果。例如,針對某支路預測結果(三相短路故障)的情況,給出了具體特征對該情況的作用。文獻[107]采用SHAP 從全局和局部兩個維度對XGBoost 模型和樣本開展解釋,找出了穩(wěn)定關鍵特征,使模型更加透明。其次,一些學者采用具有自解釋能力的人工智能模型,提升了暫態(tài)穩(wěn)定評估的可解釋性。針對暫態(tài)穩(wěn)定問題中常規(guī)DNN 可信性與時間信息提取能力同時不足的問題,文獻[36]在DNN 內(nèi)部工作過程,利用自注意力引導模型在訓練迭代中自適應聚焦于重要特征,使模型快速捕獲電力系統(tǒng)前后時刻間的狀態(tài)依賴,展示出良好的解釋性。針對深度學習預測器在基于相量測量單元的故障后暫態(tài)穩(wěn)定評估預測結果無法解釋的問題,文獻[100]提出一種嵌入自注意力層的深度學習模型和遷移學習策略。這種嵌入的注意力層能夠識別受干擾最大的生成器,以增加模型的可解釋性。

2)靜態(tài)穩(wěn)定

針對靜態(tài)電壓穩(wěn)定裕度估計中關鍵特征量篩選問題,文獻[94]基于累積貢獻率和SHAP 的關鍵特征量開展特征篩選,利用SHAP 模型依據(jù)貢獻值大小對特征降序排列,采用累積貢獻率增量的循環(huán)優(yōu)化過程剔除冗余特征,體現(xiàn)了SHAP 模型在事前進行特征選擇和優(yōu)化的潛力。文獻[108]在電壓穩(wěn)定裕度預測中利用自然梯度提升樹與SHAP 解釋理論,分析了電壓穩(wěn)定裕度預測的影響因素。

3)新能源并網(wǎng)

針對新能源發(fā)電并網(wǎng)問題,XAI 同樣可判斷穩(wěn)定程度。其中,孤島問題是指在電力系統(tǒng)中,當主電網(wǎng)側出現(xiàn)計劃或非計劃的斷電情況時,分布式發(fā)電系統(tǒng)(如光伏、風電等)仍然繼續(xù)為本地負載供電的情況。這種情況會形成一個“孤島”,即分布式發(fā)電系統(tǒng)和本地負載構成一個獨立于主電網(wǎng)運行的微電網(wǎng)。針對如何檢測孤島的問題,文獻[109]提出一種基于LightGBM 的孤島檢測可解釋模型。分別利用SHAP、LIME 和累積局部效應(accumulated local effect,ALE)對訓練好的孤島識別模型輸出決策進行成因分析。ALE[110]作為一種可解釋技術,其首先計算每個特征在相鄰特征值之間的局部效應,然后將這些局部效應累加,得到該特征對模型預測的總貢獻。通過這種方式,可將預測結果分解為各個特征的貢獻,從而實現(xiàn)模型的可解釋性。ALE 被應用于計算局部效應來消除電氣特征量強相關性的干擾,實現(xiàn)了對并網(wǎng)檢測系統(tǒng)孤島模型的可解釋分析。針對風電系統(tǒng)與電網(wǎng)互動的次同步振蕩問題,文獻[111]提出一種風電并網(wǎng)系統(tǒng)次同步振蕩在線預測和優(yōu)化控制方法,基于LIME 分析了各風電場開機臺數(shù)對次同步振蕩的影響,識別出對系統(tǒng)次同步振蕩影響最大的風電場和風機,并將該知識傳遞給人類,人類基于此知識制定切除風機或施加阻尼等策略緩解了次同步振蕩。

綜上所述,與同樣基于監(jiān)督學習的源荷預測應用相似,穩(wěn)定評估場景下大量工作采用LightGBM與LIME、SHAP 等后驗解釋技術相結合,通過對已有模型的分析和解釋來對評估結果進行解釋。此類事后解釋方法一般遵循“離線訓練+在線部署”形式,需在模型預測或決策完成后對結果進行分析與解釋。因此,人工智能模型解釋方法總體計算時間通常在秒級范圍,具有較好的實時性,能夠滿足絕大多數(shù)實時穩(wěn)定性評估的應用場景。但穩(wěn)定控制應用中仍有如下問題:

第一,穩(wěn)定控制場景下的人機交互。穩(wěn)定控制需要考慮系統(tǒng)受到擾動后能否正常運行。而經(jīng)由XAI 獲得的部分評估結果仍需借助人類電力專家的領域知識、行業(yè)經(jīng)驗和判斷力來解釋模型輸出結果的需求,XAI 方法在很多情況下仍無法完全透明和直觀地解釋評估結果,可能存在偏差、局限性或不完整性。同時,可解釋性這一性質并不直接等同于決策者對算法和其輸出結果的完整信任度。未來,還需將可解釋性與可信性結合研究。

第二,穩(wěn)定控制場景下的拓撲知識及其解釋性。傳統(tǒng)監(jiān)督學習方法在穩(wěn)態(tài)評估上主要依賴系統(tǒng)狀態(tài)數(shù)據(jù)與穩(wěn)定類別的映射關系,往往忽視對網(wǎng)絡拓撲及其高維屬性的解釋分析。因此,需研究如何將包括拓撲結構、運行方式在內(nèi)的高維信息嵌入穩(wěn)定評估智能模型中,旨在實現(xiàn)不依賴人類專家輸入而具備高度可解釋性的穩(wěn)態(tài)評估機制。值得注意的是,人工智能領域已出現(xiàn)GNN 解釋相關研究[112],具有一定潛力,為解讀圖結構黑箱模型行為提供了直接的理論支撐。未來研究可側重于GNN 解釋性[113]、異質信息網(wǎng)絡[114-115]、表征學習[116-117]等前沿技術的綜合應用。

3.4 XAI 在電力系統(tǒng)故障診斷中的應用

高效且精確地實現(xiàn)故障診斷對電力系統(tǒng)的安全可靠運行至關重要?,F(xiàn)有人工智能黑箱的故障診斷方法由于缺乏可解釋性,難以提供診斷過程的詳細解釋,使得運維人員對其信任度下降。因此,XAI 可提供診斷輔助信息等相關知識,幫助運維人員理解人工智能模型診斷結果,同時指導人工智能模型的改進和優(yōu)化,進一步提升診斷結果準確性和可信性。本節(jié)分別從系統(tǒng)級故障診斷、設備級故障診斷以及儲能系統(tǒng)狀態(tài)分析三方面給出XAI 的應用。

3.4.1 系統(tǒng)級故障診斷

在系統(tǒng)級故障診斷場景下,人工智能模型可用于檢測、診斷系統(tǒng)可能存在的故障,同時,XAI 應提供針對故障清晰、透明的解釋。在此基礎上,運維人員應基于XAI 所傳遞的知識,根據(jù)系統(tǒng)情況進行及時的決策。針對高壓輸電線路的發(fā)展性故障難以辨識問題,文獻[118]利用帶有解釋能力的注意力機制模塊(convolutional block attention module,CBAM)[119]嵌入CNN 實現(xiàn)一種發(fā)展性故障識別方法。通過在卷積層間添加CBAM,使網(wǎng)絡自動聚焦于電流波形的幅值、突變等重要特征,可視化異常波形的整體概貌,提高了模型內(nèi)部的可解釋性。文獻[120]使用SHAP 解釋了基于LSTM 的電力系統(tǒng)事件識別結果,提出可將SHAP 值納入神經(jīng)網(wǎng)絡損失函數(shù)中,作為約束條件引入知識領域。實際上,該方法可以與物理信息神經(jīng)網(wǎng)絡(physics-informed neural network,PINN)[121]進行對比區(qū)分。PINN 可將帶有物理知識的微分方程作為約束加入神經(jīng)網(wǎng)絡的訓練過程中,并通過調(diào)整網(wǎng)絡參數(shù)匹配微分方程的物理約束條件。盡管PINN 能在一定程度上實現(xiàn)知識模型與數(shù)據(jù)模型的耦合,并通過近似解析解來提高模型的精度與魯棒性,但其主要目的仍在于提高模型訓練效果,而非直接增強模型的可解釋性,其內(nèi)部的決策過程仍難以解釋和理解。相比于PINN,文獻[120]在引入知識領域約束條件的同時,SHAP 值嵌入損失函數(shù)的方式提高了人工智能模型的可解釋性。

3.4.2 設備級故障診斷

在設備級故障診斷場景下,XAI 通過分析設備故障數(shù)據(jù)等相關信息,可向人類傳遞設備故障關鍵因素、形成原因等決策信息。針對光伏陣列故障,文獻[122]設計了一種實際的可解釋性故障檢測系統(tǒng),由二極管設備、XGBoost、LIME 和相關邊緣架構組成,使用LIME 構建XAI。在該系統(tǒng)的實際應用過程中,帶有可解釋屬性的模型幫助現(xiàn)場工程師理解了故障原因,顯著減少故障排除和故障檢測時間,同時通過XAI 減少了維護操作,節(jié)省了資源。同樣針對光伏陣列故障,文獻[123]利用SHAP、Anchors[124]和 反 事 實 解 釋(diverse counterfactual explanations,DiCE)[125]3 種 事 后XAI 解 釋 了 基 于 神經(jīng)網(wǎng)絡的光伏故障檢測結果。其中,Anchors 是一種基于規(guī)則的解釋方法,其通過產(chǎn)生一組規(guī)則以在觀察值附近穩(wěn)定地錨定預測值,這些規(guī)則揭示了模型在給定輸入的情況下所依據(jù)的關鍵特征。而DiCE 則專注于生成多樣化的反事實解釋,提供了在不同分類結果下的替代實例,從而闡明模型的決策邊界。相對于Anchors 和DiCE,SHAP 在光伏故障檢測中表現(xiàn)出更高的穩(wěn)定性和一致性。針對海上風電機組齒輪箱運行狀態(tài)的監(jiān)測問題,文獻[126]提出一種GRU 和注意力機制相結合的監(jiān)測方法,利用注意力權重表征輸入特征對目標建模特征建模的貢獻率,發(fā)現(xiàn)了“齒輪箱油溫與電機轉速、葉輪轉速等風機運行狀態(tài)緊密相關”等知識,并結合訓練過程的權重變化與領域知識驗證了所提方法的合理性。在制冷系統(tǒng),為了優(yōu)化不規(guī)則露點冷卻器的運行,文獻[127]開發(fā)了一個可解釋的DNN 模型,基于SHAP解釋了設備操作與參數(shù)設計對設備性能的影響。為了增加用戶對模型的信任,文獻[128]開發(fā)了一個移動應用程序,利用深度學習圖像識別模型,從捕獲的圖片中自動識別能源設備品牌名稱和型號,利用Score-CAM[129]識別由模型捕獲的無關特征進行校正。

3.4.3 儲能系統(tǒng)狀態(tài)分析

在儲能系統(tǒng)狀態(tài)分析場景下,XAI 也有部分應用。文獻[130]采用隨機森林與可解釋方差評價指標對儲能系統(tǒng)運行單元進行重要性分析??山忉尫讲钍且环N機器學習的評價指標,可解釋方差數(shù)值越大意味著模型的自變量越能解釋因變量。針對新能源汽車動力電池荷電狀態(tài)預測,文獻[131]考慮了電池非線性和模型可解釋性,采用較容易解釋的集成學習方法構建荷電狀態(tài)預測模型,取得了較好效果。

3.4.4 XAI 在故障診斷應用的進一步思考

未來,XAI 在故障診斷場景下可能的研究方向包括:

第一,故障診斷場景下的多模態(tài)診斷解釋?,F(xiàn)有故障診斷方案依賴于一維時間序列以及特征圖的二維展示,可利用圖像相關XAI 方法(例如Grad-CAM)開展解釋。未來可研究不同細粒度、不同數(shù)據(jù)結構(包括文本數(shù)據(jù)、圖像數(shù)據(jù)等)的特征,可通過多模態(tài)實現(xiàn)特征融合,從而達到不同層次的解釋能力。在這方面,文獻[132]綜述了多模態(tài)DNN 的可解釋性,可為電力系統(tǒng)多模態(tài)故障診斷解釋提供參考。

第二,故障診斷場景下的特征選取。故障診斷領域,未來須開展復雜特征的解釋,如故障情況下的聲音特征、電場磁場變化及有關系統(tǒng)運行的其他參數(shù),或者地理信息、故障地點等圖結構特征。故障的子系統(tǒng)可能存在多重耦合和高度相關的特征集合,以及復雜的網(wǎng)絡結構和行為變化。此背景下,XAI可當作一種特征選擇方法,幫助人類進一步理解特征重要性及特征間相互關系,確保復雜耦合的特征能夠被有效地表示和轉化為維數(shù)可控、算法可用的機器學習特征。

第三,故障診斷場景下的解釋體系構建。特定應用場景需建立對應的解釋體系,以便對故障類型和原因進行精確地分類和解讀。為增強解釋的可信度,可考慮將不同的解釋方法進行耦合。例如,結合全局與局部的解釋策略,或者在模型的前期與后期進行解釋耦合。

第四,故障診斷場景下的XAI 遷移能力。針對不同的電力系統(tǒng)和設備,其故障產(chǎn)生的原因與規(guī)律可能存在差異。因此,盡管XAI 在電力系統(tǒng)故障場景下具有良好的預測能力,但其模型仍然具有一定的局限性。為提高XAI 模型的可遷移性,并使其適用于不同的系統(tǒng)和設備,需要在XAI 模型的開發(fā)中考慮這些差異,并進行相關的適配和優(yōu)化。

第五,故障診斷場景下,故障解釋結果與故障知識庫聯(lián)合開發(fā)利用。通過將XAI 生成的解釋結果與已有的故障知識庫結合,可進一步提高故障診斷的準確性與便利性。一方面,解釋結果可為故障知識庫提供更深入的洞察力,揭示故障現(xiàn)象與特征間潛在的關聯(lián),從而豐富知識庫的內(nèi)容并提高其實用性;另一方面,故障知識庫可為解釋結果提供實際案例與經(jīng)驗,有助于驗證和修正模型生成的解釋,使其更符合實際情況。上述過程中,未來可開展系統(tǒng)故障的知識表示(因果圖分析[133]、反事實表示[134]等)、知識融合(貝葉斯網(wǎng)絡推理[135]等)等方面的研究。綜合來看,可解釋結果與故障知識庫的結合,既能提升知識庫的質量,又能增強可解釋結果的實用性與準確性,從而為故障診斷帶來有效的技術支持。

3.5 XAI 在電力及能源市場中的應用

電力市場作為復雜的多方參與市場,需要不斷精細運作、長期規(guī)劃。在此過程中,人工智能黑箱模型難以向用戶闡明其計算規(guī)則和預測過程,這種情況不僅阻礙用戶對算法結果的理解和信任,也可能導致市場決策的不穩(wěn)定性和市場風險的增加。XAI通過提供透明的計算過程與可解釋的預測結果,有助于提高電力市場參與者對人工智能方法的信任度,降低決策不確定性與潛在風險。為此,本節(jié)探討了XAI 在能源價格預測、市場出清方面的應用。

3.5.1 能源價格預測

能源價格預測能夠幫助社會各界對能源價格變化做好準備,以更好地應對能源價格風險。同時,能源價格預測也可為政府制定政策與投資決策提供重要參考依據(jù)。文獻[136]提出了一種考慮人機協(xié)作的批發(fā)市場日前電價預測的新框架,由5 個階段組成:數(shù)據(jù)理解模塊(提高用戶對數(shù)據(jù)集的洞察力)、模型性能模塊(用于評估模型質量)、模型審核模塊(對殘差進行診斷性評估)、特征靈敏度與特征影響模塊(用于分析影響電價變化的輸入數(shù)據(jù)來源)和模型簡化模塊(采用決策樹近似表示預測模型)。這5 個模塊通過量化技術與可視化技術增強了模型可解釋性。針對單個市場傳統(tǒng)特征集難以支撐高精度預測需求的問題,文獻[137]提出一種考慮校準窗口集成與耦合市場特征的可解釋雙層日前電價預測框架,基于SHAP 分析了耦合市場特征與傳統(tǒng)特征對電價預測的影響,發(fā)現(xiàn)對北歐電價影響最大的特征依次為總發(fā)電量、風力發(fā)電量、歷史電價及水力發(fā)電量。針對家庭能源價格問題,文獻[138]搭建了一個面向非專家用戶的XAI 系統(tǒng),該系統(tǒng)由可視化和文本組件組成,使用游戲化的方式加深用戶對家庭能源價格預測模型(隨機森林)的理解。同時,分別使用置換特征重要性(permutation feature importance,PFI)[32]和SHAP 進 行 解 釋。其 中,PFI 是 一 種 傳 統(tǒng)的無偏見全局解釋方法,具有直觀、通用、簡單的優(yōu)勢。PFI 通過隨機打亂各樣本某一特征取值,對比打亂前后的結果,來判斷各特征的重要程度:如果打亂該值增大了模型誤差,則該特征較為“重要”;如果打亂該值對模型誤差影響不大,則該特征為“不重要”。由PFI 構成的程序讓用戶體驗到不同特征如何影響家庭能源價格的預測結果。

3.5.2 市場出清

市場出清是電力市場的一個重要概念,指在某個時段內(nèi),按照市場規(guī)則和機制,通過市場交易將所有發(fā)電方案與需求方案進行匹配,確定最終的市場價格和電力供需。市場出清是電力市場的核心任務之一,也是市場競爭和資源配置的重要手段。文獻[139]利用孤立森林算法對電力市場非典型價格進行識別,孤立森林作為一種基于決策樹的算法,本身就具有可解釋性,該文結合機組受限狀態(tài)解釋分析了機組啟停原因、機組受限狀態(tài)、斷面阻塞原因以及非典型價格原因等因素影響。

3.5.3 XAI 在能源市場應用的進一步思考

XAI 在電力及能源市場中的應用可能會存在以下幾個潛在的研究方向:

第一,能源市場應用下的多智能體RL 的解釋方法。目前,能源市場中的多方博弈問題(例如用能用戶與能源供應商間的策略互動)可通過多智能體RL 進行有效求解。然而,考慮到能源市場的高度時空動態(tài)性,其模式和關系隨著時間的推移可能發(fā)生變化,能源價格、供需情況同樣易受到各種復雜內(nèi)部因素和外部環(huán)境因素的綜合作用。因此,在研究多智能體可解釋RL 基礎算法(如文獻[140-142])的同時,還需進一步探究針對能源市場復雜動態(tài)的多智能體決策解釋方法。

第二,能源市場應用下的XAI 隱私保護和安全保障能力。在電力市場中,如何確保市場參與者的關鍵數(shù)據(jù)和隱私在使用XAI 過程中不被泄露或惡意攻擊是一個研究焦點。需要研究針對XAI 的數(shù)據(jù)泄露和惡意攻擊防御方法,防止電力市場XAI 的解釋結果被惡意篡改,造成經(jīng)濟損失。未來可能的研究方向包括能源市場中的聯(lián)邦學習的XAI[143]和XAI 攻防技術[144]等。

第三,能源市場應用下的XAI 監(jiān)管與合規(guī)問題。在電力及能源市場中,監(jiān)管機構對于模型的可解釋性和透明度有著嚴格的要求。在應用XAI 時,需要針對電力及能源市場的特點和監(jiān)管規(guī)定進行模型設計和優(yōu)化。通過與監(jiān)管機構保持緊密溝通,確保模型能夠符合標準法規(guī)所給定的可解釋性與透明度要求。

4 XAI 在電力系統(tǒng)中的挑戰(zhàn)與展望

雖然XAI 在電力系統(tǒng)日益得到重視,但由于電力系統(tǒng)人工智能的特殊性較為顯著,目前對于XAI在電力系統(tǒng)中的運用仍存在較多懸而未決的挑戰(zhàn)。因此,本章依照從小到大、由淺入深的邏輯嘗試論述XAI 在電力系統(tǒng)應用的挑戰(zhàn)與展望(如圖5 所示),以期為XAI 技術在電力系統(tǒng)的應用發(fā)展提供有價值的啟示。

圖5 XAI 在電力系統(tǒng)中的挑戰(zhàn)Fig.5 Challenges of XAI in power systems

4.1 電力XAI 含義解釋問題

目前,對于電力系統(tǒng)各領域XAI 解釋的具體含義還沒有達成共識,主要受限于兩方面:1)雖然現(xiàn)有解釋形式對于電力領域中需具備可解釋性的某些應用場景已足夠適用,但XAI 在理論和技術上仍然存在許多不足之處,尚未形成具有廣泛適用性的、成熟的XAI 電力系統(tǒng)解釋性能評價框架[11];2)電力系統(tǒng)不同局部領域、不同應用場景、不同面向人群所需的解釋能力也有所不同??筛鶕?jù)以下兩方面開展電力領域人工智能解釋的含義挖掘。

第一,在解釋層次上,根據(jù)不同應用場景與目標受眾區(qū)分解釋層次。例如,可將解釋目標受眾劃分為人工智能研究人員、電力專家和普通用戶等。對于人工智能研究人員,可解釋性需要在模型的內(nèi)部機制、算法原理、參數(shù)調(diào)整等方面進行解釋;對于電力專家,需要解釋人工智能模型是否適合電力系統(tǒng),以及電力人工智能應用的影響參數(shù);對于普通用戶,可解釋性應主要體現(xiàn)在結果可視化,其可能更關注模型如何得出某個結果,以及是否符合他們的預期。根據(jù)不同的目標受眾,可解釋性需要在不同解釋層次進行選擇和調(diào)整,以確保其最大限度地滿足不同層次的用戶需求。

第二,在解釋方式上,提高不同解釋方式的適用性?!敖忉尅贝嬖谥谋尽D表、交互式界面等不同表達方式,但“解釋”本身就是一種相對而言的概念,其效果的好壞與具體應用場景、目標受眾、解釋方式等因素都有關系。需要開發(fā)面向能源領域的多種解釋形式,以根據(jù)具體應用場景和目標受眾,結合實際需求和預期,進行靈活的選擇和調(diào)整,以最大限度地滿足用戶預期。

在高比例可再生能源滲透與高比例電力電子設備接入過程中,超大規(guī)模電網(wǎng)這一實際物理系統(tǒng)將進一步呈現(xiàn)高維復雜動態(tài)特性,如何在多時間尺度、多運行場景等不同層面下,準確提取系統(tǒng)外部環(huán)境數(shù)據(jù)與歷史數(shù)據(jù)的事前解釋指標,精確分析刻畫高維非線性人工智能黑箱內(nèi)部的事中解釋指標,深入挖掘高置信、低偏差、可驗證的人工智能黑箱模型結果的事后解釋指標,形成電力領域人工智能黑箱可信度量證據(jù)與“事前-事中-事后”度量評估方法以助力電力系統(tǒng)人工智能結果可信評估與知識發(fā)現(xiàn),是未來需要解決的關鍵問題。

4.2 模型準確性與解釋能力矛盾

算法準確性代表著算法的性能和效果,而可解釋性指的是算法的行為和決策過程的可理解性。一方面,可解釋方法因專注于理解算法的決策過程,而忽視了算法的性能和效果;另一方面,準確性可能會損害可解釋性,因為人工智能算法(尤其是深度學習)可能會通過一系列復雜的變換來提升算法的性能,可解釋性就會受到影響。因此,大量模型在構建過程中需要在準確性和解釋性之間進行權衡。例如,電力系統(tǒng)海量設備元件的高度耦合與非線性關系逐漸增加了其運行復雜性,相關人工智能模型可能會針對某些目標的實現(xiàn)設計復雜神經(jīng)網(wǎng)絡結構。雖然多層結構與節(jié)點互聯(lián)能增加網(wǎng)絡的表達能力、擬合高維復雜的非線性關系,提高準確性,但其網(wǎng)絡隱層特征并未展示出明確的電力領域物理意義,網(wǎng)絡連接較多時單個神經(jīng)元的貢獻也難以分離,不可避免地帶來了可解釋性低的問題。因此,在未來電力系統(tǒng)人工智能大規(guī)模應用的情況下,模型準確性與解釋能力的矛盾亟須得到討論。

模型準確性與解釋能力的矛盾對抗可通過一定形式轉化。機器學習算法之間在性能上的微小差異可能會被解釋結果和在下一輪迭代中對參數(shù)的調(diào)整所消除[145]。因此,作為超大規(guī)模的復雜巨系統(tǒng),電力系統(tǒng)中人工智能模型與XAI 模型的交互迭代必將隨著未來新能源出力、負荷水平、網(wǎng)架拓撲、運行方式等多因素的變化而變化,體現(xiàn)出高維動態(tài)的復雜特性。如何基于工程思維平衡人工智能模型準確性與XAI 模型解釋性之間的矛盾,形成面向特定電力場景的人機交互解釋框架,構建“數(shù)據(jù)準備-模型調(diào)整-結果解釋”的人工智能/XAI 算法迭代循環(huán),并推動電力系統(tǒng)“經(jīng)濟-安全-環(huán)境”矛盾三角向平衡演進,是未來需要解決的關鍵問題。

4.3 數(shù)據(jù)質量與模型提升矛盾

機器學習在電力系統(tǒng)中的應用研究通常關注于特定的模型設計,忽略了對電力系統(tǒng)數(shù)據(jù)質量提升。數(shù)據(jù)質量對可解釋性的效果產(chǎn)生一定影響,這種影響在以模型為中心和以數(shù)據(jù)為中心的方法中存在差異。

以人工智能模型為中心的方法重點關注模型算法設計,可能會忽視電力系統(tǒng)所用數(shù)據(jù)的廣度和深度,以及對潛在問題或規(guī)律的準確認識,且由于輸入數(shù)據(jù)已經(jīng)固定,通過復雜操作提升的模型能力可能會進一步限制模型的自解釋性。同時,由于輸入數(shù)據(jù)已經(jīng)確定,輸出結果的好壞較大程度上取決于人工智能模型的優(yōu)劣,通過“輸入-輸出”映射實現(xiàn)的事后解釋效果也已確定。因此,對于大部分自解釋方法以及模型無關的解釋方法來說,人工智能黑箱模型的好壞會直接決定解釋性能。

以數(shù)據(jù)為中心的方法[146]主要關注數(shù)據(jù)質量提升與推理數(shù)據(jù)的針對性設計,其是特征工程與人工智能模型的核心關鍵。這種方法強調(diào)了數(shù)據(jù)預處理、特征構建和特征選擇等環(huán)節(jié)的重要性,以便更好地捕捉和反映電力系統(tǒng)中的關鍵信息。然而,數(shù)據(jù)質量的提升并不一定會帶來整體性能的提升,這是因為模型的復雜性和泛化能力也對性能產(chǎn)生較大影響。此外,以數(shù)據(jù)為中心的方法可能會遇到數(shù)據(jù)不足、噪聲干擾或不平衡等問題,這些問題會影響模型的準確性與解釋性。因此,對于模型無關的解釋方法來說,數(shù)據(jù)好壞無法直接決定解釋性能。

綜上,基于更高維度、更大范圍、更多模態(tài)的電力系統(tǒng)數(shù)據(jù)開展人工智能算法的設計、優(yōu)化和解釋的過程中,如何開展電力系統(tǒng)復雜數(shù)據(jù)的標注與預處理,如何提高人工智能模型清晰、透明與設計性進而提升可解釋性,最終平衡以模型為中心和以數(shù)據(jù)為中心的矛盾主次雙方,實現(xiàn)更高維度、更細粒度、更深層次的電力系統(tǒng)知識發(fā)現(xiàn),是未來需要解決的關鍵問題。

4.4 人類知識與模型經(jīng)驗矛盾

電力系統(tǒng)內(nèi)部已累積大量物理規(guī)律、人類經(jīng)驗、安全規(guī)則和因果邏輯等先驗知識,其可通過知識-數(shù)據(jù)融合的方式嵌入數(shù)據(jù)驅動模型中,以提高整體模型的內(nèi)在解釋性與知識發(fā)現(xiàn)。2016 年,薛禹勝院士提出因果方法與機器學習融合分析的思考[147]之后,知識-數(shù)據(jù)融合驅動的思想在能源系統(tǒng)開始得到初步研究,已在系統(tǒng)參數(shù)辨識[148]、暫態(tài)穩(wěn)定分析[149]等領域取得了較好效果,展示出良好的潛力。知識-數(shù)據(jù)融合驅動技術的研究主要目的是將人類先驗知識與數(shù)據(jù)驅動的模型相結合,以提高模型的準確性、魯棒性、泛化能力等。其與XAI 的關聯(lián)和區(qū)別主要表現(xiàn)在以下兩方面:

1)在知識-數(shù)據(jù)融合的模型構建過程中,首先需要人類能夠理解人工智能黑箱算法是如何工作的,才能設計出合適的知識模型與之交互。此時,XAI就發(fā)揮了“人類-人工智能”的橋梁作用。

2)雖然知識與數(shù)據(jù)的融合往往不會直接提高數(shù)據(jù)驅動模型的可解釋性,但知識的加入能夠增強融合模型內(nèi)部的可解釋性,并在一定程度上為模型輸出提供更有價值的解釋。

然而,現(xiàn)有模型內(nèi)在解釋方法仍難以統(tǒng)一電網(wǎng)不同業(yè)務下機理知識與數(shù)據(jù)驅動融合的差異,缺乏或難以形成對數(shù)模混合驅動模型構成規(guī)律的統(tǒng)一認識,如何將基于人類智能所形成的物理知識、實踐經(jīng)驗,與基于人工智能所構建的高維表達、抽象行為相融合,形成人-機“你中有我,我中有你”混合驅動的物理信息融合新范式,是未來需要解決的關鍵問題。

5 結語

XAI 已受到電力系統(tǒng)學術界、產(chǎn)業(yè)界及政府部門的高度重視,對現(xiàn)有XAI 的研究、總結和歸納對促進人工智能在電力系統(tǒng)中快速發(fā)展與落地應用至關重要。本文從XAI 興起入手,對其背景意義、基本方法和應用范圍3 個方面進行分析與梳理,以探討其對電力系統(tǒng)發(fā)展的影響與價值:從背景意義看,XAI 應突破現(xiàn)有人工智能公平、信任、操作、安全瓶頸;從基本方法看,注意力機制、SHAP、LIME 等已成為電力系統(tǒng)XAI 常用方法;從應用范圍看,XAI已滲透源荷預測、系統(tǒng)規(guī)劃、運行控制、故障診斷、電力市場等領域。未來,XAI 在電力系統(tǒng)的應用還面臨解釋范圍界定困境、解釋能力與準確性矛盾、數(shù)據(jù)模型主導平衡、數(shù)據(jù)機理融合范式挖掘等諸多問題,需把握不同矛盾的不同特點,結合電力系統(tǒng)實際開展具體研究。

猜你喜歡
解釋性人工智能文獻
Hostile takeovers in China and Japan
速讀·下旬(2021年11期)2021-10-12 01:10:43
論行政自由裁量的“解釋性控權”
法律方法(2021年4期)2021-03-16 05:35:16
Cultural and Religious Context of the Two Ancient Egyptian Stelae An Opening Paragraph
大東方(2019年12期)2019-10-20 13:12:49
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
英漢互譯中的認知隱喻翻譯探究
文教資料(2018年30期)2018-01-15 10:25:06
The Application of the Situational Teaching Method in English Classroom Teaching at Vocational Colleges
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
融媒體時代解釋性報道的發(fā)展之路
傳播力研究(2017年5期)2017-03-28 09:08:30
The Role and Significant of Professional Ethics in Accounting and Auditing
商情(2017年1期)2017-03-22 16:56:36
张家口市| 东丽区| 扎囊县| 社会| 景德镇市| 驻马店市| 巴彦县| 息烽县| 神池县| 忻城县| 普洱| 汝州市| 玉溪市| 读书| 洛隆县| 山西省| 翼城县| 凤凰县| 孟州市| 黄山市| 安阳县| 吉安县| 灌云县| 定兴县| 宁南县| 枣庄市| 乌审旗| 长宁县| 庄河市| 六枝特区| 遂川县| 新源县| 巫山县| 黔西县| 宁河县| 莲花县| 阆中市| 铜梁县| 宝鸡市| 嘉禾县| 崇左市|