国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度元學(xué)習(xí)的固體發(fā)動(dòng)機(jī)性能預(yù)測方法研究

2024-11-19 00:00:00崔研婁碧軒于鵬程楊慧欣
航空兵器 2024年5期

摘 要: 針對(duì)飛行器動(dòng)力系統(tǒng)中固體發(fā)動(dòng)機(jī)性能實(shí)驗(yàn)的諸多限制, 如高成本、 專業(yè)設(shè)備需求、 特定實(shí)驗(yàn)環(huán)境、 高風(fēng)險(xiǎn)性等問題, 本文提出了一種基于深度元學(xué)習(xí)的人工智能方法, 用于發(fā)動(dòng)機(jī)性能預(yù)測。 該方法采用模型不可知元學(xué)習(xí)(Model-Agnostic Meta-Learning, MAML)和深度卷積神經(jīng)網(wǎng)絡(luò)(Deep Convolutional Neural Networks, DCNN)模型, 首先根據(jù)不同實(shí)驗(yàn)條件劃分推力-時(shí)間數(shù)據(jù)為不同訓(xùn)練任務(wù), 通過內(nèi)循環(huán)訓(xùn)練得到各任務(wù)最佳模型參數(shù), 在外循環(huán)中更新模型初始化參數(shù), 內(nèi)外循環(huán)迭代優(yōu)化后, 獲得了能夠高精度預(yù)測固體發(fā)動(dòng)機(jī)總沖的模型, 最后用新任務(wù)進(jìn)行測試。 測試結(jié)果顯示, 相較于無元學(xué)習(xí)的DCNN, 該方法在測試集上的誤差顯著下降, 百分比誤差最大為2.27%。 證明了元學(xué)習(xí)模型在小樣本條件下對(duì)固體發(fā)動(dòng)機(jī)性能的高精度預(yù)測能力。

關(guān)鍵詞: 固體發(fā)動(dòng)機(jī); 發(fā)動(dòng)機(jī)性能; 元學(xué)習(xí); 模型不可知元學(xué)習(xí); 深度卷積神經(jīng)網(wǎng)絡(luò)

中圖分類號(hào): TJ760; V23

文獻(xiàn)標(biāo)識(shí)碼: A

文章編號(hào): 1673-5048(2024)05-0110-05

DOI: 10.12132/ISSN.1673-5048.2024.0089

0 引 言

固體發(fā)動(dòng)機(jī)作為飛行器動(dòng)力系統(tǒng)的重要組成部分, 為飛行器提供了強(qiáng)大的推力, 確保了飛行器的穩(wěn)定飛行和高效性能。 固體發(fā)動(dòng)機(jī)具有操作簡單、 存儲(chǔ)方便、 可靠性高等優(yōu)點(diǎn), 廣泛應(yīng)用于火箭、 導(dǎo)彈以及宇宙飛船等領(lǐng)域。 固體發(fā)動(dòng)機(jī)的總沖是衡量其性能的一個(gè)關(guān)鍵指標(biāo)[1], 總沖是指發(fā)動(dòng)機(jī)在一個(gè)工作循環(huán)中所做的功, 是提供給飛行器的總動(dòng)量, 從而影響到整個(gè)飛行器的飛行性能和射程。 通常情況下, 對(duì)發(fā)動(dòng)機(jī)進(jìn)行推力實(shí)驗(yàn), 由傳感器采集發(fā)動(dòng)機(jī)推力數(shù)據(jù), 再將其處理成推力-時(shí)間曲線, 推力對(duì)工作時(shí)間進(jìn)行積分, 從而得到發(fā)動(dòng)機(jī)總沖。

由于固體發(fā)動(dòng)機(jī)地面實(shí)驗(yàn)的成本較高, 在實(shí)驗(yàn)中很難采集到足量有用的推力數(shù)據(jù), 所以難以通過推力-時(shí)間數(shù)據(jù)得到總沖。 傳統(tǒng)的深度學(xué)習(xí)對(duì)數(shù)據(jù)量依賴較大, 導(dǎo)致采用深度學(xué)習(xí)模型的效果并不理想。 為能得到泛化能力較好的人工智能模型以及更準(zhǔn)確的預(yù)測性能, 引入深度元學(xué)習(xí)方法, 開展了基于深度元學(xué)習(xí)的人工智能發(fā)動(dòng)機(jī)性能預(yù)測方法。

元學(xué)習(xí)也稱“學(xué)會(huì)學(xué)習(xí)”(Learning to learn), 是一種基于任務(wù)的學(xué)習(xí)方式, 目的是發(fā)現(xiàn)并合理利用已有的先驗(yàn)知識(shí), 在面對(duì)新任務(wù)時(shí)能取得良好表現(xiàn)。 相對(duì)于元學(xué)習(xí), 傳統(tǒng)的深度神經(jīng)網(wǎng)絡(luò)雖然在擁有大量數(shù)據(jù)集和足夠的計(jì)算資源時(shí), 能夠取得很好的效果, 但是其可擴(kuò)展能力差、 對(duì)新任務(wù)處理困難、 需要大量數(shù)據(jù)訓(xùn)練模型, 在快速學(xué)習(xí)新概念方面的能力很有限。 而元學(xué)習(xí)模型能夠較好地推廣到訓(xùn)練新環(huán)境上, 并且在小樣本數(shù)據(jù)的任務(wù)上也有很好的表現(xiàn)[2-4], 能夠?qū)⑸疃壬窠?jīng)網(wǎng)絡(luò)與具有自我學(xué)習(xí)能力的元學(xué)習(xí)聯(lián)系起來, 使網(wǎng)絡(luò)學(xué)會(huì)怎樣去學(xué)習(xí)。 Luo等[5]提出了一種三元組關(guān)系網(wǎng)絡(luò)(TRNet), 通過迭代學(xué)習(xí)幾個(gè)相關(guān)的元任務(wù)進(jìn)行跨組件的小樣本故障診斷。 Rivas-Posada等[6]提出了XC8XK1cOoS7fa7jxwjRdkg==一種元無監(jiān)督算法, 通過解決任務(wù)來獲取知識(shí), 以此推薦初始參數(shù)來解決其他新任務(wù)。 Vettoruzzo等[7]提出了一種新的元學(xué)習(xí)框架, 該框架可以通過當(dāng)前任務(wù)調(diào)節(jié)模型來處理多模態(tài)任務(wù), 從而更快地適應(yīng)新任務(wù)。 萬鵬等[8]提出了一種基于元學(xué)習(xí)的刀具磨損預(yù)測方法, 采用元學(xué)習(xí)算法來優(yōu)化融合模型的損失函數(shù)以最大化利用數(shù)據(jù)和機(jī)理所提供的信息。 結(jié)果表明,

所采用方法能有效提高在不同工況下的刀具磨損預(yù)測精度和穩(wěn)定性。 Wang等[9]引入了元學(xué)習(xí)來增強(qiáng)所采用模型

收稿日期: 2024-05-24

基金項(xiàng)目: 遼寧省屬本科高?;究蒲袠I(yè)務(wù)費(fèi)專項(xiàng)資金資助

作者簡介: 崔研(1998-), 女, 遼寧大連人, 碩士研究生。

*通信作者: 楊慧欣(1985-), 女, 遼寧沈陽人, 博士, 副教授。

在多任務(wù)領(lǐng)域的泛化能力, 實(shí)驗(yàn)結(jié)果表明, 元學(xué)習(xí)方法能夠有效適應(yīng)多任務(wù), 并提高了刀具磨損的預(yù)測結(jié)果值。 Huang等[10]將元學(xué)習(xí)引入到工業(yè)的視覺檢測中以解決異物數(shù)據(jù)難以采集和積累的問題, 同時(shí)通過參數(shù)優(yōu)化策略更新模型權(quán)重, 使得元學(xué)習(xí)模型在面對(duì)樣本較少的新任務(wù)時(shí)也能夠更有效地學(xué)習(xí)。 夏鵬程等[11]將元學(xué)習(xí)引入到故障診斷領(lǐng)域以解決難以獲取充足故障數(shù)據(jù)樣本的問題。 結(jié)果表明, 在所有故障中, 僅僅提供非常少的樣本(如1個(gè)、 5個(gè))均能達(dá)到較高的準(zhǔn)確率。 Minot等[12]利用元學(xué)習(xí)方法來克服蛋白質(zhì)工程中嘈雜和標(biāo)記不足的數(shù)據(jù), 并加快抗體工程的工作流程。 航空兵器 2024年第31卷第5期

崔 研, 等: 基于深度元學(xué)習(xí)的固體發(fā)動(dòng)機(jī)性能預(yù)測方法研究

由此可知, 元學(xué)習(xí)方法適合于難以用深度學(xué)習(xí)直接解決的小樣本問題。 具體的方法主要有三類: 基于度量的元學(xué)習(xí)、 基于模型的元學(xué)習(xí)、 基于優(yōu)化的元學(xué)習(xí)。 基于度量的元學(xué)習(xí)是一種通過度量來學(xué)習(xí)不同新舊任務(wù)之間的相似性以達(dá)到模型快速適應(yīng)新任務(wù)的目標(biāo)。 其主要代表模型是Vinyals等[13]開發(fā)的MatchingNet模型。 主要通過在嵌入特征空間時(shí)利用余弦距離進(jìn)行度量相似度來實(shí)現(xiàn), 使得在特征空間中, 相似的數(shù)據(jù)點(diǎn)靠得更近, 不相似的數(shù)據(jù)點(diǎn)離得更遠(yuǎn)。 基于模型的元學(xué)習(xí)的核心思想是能夠快速將模型收斂到適用于每個(gè)任務(wù)的最優(yōu)結(jié)構(gòu), 其中代表模型是Ravi等[14]開發(fā)的Meta-Learner LSTM模型, 主要通過LSTM模型學(xué)習(xí)一個(gè)用于更新另一個(gè)神經(jīng)網(wǎng)絡(luò)模型內(nèi)部結(jié)構(gòu)的優(yōu)化算法。 基于優(yōu)化的元學(xué)習(xí)的核心思想是學(xué)習(xí)一種優(yōu)化策略, 從而幫助模型在新任務(wù)上更快速地收斂到最優(yōu)解。 其主要代表模型是Finn等[2]開發(fā)的MAML模型。 主要通過尋找對(duì)所有任務(wù)都較為敏感的初始化模型參數(shù), 使模型能夠在新任務(wù)上快速適應(yīng), 提高學(xué)習(xí)效果。

然而, 到目前為止, 元學(xué)習(xí)還沒有被用于預(yù)測固體發(fā)動(dòng)機(jī)的總沖問題。 傳統(tǒng)的總沖預(yù)測方法通常需要大量的標(biāo)記數(shù)據(jù)來進(jìn)行訓(xùn)練和參數(shù)調(diào)整, 以及大量的數(shù)據(jù)樣本來實(shí)現(xiàn)最佳的網(wǎng)絡(luò)預(yù)測性能, 同時(shí)還需要大量的計(jì)算資源。 本文提出了一種基于元學(xué)習(xí)深度卷積神經(jīng)網(wǎng)絡(luò)(Meta-learning Deep Convolutional Neural Networks, MDCNN)的人工智能方法, 能夠有效解決飛行器動(dòng)力系統(tǒng)由于實(shí)驗(yàn)成本較高而無法采集到大量有效數(shù)據(jù)的問題, 同時(shí)可以在不需要額外數(shù)據(jù)采集的情況下, 減少在面對(duì)新任務(wù)時(shí)訓(xùn)練模型所需的時(shí)間, 有效提高模型的性能、 泛化能力以及魯棒性。

1 基本原理

1.1 MAML的基本原理

模型不可知元學(xué)習(xí)方式(Model Agnostic Meta- Learning, MAML)是一種與模型無關(guān)的元學(xué)習(xí)算法。 它適用于任何使用梯度下降法更新參數(shù)的模型, 通過從多個(gè)相關(guān)任務(wù)中快速學(xué)習(xí)并適應(yīng)新任務(wù)來優(yōu)化模型的性能。 與傳統(tǒng)的機(jī)器學(xué)習(xí)方法相比, MAML更注重利用不同任務(wù)間的共性知識(shí), 以加速新任務(wù)的學(xué)習(xí)過程。 MAML算法不是針對(duì)特定任務(wù)進(jìn)行訓(xùn)練, 而是通過對(duì)多個(gè)相關(guān)任務(wù)的學(xué)習(xí), 不斷更新模型參數(shù), 優(yōu)化模型性能, 使得模型在面對(duì)新任務(wù)時(shí), 能夠迅速適應(yīng)并表現(xiàn)出良好的性能。

MAML 的關(guān)鍵思想是得到最優(yōu)的模型初始化參數(shù)。 MAML訓(xùn)練過程中, 通過對(duì)大量任務(wù)進(jìn)行訓(xùn)練, 對(duì)每一個(gè)任務(wù)都進(jìn)行參數(shù)更新, 最終得到一個(gè)最優(yōu)的初始化參數(shù), 使得模型在新任務(wù)上通過少量的梯度下降步驟就能快速適應(yīng), 并在新任務(wù)上表現(xiàn)出最好的性能。 MAML的訓(xùn)練流程如圖1所示。

MAML算法通常由內(nèi)循環(huán)與外循環(huán)構(gòu)成。 內(nèi)循環(huán)中先初始化模型參數(shù), 然后在每個(gè)任務(wù)的支持集上對(duì)模型進(jìn)行訓(xùn)練, 更新模型參數(shù), 最后在查詢集測試, 計(jì)算損失, 檢測模型在新的樣本上的性能。 外循環(huán)中MAML根據(jù)所有任務(wù)的查詢集損失的平均值或總和, 使用梯度下降法更新模型初始化參數(shù)。

對(duì)于幾個(gè)訓(xùn)練任務(wù)進(jìn)行元訓(xùn)練, 在內(nèi)循環(huán)上的參數(shù)更新過程如下:

θ′i=θ-αΔθLTi(fθ)(1)

式中: θ′i是任務(wù); Ti的最優(yōu)參數(shù); θ為初始化參數(shù); α為內(nèi)循環(huán)學(xué)習(xí)率; ΔθLTi(fθ)為任務(wù)Ti的梯度。

在外循環(huán)上的參數(shù)更新過程如下:

θ=θ-βΔθ∑Ti-p(T)LTi(fθ′i) (2)

式中: θ為適合所有任務(wù)的最優(yōu)初始化參數(shù); β為外循環(huán)學(xué)習(xí)率; Δθ∑Ti-p(T)LTi(fθ′i)為所有任務(wù)累計(jì)的梯度。

1.2 DCNN模型

深度卷積神經(jīng)網(wǎng)絡(luò)(Deep Convolutional Neural Networks, DCNN)是人工智能領(lǐng)域中一種重要的前饋神經(jīng)網(wǎng)絡(luò)。 DCNN通常由多個(gè)卷積層、 激活函數(shù)層、 池化層以及全連接層組成。 卷積層負(fù)責(zé)提取數(shù)據(jù)的局部特征; 激活函數(shù)層引入非線性因素, 增強(qiáng)模型的表達(dá)能力; 池化層則進(jìn)行下采樣操作, 降低數(shù)據(jù)的維度和計(jì)算復(fù)雜度; 全連接層通常位于網(wǎng)絡(luò)的末端, 用于整合前面層提取到的特征并進(jìn)行最終的分類或回歸任務(wù)。

DCNN的工作原理可以概括為前向傳播和反向傳播兩個(gè)過程。 在前向傳播階段, 輸入數(shù)據(jù)經(jīng)過多個(gè)卷積層、 激活函數(shù)層和池化層的處理, 逐層提取出從低級(jí)到高級(jí)的特征表示; 在反向傳播階段, 通過計(jì)算損失函數(shù)對(duì)模型參數(shù)的梯度, 利用優(yōu)化算法更新網(wǎng)絡(luò)權(quán)重, 以最小化預(yù)測輸出與實(shí)際標(biāo)簽之間的差異。

模型的超參數(shù)設(shè)置會(huì)影響其性能表現(xiàn), 并決定了模型在訓(xùn)練過程中的學(xué)習(xí)行為以及最終的預(yù)測能力。 本文模型的超參數(shù)設(shè)置如表1所示, 采用的DCNN模型示意如圖2所示。 本文采用的DCNN模型加入了Dropout層, 這一策略在訓(xùn)練過程中隨機(jī)地將網(wǎng)絡(luò)中的一部分神經(jīng)元置為不活躍狀態(tài), 有效減少了網(wǎng)絡(luò)中的參數(shù)數(shù)量, 降低了模型的復(fù)雜度, 從而有助于防止過擬合現(xiàn)象的發(fā)生, 并且增加了模型的多樣性, 有助于提升模型的泛化能力。

1.3 MDCNN模型訓(xùn)練流程

本文以DCNN模型作為預(yù)測器搭建了元學(xué)習(xí)的框架, 所使用的數(shù)據(jù)集來自不同溫度條件下的固體發(fā)動(dòng)機(jī)地面試車實(shí)驗(yàn), 這些數(shù)據(jù)通過傳感器測量并經(jīng)過后處理得到推力-時(shí)間曲線。 該數(shù)據(jù)集由90組高溫實(shí)驗(yàn)數(shù)據(jù)、 80組低溫實(shí)驗(yàn)數(shù)據(jù)以及25組常溫實(shí)驗(yàn)數(shù)據(jù)所構(gòu)成。 為了優(yōu)化模型訓(xùn)練過程, 通過降低采樣減少數(shù)據(jù)集大小, 降低模型對(duì)計(jì)算資源的依賴, 減少計(jì)算所需的時(shí)間, 以此去除大量難以提取特征和信息的相似數(shù)據(jù), 降低模型過擬合的風(fēng)險(xiǎn), 數(shù)據(jù)處理前后如圖3所示。 本文將高溫與低溫實(shí)驗(yàn)數(shù)據(jù)設(shè)為元訓(xùn)練任務(wù), 并將其按照9∶1的比例隨機(jī)劃分為支持集與查詢集, 以供元訓(xùn)練階段的模型訓(xùn)練與性能評(píng)估。 同時(shí), 將常溫實(shí)驗(yàn)數(shù)據(jù)設(shè)為元測試任務(wù), 以4∶1的比例劃分為支持集與查詢集, 用于元測試階段的模型訓(xùn)練與性能測試。

元訓(xùn)練階段, 在內(nèi)循環(huán)中, 輸入訓(xùn)練任務(wù)中的支持集并使用DCNN模型來進(jìn)行訓(xùn)練, 以此對(duì)DCNN模型的參數(shù)進(jìn)行第一次更新, 更新之后在每個(gè)任務(wù)查詢集進(jìn)行測試, 計(jì)算查詢集的誤差。 在外循環(huán)中, 通過查詢集誤差的梯度, 并使用梯度下降法對(duì)沒有MDCNN模型的參數(shù)進(jìn)行二次更新, 直到得到在不同任務(wù)中共同的最優(yōu)MDCNN模型參數(shù)。

在元測試階段, 利用MDCNN模型對(duì)測試任務(wù)的支持集進(jìn)行訓(xùn)練并更新MDCNN模型參數(shù), 訓(xùn)練完畢后, 利用5組查詢集進(jìn)行測試, 評(píng)估MDCNN模型的性能。

2 結(jié)果分析

2.1 收斂速度分析

通過比較DCNN模型在訓(xùn)練過程中以及MDCNN模型在元測試階段支持集訓(xùn)練過程中的損失函數(shù)值Loss的變化趨勢(shì), 分析使用元學(xué)習(xí)方法前后對(duì)固體發(fā)動(dòng)機(jī)性能預(yù)測的收斂速度。 損失值變化如圖4所示。

如圖4所示, 相比于未采用元學(xué)習(xí)的DCNN模型, 所提出的MDCNN模型更快地達(dá)到了收斂狀態(tài)。 同時(shí), 所提出模型在訓(xùn)練200步時(shí), 誤差降低至1×10-3。 而傳統(tǒng)DCNN則需要將近1 300步才能達(dá)到相同的精度。 由此可見, MDCNN在訓(xùn)練到相同精度所需的步數(shù)遠(yuǎn)遠(yuǎn)小于傳統(tǒng)DCNN模型。 結(jié)果表明, 通過元學(xué)習(xí)模型可以從最優(yōu)模型參數(shù)出發(fā), 使用更少的梯度步驟達(dá)到收斂。

2.2 誤差對(duì)比

通過比較百分比誤差、 均方誤差(Mean Square Error, MSE)、 均方根誤差(Root Mean Square Error, RMSE)、 平均絕對(duì)誤差(Mean Absolute Error, MAE)以及平均絕對(duì)百分比誤差(Mean Absolute Percentage Error, MAPE), 分析使用元學(xué)習(xí)方法前后的預(yù)測效果。

DCNN與MDCNN誤差對(duì)比如表2所示。

由圖表可以看出, 在5組測試集上MDCNN的百分比誤差都要小于DCNN。 其中, DCNN最大的百分比誤差為4.43%, 而MDCNN模型最大百分比誤差僅為2.27%。 表明元學(xué)習(xí)方法在預(yù)測結(jié)果的準(zhǔn)確性上遠(yuǎn)遠(yuǎn)高于傳統(tǒng)的DCNN模型。

2.3 預(yù)測結(jié)果分析

在5組測試集上的預(yù)測結(jié)果如圖6和表4所示, MDCNN模型的預(yù)測值明顯要比DCNN模型更逼近實(shí)際值。 結(jié)果表明, MDCNN模型在不同測試集上預(yù)測結(jié)果的準(zhǔn)確性上遠(yuǎn)遠(yuǎn)高于傳統(tǒng)的DCNN模型, 從而證明了MDCNN在面對(duì)復(fù)雜數(shù)據(jù)時(shí)更強(qiáng)的適應(yīng)性和魯棒性, 不僅能夠更有效地從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)、 提取出關(guān)鍵特征, 還能更好地適應(yīng)新的、 未見過的數(shù)據(jù)。

3 結(jié) 論

通過搭建元學(xué)習(xí)框架, 開發(fā)了一種基于深度元學(xué)習(xí)的人工智能方法, 該方法采用了MDCNN模型對(duì)飛行器動(dòng)力系統(tǒng)中的發(fā)動(dòng)機(jī)性能進(jìn)行預(yù)測, 解決了傳統(tǒng)發(fā)動(dòng)機(jī)性能計(jì)算的固有復(fù)雜性以及傳統(tǒng)人工智能方法數(shù)據(jù)依賴性大、 泛化能力差等問題, 為未來固體發(fā)動(dòng)機(jī)性能預(yù)測提供了新方向, 不僅有助于提升發(fā)動(dòng)機(jī)本身的效能, 同時(shí)也將為飛行器動(dòng)力系統(tǒng)的整體優(yōu)化和設(shè)計(jì)提供有力的支持。 利用MDCNN通過內(nèi)外循環(huán)從不同的推力-時(shí)間數(shù)據(jù)上學(xué)習(xí)元知識(shí), 并利用新的任務(wù)對(duì)MDCNN模型進(jìn)行測試。 與未采用元學(xué)習(xí)的DCNN模型進(jìn)行對(duì)比, 得出以下結(jié)論:

(1) 通過元學(xué)習(xí)模型, 可以使模型從最優(yōu)模型參數(shù)出發(fā), 使用更少的梯度步驟達(dá)到收斂, 并提高模型的收斂速度。

(2) 相對(duì)于傳統(tǒng)的DCNN模型, MDCNN模型展現(xiàn)出了更高的準(zhǔn)確性和穩(wěn)定性, 在5種誤差的比較中都全面小于DCNN模型。

(3) 在5組測試集上, MDCNN的曲線明顯要比DCNN模型更逼近實(shí)際值, 證明了MDCNN在面對(duì)復(fù)雜數(shù)據(jù)時(shí)的有效性和魯棒性, 能更好地適應(yīng)新的、 未見過的數(shù)據(jù)。

參考文獻(xiàn):

[1] 蔡淑芬, 張玉成, 胡克嫻, 等. 固體火箭發(fā)動(dòng)機(jī)總沖精度預(yù)示與分析[J]. 推進(jìn)技術(shù), 1996(2): 27-31.

Cai Shufen, Zhang Yucheng, Hu Kexian, et al. Accuracy Prediction and Analysis of Totnj4DsFwE+34/RE9VUh1GOw==al Impulse for Solid Rocket Motor[J]. Journal of Propulsion Technology, 1996(2): 27-31.(in Chinese)

[2] Finn C, Abbeel P, Levine S. Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks[C]∥International Conference on Machine Learning, 2017.

[3] Mahalakshmi V, Sandhu M, Shabaz M, et al. Few-Shot Learning-Based Human Behavior Recognition Model[J]. Computers in Human Behavior, 2024, 151: 108038.

[4] Liao R, Zhai J, Zhang F. Optimization Model Based on Attention Mechanism for Few-Shot Image Classification[J]. Machine Vision and Applications, 2024, 35(2): 1-14.

[5] Luo M C, Xu J, Fan Y Q, et al. TRNet: A Cross-Component Few-Shot Mechanical Fault Diagnosis[J]. IEEE Transactions on Industrial Informatics, 2023, 19(5): 6883-6894.

[6] Rivas-Posada E, Chacon-Murguia M I. Meta-Learning Methodology Based on Meta-Unsupervised Algorithm for Meta-Model Selection to Solve Few-Shot Base-Tasks[J]. Neural Computing and Applications, 2024, 36(15): 9073-9094.

[7] Vettoruzzo A, Bouguelia M R, Rgnvaldsson T. Multimodal Meta-Learning through Meta-Learned Task Representations[J]. Neural Computing and Applications, 2024, 36(15): 8519-8529.

[8] 萬鵬, 李迎光, 華家玘, 等. 基于元學(xué)習(xí)和PINN的變工況刀具磨損精確預(yù)測方法[J]. 南京航空航天大學(xué)學(xué)報(bào), 2022, 54(3): 387-396.

Wan Peng, Li Yingguang, Hua Jiaqi, et al. Accurate Prediction Method of Tool Wear Under Varying Cutting Conditions Based on Meta Learning and PINN[J]. Journal of Nanjing University of Aeronautics and Astronautics, 2022, 54(3): 387-396. (in Chinese)

[9] Wang D D, Liu Q Y, Wu D Z, et al. Meta Domain Generalization for Smart Manufacturing: Tool Wear Prediction with Small Data[J]. Journal of Manufacturing Systems, 2022, 62: 441-449.

[10] Huang H, Luo X, Yang C. Industrial Few-Shot Fractal Object Detection[J]. Neural Computing and Applications, 2023, 35(28): 21055-21069.

[11] 夏鵬程, 黃亦翔, 王譽(yù)翔, 等. 基于數(shù)據(jù)增強(qiáng)的判別元學(xué)習(xí)方法在跨設(shè)備少樣本故障診斷中的應(yīng)用[J]. 中國科學(xué): 技術(shù)科學(xué), 2023, 53(11): 2003-2004.

Xia Pengcheng, Huang Yixiang, Wang Yuxiang, et al. Augmentation-based Discriminative Meta-Learning for Cross-Machine Few-Shot Fault Diagnosis[J]. Scientia Sinica: Technologica, 2023, 53(11): 2003-2004.(in Chinese)

[12] Minot M, Reddy S T. Meta Learning Addresses Noisy and Under-Labeled Data in Machine Learning-Guided Antibody Engineering[J]. Cell Systems, 2024, 15(1): 4-18.

[13] Vinyals O, Blundell C, Lillicrap T, et al. Matching Networks for One Shot Learning[C]∥ Proceedings of the 30th International Conference on Neural Information Processing Systems, 2016: 3637-3645.

[14] Ravi S, Larochelle H. Optimization as a Model for Few-Shot Learning[C]∥International Conference on Learning Representations, 2017.

Research on Solid Motor Performance Prediction Method

Based on Deep Meta-Learning

Cui Yan, Lou Bixuan, Yu Pengcheng, Yang Huixin*

(College of Aerospace Engineering, Shenyang Aerospace University, Shenyang 110136, China)

Abstract: Addressing the numerous limitations in solid motor performance experiments for aircraft power systems, such as high costs, specialized equipment requirements, specific experimental environments, and high risks, this paper proposes an artificial intelligence method based on deep meta-learning for engine performance prediction. This method employs model-agnostic meta-learning (MAML) and deep convolutional neural networks (DCNN) models. Firstly, thrust-time data is divided into different training tasks according to varying experimental conditions. The optimal model parameters for each task are obtained through inner-loop training, and the model initialization parameters are updated in the outer-loop. After iterative optimization of the inner-loop and the outer-loop, a model predicted the total impulse of solid engines with high accuracy is obtained, and finally it is tested for new tasks. The test results demonstrate that compared to DCNN without meta-learning, this method reduces the error on the test set significantly, with a maximum percentage error of 2.27%. This verifies the high-precision prediction ability of the meta-learning model for solid motor perfor-mance under small sample conditions.

Key words: solid motor; motor performance; meta-learning; model-agnostic meta-learning; deep convolutional neural networks

青田县| 天气| 乌什县| 高阳县| 塔城市| 普格县| 锡林浩特市| 时尚| 宁都县| 元谋县| 灯塔市| 平江县| 科技| 辛集市| 山西省| 临海市| 孙吴县| 宣城市| 连平县| 静宁县| 饶阳县| 贡觉县| 驻马店市| 宣城市| 东丽区| 贵港市| 图们市| 周宁县| 中阳县| 岳池县| 新乐市| 婺源县| 金川县| 陵水| 修水县| 北流市| 新竹市| 壶关县| 龙胜| 美姑县| 应城市|