鑒別器
- 基于生成對(duì)抗網(wǎng)絡(luò)與多頭注意力的文本隱寫術(shù)*
former的鑒別器;然后給出了生成器和鑒別器的詳細(xì)設(shè)計(jì);最后介紹訓(xùn)練過(guò)程中獎(jiǎng)懲模塊和多頭注意力的作用。3.1 總體結(jié)構(gòu)本文提出的基于生成對(duì)抗網(wǎng)絡(luò)的TS-GANMA結(jié)構(gòu)主要包括1個(gè)生成器和1個(gè)鑒別器,如圖1所示。由于長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)對(duì)于時(shí)序信號(hào)具有較強(qiáng)的建模能力,本文選擇雙層LSTM作為生成器來(lái)增強(qiáng)整個(gè)網(wǎng)絡(luò)的建模能力。LSTM可以獲取每個(gè)時(shí)間步長(zhǎng)的單詞概率,并將當(dāng)前時(shí)間步長(zhǎng)的輸出作為下一時(shí)間步長(zhǎng)的輸入。訓(xùn)練過(guò)程中,生成器生成大量生成文本,然后利用
計(jì)算機(jī)工程與科學(xué) 2023年10期2023-10-24
- 基于域自適應(yīng)網(wǎng)絡(luò)的跨場(chǎng)景摔倒檢測(cè)算法研究
統(tǒng)中,引入了域鑒別器和域混淆自適應(yīng)層進(jìn)行對(duì)抗性訓(xùn)練。該算法通過(guò)引入依賴于應(yīng)用差異的相對(duì)值的相對(duì)鑒別器來(lái)優(yōu)化對(duì)抗訓(xùn)練,從而更好地反映域間差異;其次,將多核架構(gòu)下改進(jìn)的MMD作為域?qū)箵p失的正則化項(xiàng),在模型的梯度更新中添加約束,進(jìn)一步減小域間的混合分布(邊緣分布和條件分布)距離,從而促進(jìn)整體遷移學(xué)習(xí)的效果。1 系統(tǒng)設(shè)計(jì)該文旨在解決跨場(chǎng)景摔倒檢測(cè)問(wèn)題。在源域中可以獲得大量有噪CSI信號(hào)及其標(biāo)簽(即含有盡可能少的噪聲干擾的CSI信號(hào)),在目標(biāo)域中只有有噪CSI信號(hào)
計(jì)算機(jī)技術(shù)與發(fā)展 2023年10期2023-10-21
- 基于多對(duì)抗性鑒別網(wǎng)絡(luò)的人臉活體檢測(cè)
,設(shè)計(jì)多對(duì)抗性鑒別器網(wǎng)絡(luò),將原有的一個(gè)生成器和一個(gè)鑒別器的網(wǎng)絡(luò)架構(gòu)設(shè)計(jì)為一個(gè)生成器、一個(gè)主鑒別器和一個(gè)輔助性鑒別器的網(wǎng)絡(luò)架構(gòu),重新設(shè)計(jì)了2個(gè)鑒別器。(2)在設(shè)計(jì)的鑒別器中使用人臉的關(guān)鍵點(diǎn)產(chǎn)生五官(眼睛、鼻子、嘴巴)和皮膚上的遮罩,2個(gè)鑒別器各自獨(dú)立處理五官和皮膚的細(xì)節(jié)問(wèn)題,使生成器在學(xué)習(xí)的過(guò)程中除了注意全局特征外,更注重五官和皮膚上的細(xì)節(jié),強(qiáng)化偽造人臉圖像五官和皮膚上的特征,對(duì)本文的人臉活體檢測(cè)起到了關(guān)鍵作用。2 本文工作本文提出一個(gè)基于多對(duì)抗性鑒別網(wǎng)絡(luò)的
計(jì)算機(jī)工程與科學(xué) 2023年9期2023-09-18
- 基于全相位濾波器組頻帶鑒別的生成對(duì)抗網(wǎng)絡(luò)聲碼器設(shè)計(jì)
%的參數(shù). 在鑒別器中做了兩點(diǎn)改進(jìn):一是將 HiFi-GAN 中多尺度鑒別器與多周期鑒別器替換為基于全相位濾波器組的鑒別器,克服了原有模型無(wú)法依據(jù)語(yǔ)音能量非均勻頻帶分布,靈活進(jìn)行特征特征提取的缺點(diǎn);二是提出基于頻帶加權(quán)的多窗長(zhǎng)的短時(shí)傅里葉變換譜損失函數(shù),配合鑒別器更好地穩(wěn)定訓(xùn)練. 實(shí)驗(yàn)結(jié)果表明:APFB-GAN 聲碼器合成的語(yǔ)音質(zhì)量可與 HiFi-GAN 相媲美,且其高頻細(xì)節(jié)特征更為突出,模型參數(shù)只為HiFi-GAN的28.78%,在GPU 上的合成速度是
天津大學(xué)學(xué)報(bào)(自然科學(xué)與工程技術(shù)版) 2023年8期2023-06-21
- 基于深度學(xué)習(xí)的實(shí)時(shí)點(diǎn)云修補(bǔ)算法
主要由生成器和鑒別器構(gòu)成,生成器將一個(gè)噪聲包裝成一個(gè)逼真的樣本,鑒別器判斷送入的樣本是否為真實(shí)樣本,在這個(gè)不斷迭代的過(guò)程中,鑒別器對(duì)樣本的判別能力不斷上升,生成器的生成能力也不斷上升,最終兩者的能力達(dá)到平衡。生成器的期望是將所生成的數(shù)據(jù)送入鑒別器后,鑒別器能將其判別為真實(shí)數(shù)據(jù),鑒別器的期望是能將所有的生成數(shù)據(jù)和原始數(shù)據(jù)區(qū)分開,二者在博弈的過(guò)程中共同提升性能。GAN的訓(xùn)練模式一般會(huì)先固定生成器,迭代多次訓(xùn)練鑒別器,然后固定鑒別器訓(xùn)練生成器,兩者依次交替,使用
軟件工程 2023年6期2023-06-10
- 基于多鑒別器生成對(duì)抗網(wǎng)絡(luò)的時(shí)間序列生成模型
開。本文采取多鑒別器對(duì)時(shí)間序列的多種特征進(jìn)行鑒別,提出了多鑒別器生成對(duì)抗網(wǎng)絡(luò)(MDGAN,multi-discriminator generative adversarial network)模型。本文主要研究工作如下。1) 本文提出了一種新型的MDGAN 模型,包含時(shí)域鑒別器、頻域鑒別器、時(shí)頻域鑒別器和自相關(guān)鑒別器,能夠?qū)ι蓴?shù)據(jù)進(jìn)行多角度評(píng)估,進(jìn)而提高生成器的合成數(shù)據(jù)質(zhì)量,使合成數(shù)據(jù)更加符合真實(shí)時(shí)間序列的分布和特征。2) 在對(duì)所提模型進(jìn)行訓(xùn)練時(shí),本文引
通信學(xué)報(bào) 2022年10期2023-01-09
- 基于生成對(duì)抗網(wǎng)的中國(guó)山水畫雙向解碼特征融合外推算法
絡(luò)采用生成器和鑒別器的組合,生成器用于生成虛擬的外推圖像,訓(xùn)練過(guò)程中鑒別器用于鑒別生成的外推圖像和原圖像是否一致以幫助生成器生成符合原有圖像分布的外推圖像.該方法能夠粗略地外推簡(jiǎn)單自然場(chǎng)景圖像,這表明將對(duì)抗學(xué)習(xí)方法應(yīng)用于圖像外推是可行的;2019年,Guo等人[8]提出了一種基于結(jié)構(gòu)感知和視覺(jué)注意力機(jī)制[9]的圖像外推策略,該外推方法包括粗推和精推2個(gè)過(guò)程,分別進(jìn)行結(jié)構(gòu)感知性粗略外推和視覺(jué)注意性精細(xì)外推,該網(wǎng)絡(luò)可以預(yù)測(cè)輸入圖像外推部分的全局結(jié)構(gòu),但難以生成
計(jì)算機(jī)研究與發(fā)展 2022年12期2022-12-15
- 基于改進(jìn)循環(huán)生成對(duì)抗神經(jīng)網(wǎng)絡(luò)的語(yǔ)音增強(qiáng)
,它的生成器和鑒別器一般均由DNN構(gòu)成。GAN在語(yǔ)音增強(qiáng)領(lǐng)域最大的優(yōu)勢(shì)是能夠?qū)W習(xí)任何分布下的數(shù)據(jù),并能生產(chǎn)相似分布的數(shù)據(jù)[9],通過(guò)對(duì)純凈語(yǔ)音樣本的學(xué)習(xí),使含噪語(yǔ)音轉(zhuǎn)換為類似于純凈語(yǔ)音的增強(qiáng)語(yǔ)音,以達(dá)到語(yǔ)音增強(qiáng)的目的。但GAN需要大量成對(duì)的數(shù)據(jù)集進(jìn)行訓(xùn)練,訓(xùn)練的難度增大,不利于實(shí)際的應(yīng)用。Zhu等[10]提出的循環(huán)一致性生成對(duì)抗網(wǎng)絡(luò)(cycle-consistent generative adversarial network, CycleGAN)模型,適
- 基于生成對(duì)抗網(wǎng)絡(luò)的自爆絕緣子檢測(cè)模型設(shè)計(jì)
習(xí)網(wǎng)絡(luò),其包含鑒別器和生成器兩部分,其整體結(jié)構(gòu)如圖1。鑒別器為二元分類器,訓(xùn)練目標(biāo)是判斷輸入數(shù)據(jù)是訓(xùn)練數(shù)據(jù)還是生成數(shù)據(jù)。生成器通常為反卷積網(wǎng)絡(luò),模擬訓(xùn)練數(shù)據(jù)的分布,訓(xùn)練目標(biāo)是生成數(shù)據(jù)能夠“欺騙”鑒別器,即使鑒別器無(wú)法分清生成圖片和輸入圖片[12]。所以在訓(xùn)練過(guò)程中,生成對(duì)抗網(wǎng)絡(luò)的兩部分訓(xùn)練目標(biāo)相反,即為對(duì)抗訓(xùn)練,其訓(xùn)練目標(biāo)可以被表示為:圖1 生成對(duì)抗網(wǎng)絡(luò)模型示意圖Fig. 1 Schematic diagram of generative adversar
現(xiàn)代電力 2022年5期2022-10-17
- 基于對(duì)抗自編碼模型的高速泵異常檢測(cè)
部分:生成器和鑒別器,本質(zhì)上為兩個(gè)多層感知機(jī)網(wǎng)絡(luò)。生成器可以生成偽造的圖像,通過(guò)訓(xùn)練鑒別器將生成器生成的虛假圖像與數(shù)據(jù)集區(qū)分開。最初因?yàn)闄?quán)重是隨機(jī)的,生成器會(huì)產(chǎn)生一些隨機(jī)噪聲,通過(guò)訓(xùn)練可使鑒別器能分辨出這種隨機(jī)噪聲和真實(shí)圖像,鑒別器能力提高后,通過(guò)權(quán)值反向傳遞促使生成器生成虛假圖像的能力提高,使它生成更好的偽圖像,生成器產(chǎn)生圖像效果的提高又繼續(xù)反作用于判別器,繼續(xù)執(zhí)行此過(guò)程,直到生成器能夠很好地生成偽圖像為止,從而使鑒別器不再能夠分辨?zhèn)螆D像中的真實(shí)圖像。最
機(jī)床與液壓 2022年7期2022-09-17
- 基于雙鑒別器生成對(duì)抗網(wǎng)絡(luò)的單目深度估計(jì)方法
像,在訓(xùn)練時(shí),鑒別器網(wǎng)絡(luò)學(xué)習(xí)區(qū)分由生成器生成的假圖像和用立體裝置獲取的目標(biāo)幀,成功用GAN范式解決了單目深度估計(jì)問(wèn)題. Almalioglu等[11]提出了一個(gè)生成性無(wú)監(jiān)督學(xué)習(xí)框架,該框架利用深度卷積GAN從未標(biāo)記的RGB圖像序列中預(yù)測(cè)六自由度相機(jī)位姿和場(chǎng)景的單目深度圖,在位姿估計(jì)和深度恢復(fù)方面都有更好的效果. 此外,基于GAN的單目深度估計(jì)方法還探索了條件隨機(jī)場(chǎng)[21]及GAN的變體Vanilla GAN、WGAN[25]、Conditional GAN
北京工業(yè)大學(xué)學(xué)報(bào) 2022年9期2022-09-15
- 基于雙專用注意力機(jī)制引導(dǎo)的循環(huán)生成對(duì)抗網(wǎng)絡(luò)
小,但是,由于鑒別器沒(méi)有注意力機(jī)制引導(dǎo),從而引入背景元素的干擾,影響了生成圖像的質(zhì)量。U-GAT-IT[17]提出了基于類激活CAM[18]注意力機(jī)制引導(dǎo)的生成器和鑒別器,雖然提升了成像質(zhì)量,但整體網(wǎng)絡(luò)的判別器需要從2 個(gè)增加至4 個(gè),不僅大幅增加了模型的復(fù)雜度,并且其提出的基于CAM 注意力機(jī)制引導(dǎo)的生成器不夠優(yōu)越,仍然會(huì)對(duì)整體圖像進(jìn)行修改,圖像轉(zhuǎn)換效率不高,圖像生成質(zhì)量仍然有提升的空間。2 基本原理為解決上述存在的問(wèn)題,本文提出了一種新的用于無(wú)匹配圖像
液晶與顯示 2022年6期2022-09-01
- 多階段生成器與時(shí)頻鑒別器的GAN語(yǔ)音增強(qiáng)算法①
息. 同時(shí)使用鑒別器區(qū)分干凈語(yǔ)音信號(hào)與增強(qiáng)語(yǔ)音信號(hào),將鑒別結(jié)果反饋給生成器,指導(dǎo)生成器學(xué)習(xí)類似于真實(shí)干凈語(yǔ)音的信號(hào)分布. 盡管已有實(shí)驗(yàn)證明GAN 在語(yǔ)音增強(qiáng)任務(wù)上的應(yīng)用是成功的,但增強(qiáng)語(yǔ)音失真與缺乏對(duì)各種語(yǔ)音特征的考慮[12]等問(wèn)題依然存在. 在圖像處理任務(wù)中,許多人通過(guò)修改損失函數(shù)[17]或改進(jìn)生成器和鑒別器結(jié)構(gòu)[18,19],以改善GAN 的效果. 但在語(yǔ)音增強(qiáng)任務(wù)中該問(wèn)題還未得到廣泛研究,SEGAN 仍存在語(yǔ)音失真與低信噪比條件下表現(xiàn)不佳的問(wèn)題.為了
計(jì)算機(jī)系統(tǒng)應(yīng)用 2022年7期2022-08-04
- 基于FVOIRGAN-Detection 的車輛檢測(cè)
想[18],用鑒別器鑒別圖像相對(duì)真實(shí)概率取代絕對(duì)真實(shí)概率,使得可見光中有利于目標(biāo)檢測(cè)的紋理信息可以更好、更真實(shí)地保留[19]。2 FVOIRGAN-Detection2.1 CrossGAN-DetectionCrossGAN-Detection 運(yùn)用生成對(duì)抗網(wǎng)絡(luò)[20]處理多源信息融合檢測(cè)的問(wèn)題,該方法由GAN和目標(biāo)檢測(cè)網(wǎng)絡(luò)組成。目標(biāo)檢測(cè)網(wǎng)絡(luò)在訓(xùn)練過(guò)程中充當(dāng)GAN 的第二個(gè)鑒別器。該方法利用內(nèi)容損失函數(shù)和雙鑒別器為發(fā)生器提供直接可控的引導(dǎo),通過(guò)交叉融合自
光學(xué)精密工程 2022年12期2022-07-04
- 基于DDR-CycleGAN的紅外圖像數(shù)據(jù)增強(qiáng)
據(jù)增強(qiáng)網(wǎng)絡(luò):雙鑒別器相對(duì)循環(huán)一致性對(duì)抗網(wǎng)絡(luò),這種增強(qiáng)只需要少量不成對(duì)的數(shù)據(jù)就可以訓(xùn)練出從可見光圖像到紅外圖像更高質(zhì)量的映射,實(shí)現(xiàn)紅外圖像數(shù)據(jù)增強(qiáng)。本文方法主要有兩個(gè)創(chuàng)新點(diǎn):第一,對(duì)于雙鑒別器循環(huán)一致性生成對(duì)抗網(wǎng)絡(luò)的生成器在不斷優(yōu)化過(guò)程中會(huì)脫離鑒別器水平而產(chǎn)生過(guò)度優(yōu)化的問(wèn)題,加入了相對(duì)概率的思想,用鑒別器鑒別圖像相對(duì)真實(shí)概率取代絕對(duì)真實(shí)概率,解決生成器在不斷優(yōu)化過(guò)程中會(huì)脫離鑒別器水平而產(chǎn)生過(guò)度優(yōu)化的問(wèn)題。第二,對(duì)于DDR-CycleGAN提出了Four-st
激光與紅外 2022年4期2022-06-09
- 強(qiáng)噪聲下的矢量跟蹤信號(hào)故障檢測(cè)算法
中大多直接采用鑒別器輸出的碼相位或載波相位等信息來(lái)構(gòu)造故障檢測(cè)統(tǒng)計(jì)量。然而現(xiàn)有的常規(guī)鑒別器只能在跟蹤誤差接近于零的小范圍內(nèi)保持線性偏差輸出能力[8]。當(dāng)受到異常信號(hào)干擾影響時(shí),跟蹤通道持續(xù)存在較大的跟蹤偏差,此時(shí)鑒別器會(huì)產(chǎn)生不同程度的輸出失真[9]。這無(wú)疑會(huì)對(duì)接收機(jī)的跟蹤性能產(chǎn)生不利影響。由于鑒別器的失真,信號(hào)故障造成的較大幅值碼相位偏差輸出為較小的偏差值,使得故障檢測(cè)算法難以檢出其異常。除此之外,量測(cè)噪聲的增大會(huì)使得偏差小的故障混入噪聲之中難以檢測(cè),而偏
西北工業(yè)大學(xué)學(xué)報(bào) 2022年2期2022-05-11
- 基于自注意力機(jī)制和譜歸一化的GAN表情合成
實(shí)感;另外,在鑒別器中添加譜歸一化來(lái)約束權(quán)重的Lipschitz常數(shù),以穩(wěn)定鑒別器的訓(xùn)練。本文模型與pix2pix和StarGAN的實(shí)驗(yàn)結(jié)果相比更具真實(shí)感,紋理細(xì)節(jié)更加豐富,圖像質(zhì)量得到了進(jìn)一步提升。1 相關(guān)工作GAN是一種基于博弈論的深度學(xué)習(xí)框架。該框架基于隨機(jī)噪聲的輸入,讓生成模型和鑒別模型交替進(jìn)行對(duì)抗學(xué)習(xí):生成模型盡可能欺騙鑒別模型,生成接近于真實(shí)數(shù)據(jù)分布的圖像;鑒別模型相當(dāng)于分類器,對(duì)生成的假樣本和真樣本進(jìn)行區(qū)分和判斷,當(dāng)訓(xùn)練達(dá)到最優(yōu)時(shí),鑒別模型將
智能計(jì)算機(jī)與應(yīng)用 2022年4期2022-04-28
- 用于全色銳化的相對(duì)平均生成對(duì)抗網(wǎng)絡(luò)
是通過(guò)生成器與鑒別器之間的對(duì)抗博弈使生成器生成足以以假亂真的假樣本,網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。圖1 生成對(duì)抗網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Architecture of GAN為解決GAN生成圖像質(zhì)量不高以及訓(xùn)練過(guò)程不穩(wěn)定的問(wèn)題,一些GAN的變體被相繼提出[20-23]。相對(duì)平均鑒別器的使用有助于生成器恢復(fù)更真實(shí)的圖像紋理細(xì)節(jié),相對(duì)平均鑒別器的函數(shù)表達(dá)式為DRa(xr,xf)=σ(S(xr)-Exf[S(xf)])→1(1)DRa(xf,xr)=σ(S(xf)-Exr[S
西安交通大學(xué)學(xué)報(bào) 2022年3期2022-03-15
- 基于生成對(duì)抗網(wǎng)絡(luò)的塔里木深層超深層疊前地震子波提取
先利用GAN的鑒別器判斷滾動(dòng)軸承參數(shù)序列的準(zhǔn)確性,然后生成器擬合無(wú)故障情況下的軸承參數(shù)序列,驗(yàn)證了生成對(duì)抗網(wǎng)絡(luò)處理一維序列的有效性.這些GAN算法的應(yīng)用為本文實(shí)現(xiàn)疊前地震子波的提取提供了可能.本文通過(guò)采用生成對(duì)抗網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)疊前地震子波的提取.針對(duì)塔里木地區(qū)的深層低信噪比疊前地震資料,通過(guò)去噪等方式實(shí)現(xiàn)數(shù)據(jù)預(yù)處理,利用傳統(tǒng)地震子波提取方法提取部分地震資料中的疊前地震子波,再與合成疊前地震記錄共同組成訓(xùn)練集;采用生成對(duì)抗網(wǎng)絡(luò)訓(xùn)練數(shù)據(jù)集,最后利用地震子波與地震記
地球物理學(xué)報(bào) 2022年2期2022-02-23
- 基于對(duì)抗學(xué)習(xí)的蒙漢神經(jīng)機(jī)器翻譯①
分開的語(yǔ)句,而鑒別器努力將機(jī)器生成的句子與人類翻譯的句子區(qū)分開.背后的動(dòng)機(jī)是:雖然無(wú)法全面的手動(dòng)定義標(biāo)準(zhǔn)句子的數(shù)據(jù)分布,但能夠利用判別網(wǎng)絡(luò)自動(dòng)學(xué)習(xí)標(biāo)準(zhǔn)句子,因此,建立了條件序列生成對(duì)抗網(wǎng)絡(luò)來(lái)聯(lián)合訓(xùn)練兩個(gè)子對(duì)抗模型.同樣驗(yàn)證了使用對(duì)抗學(xué)習(xí)進(jìn)行機(jī)器翻譯模型訓(xùn)練的方法可以有效的提高譯文的自然性、充分性和準(zhǔn)確性.因此,將對(duì)抗學(xué)習(xí)策略應(yīng)用在平行語(yǔ)料資源較為匱乏的蒙漢機(jī)器翻譯中以提升其翻譯質(zhì)量具有非常重要的研究?jī)r(jià)值.本文從如何提高蒙漢機(jī)器翻譯模型質(zhì)量的角度出發(fā),將生成
計(jì)算機(jī)系統(tǒng)應(yīng)用 2022年1期2022-02-15
- 基于Pix2Pix 的人臉?biāo)孛鑸D像生成方法研究
hGAN 作為鑒別器,如此一來(lái)則可以生成質(zhì)量較高的圖像,并且因?yàn)槠浣Y(jié)構(gòu)簡(jiǎn)單,易于訓(xùn)練等特點(diǎn),目前在圖像生成領(lǐng)域比較流行。由于人臉圖像細(xì)節(jié)較為豐富,而采用Pix2Pix模型很難捕捉到這些細(xì)節(jié)中所包含的信息,導(dǎo)致生成的人臉畫像在五官、臉部輪廓等細(xì)節(jié)豐富部位會(huì)出現(xiàn)模糊、信息缺失等問(wèn)題。文中針對(duì)該問(wèn)題,提出一種改進(jìn)Pix2Pix 模型。在Pix2Pix 基礎(chǔ)上,研究的主要?jiǎng)?chuàng)新點(diǎn)包括:(1)在原Pix2Pix 模型的生成器和鑒別器中引入自注意力模塊(Self-Att
智能計(jì)算機(jī)與應(yīng)用 2022年12期2022-02-07
- 基于循環(huán)條件生成對(duì)抗網(wǎng)絡(luò)的數(shù)據(jù)生成方法*
絡(luò)中的生成器和鑒別器,以最大平均差異和最大似然估計(jì)作為指標(biāo),構(gòu)建數(shù)據(jù)生成評(píng)估模型,提出一種可生成實(shí)值數(shù)據(jù)序列的循環(huán)條件生成對(duì)抗網(wǎng)絡(luò)(RCGAN)。該方法完全依靠數(shù)據(jù)驅(qū)動(dòng),無(wú)需經(jīng)過(guò)精心設(shè)計(jì)的建模過(guò)程,生成數(shù)據(jù)與真實(shí)數(shù)據(jù)一致,魯棒性強(qiáng),受噪聲的干擾較小,具有很好的泛化性。1 生成對(duì)抗網(wǎng)絡(luò)框架生成對(duì)抗網(wǎng)絡(luò)(GAN)是最先進(jìn)的AI 框架[12],作為一種數(shù)據(jù)生成框架已顯示出卓越的應(yīng)用優(yōu)勢(shì),其核心思想是在生成器和鑒別器之間建立博弈關(guān)系。生成對(duì)抗網(wǎng)絡(luò)的一般結(jié)構(gòu)如圖1
火力與指揮控制 2021年11期2022-01-26
- 基于生成對(duì)抗網(wǎng)絡(luò)的異質(zhì)信息網(wǎng)絡(luò)表征學(xué)習(xí)
在的分布。2)鑒別器模型采用負(fù)采樣或隨機(jī)游走等方法獲取異質(zhì)信息網(wǎng)絡(luò)中的負(fù)樣本,選擇信息網(wǎng)絡(luò)中真實(shí)存在的節(jié)點(diǎn)對(duì)及對(duì)應(yīng)關(guān)系作為正樣本,再將負(fù)樣本和正樣本作為模型的輸入訓(xùn)練模型。生成對(duì)抗網(wǎng)絡(luò)[5]則將生成器模型和鑒別器模型有效地結(jié)合起來(lái),被譽(yù)為機(jī)器學(xué)習(xí)有史以來(lái)最好的無(wú)監(jiān)督學(xué)習(xí)技術(shù)。生成對(duì)抗網(wǎng)絡(luò)實(shí)際上就是一個(gè)最大最小值博弈問(wèn)題,博弈優(yōu)化終止于一個(gè)最低點(diǎn)。這個(gè)最低點(diǎn)視實(shí)際情況的不同有可能為全局最小值點(diǎn)、局部最小值點(diǎn)或是鞍點(diǎn)。該最低點(diǎn)的散度對(duì)于生成器G來(lái)說(shuō)是最小的,對(duì)
應(yīng)用科學(xué)學(xué)報(bào) 2021年4期2022-01-19
- 基于仲裁機(jī)制的生成對(duì)抗網(wǎng)絡(luò)改進(jìn)算法
過(guò)程中生成器與鑒別器都是按照固定的順序進(jìn)行訓(xùn)練,模型訓(xùn)練不靈活,導(dǎo)致模型從數(shù)據(jù)集中學(xué)習(xí)的特征沒(méi)有得到更有效的運(yùn)用;同時(shí),其所使用的損失函數(shù)在優(yōu)化過(guò)程中缺乏靈活性,致使模型的收斂狀態(tài)不明確。因此針對(duì)這兩個(gè)問(wèn)題,本文提出了基于仲裁機(jī)制的生成對(duì)抗網(wǎng)絡(luò)改進(jìn)算法,該算法主要基于DCGAN,引入所提出的仲裁機(jī)制:度量分?jǐn)?shù)計(jì)算,訓(xùn)練規(guī)劃。引入仲裁機(jī)制的DCGAN 在每一輪對(duì)抗訓(xùn)練結(jié)束時(shí)會(huì)將經(jīng)過(guò)訓(xùn)練的生成器輸出的合成圖像與真實(shí)樣本導(dǎo)入仲裁器,通過(guò)仲裁器計(jì)算度量分?jǐn)?shù),并根據(jù)
計(jì)算機(jī)應(yīng)用 2021年11期2021-12-07
- 基于GAN網(wǎng)絡(luò)的紅外圖像生成技術(shù)*
成對(duì)抗網(wǎng)絡(luò),對(duì)鑒別器采用配對(duì)輸入的方式,學(xué)習(xí)點(diǎn)對(duì)點(diǎn)紅外映射進(jìn)行風(fēng)格遷移訓(xùn)練,將彩色圖片轉(zhuǎn)換為紅外圖片擴(kuò)充了紅外數(shù)據(jù)。使用L1損失函數(shù)增加了生成圖片的清晰度,并在網(wǎng)絡(luò)模型中加入了跳躍連接方式,增加了底層信息的輸入,增強(qiáng)了網(wǎng)絡(luò)的生成能力。此外,本文還制作了一個(gè)街道數(shù)據(jù)集。應(yīng)用配對(duì)的紅外圖和彩色圖進(jìn)行訓(xùn)練,可以有效地學(xué)習(xí)兩個(gè)不同域之間的轉(zhuǎn)換關(guān)系,由此生成的紅外圖片更加逼真可靠。1 基于GAN網(wǎng)絡(luò)的圖像生成算法1.1 GAN的基本原理GAN是一種生成模型,可以通過(guò)
飛控與探測(cè) 2021年4期2021-11-24
- 基于通道分組注意力的無(wú)監(jiān)督圖像風(fēng)格轉(zhuǎn)換模型
意力殘差塊。在鑒別器部分,利用多分辨率尺度的全局鑒別器對(duì)輸出圖像進(jìn)行不同分辨率尺度上的鑒別,利用局部鑒別器[9]對(duì)輸出圖像局部進(jìn)行鑒別。1 無(wú)監(jiān)督圖像風(fēng)格轉(zhuǎn)換模型1.1 模型結(jié)構(gòu)本文所提的無(wú)監(jiān)督圖像風(fēng)格轉(zhuǎn)換模型的主要?jiǎng)?chuàng)新點(diǎn)如下:1)采用通道分組注意力殘差塊構(gòu)建生成器。CDA殘差塊主要包含通道分組和通道注意力機(jī)制(ef ficient channel attention,ECA)[10-11]兩個(gè)模塊。通道分組模塊能夠?qū)崿F(xiàn)殘差塊內(nèi)的跳躍連接,減少特征丟失;E
包裝學(xué)報(bào) 2021年5期2021-11-13
- 基于零序基波時(shí)序鑒別原理的高壓選擇性漏電保護(hù)在煤礦供電系統(tǒng)中的應(yīng)用
零序基波“時(shí)序鑒別器”的工作原理——“時(shí)序鑒別法”。U0J是由零序交流電壓u0變換來(lái)的180度規(guī)則方波,作為時(shí)序鑒別的基準(zhǔn)信號(hào)。I0是由零序交流電流i0變換來(lái)的脈寬和相位不確定的方波,I0的脈寬一般為180度,但若零序電流幅值過(guò)小,則I0的脈寬將遠(yuǎn)小于180度甚至為零。I0相對(duì)于U0J的相位隨電網(wǎng)是無(wú)補(bǔ)償、欠補(bǔ)償還是過(guò)補(bǔ)償而從左向右變動(dòng)。如圖1所示,當(dāng)單相接地故障發(fā)生后,若某條線路的零序電流對(duì)應(yīng)的I0方波與U0J方波的時(shí)序關(guān)系同時(shí)滿足以下兩個(gè)條件的,則該線
科技研究·理論版 2021年4期2021-09-10
- 基于CycleGAN的人臉?biāo)孛鑸D像生成
rator)和鑒別器D(discriminator)共同構(gòu)成的深度學(xué)習(xí)模型,生成器G負(fù)責(zé)學(xué)習(xí)訓(xùn)練圖像集的概率分布規(guī)律并生成具有相似概率分布規(guī)律的圖像;鑒別器D負(fù)責(zé)判別輸入圖像是生成的圖像還是訓(xùn)練圖像。通過(guò)讓生成器G和鑒別器D進(jìn)行對(duì)抗訓(xùn)練,使生成器G生成的圖像具有與訓(xùn)練圖像相似的風(fēng)格,鑒別器D判別生成的圖像和訓(xùn)練圖像的能力也得到不斷提高,最終使得生成器G和鑒別器D達(dá)到一種穩(wěn)定平衡狀態(tài),又稱納什均衡。GAN的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。圖1 GAN網(wǎng)絡(luò)結(jié)構(gòu)隨機(jī)噪聲z是
計(jì)算機(jī)技術(shù)與發(fā)展 2021年8期2021-08-27
- 多分類深度卷積生成對(duì)抗網(wǎng)絡(luò)的皮帶撕裂檢測(cè)
弈的思想,通過(guò)鑒別器與生成器之間競(jìng)爭(zhēng)來(lái)提取圖像數(shù)據(jù)特征,前者試圖鑒別生成器生成的圖像數(shù)據(jù)來(lái)最小化誤差,而后者試圖最大化該誤差,最終二者達(dá)到納什平衡,根據(jù)特征差異來(lái)進(jìn)行前背景分割。由于該模型能從訓(xùn)練樣本中自動(dòng)學(xué)習(xí)得到其數(shù)據(jù)分布,繼而生成新的樣本數(shù)據(jù),故只需少量的標(biāo)注數(shù)據(jù)。然而訓(xùn)練時(shí)該網(wǎng)絡(luò)采用梯度下降法,生成器可能沿某個(gè)特征一直訓(xùn)練,導(dǎo)致無(wú)法收斂,出現(xiàn)模式崩潰。因此,2016年,Radford等人[15]提出了深度卷積生成對(duì)抗網(wǎng)絡(luò)(Deep Convoluti
計(jì)算機(jī)工程與應(yīng)用 2021年16期2021-08-19
- 基于DCGANs的二維頁(yè)巖圖像重構(gòu)方法
可區(qū)分的函數(shù):鑒別器D和生成器G。生成器G將隨機(jī)變量從隨機(jī)噪聲z映射到圖像空間得到生成圖像G(z)。z通常由正態(tài)分布pz的獨(dú)立實(shí)數(shù)隨機(jī)組成,代表生成器的隨機(jī)輸入。鑒別器D的作用是計(jì)算隨機(jī)樣本來(lái)自“真實(shí)”數(shù)據(jù)的概率分布pdata。鑒別器嘗試正確標(biāo)記每個(gè)樣本,而生成器嘗試“欺騙”鑒別器,標(biāo)記生成圖像G(z)作為真實(shí)數(shù)據(jù)分布的一部分,即實(shí)現(xiàn)D(G(z))接近1。GANs結(jié)構(gòu)如圖1所示[7-8]。圖1 GANs結(jié)構(gòu)根據(jù)鑒別器輸出結(jié)果,得到GANs的損失。通常情況下
上海電力大學(xué)學(xué)報(bào) 2021年4期2021-07-16
- 基于帶梯度懲罰深度卷積生成對(duì)抗網(wǎng)絡(luò)的頁(yè)巖三維數(shù)字巖心重構(gòu)方法
GAN 中包含鑒別器和生成器,其特點(diǎn)在于通過(guò)內(nèi)部鑒別器與生成器的對(duì)抗,隱式總結(jié)出數(shù)據(jù)集的數(shù)據(jù)特征,最終通過(guò)生成器將總結(jié)出的數(shù)據(jù)特征以目標(biāo)數(shù)據(jù)形式反饋給用戶。鑒別器期望準(zhǔn)確地區(qū)分生成圖像和訓(xùn)練圖像,而生成器的目標(biāo)在于生成可以欺騙鑒別器的高質(zhì)量圖像。完成指定的訓(xùn)練次數(shù)后,GAN 可以提取出訓(xùn)練圖像的整體特征,并利用生成器生成以假亂真的圖像以達(dá)到圖像重構(gòu)的目的。GAN 的缺點(diǎn)在于訓(xùn)練的穩(wěn)定性差,很容易發(fā)生梯度消失和梯度爆炸。深度卷積生成對(duì)抗神經(jīng)網(wǎng)絡(luò)(Deep C
計(jì)算機(jī)應(yīng)用 2021年6期2021-07-02
- 融合邊緣檢測(cè)和自注意力的圖像修復(fù)方法①
11]提出了雙鑒別器的生成對(duì)抗模型,該模型通過(guò)增設(shè)局部鑒別器跟蹤受損區(qū)域保證了圖像的一致性;Liu 等[12]提出的連貫性語(yǔ)義注意力方法,通過(guò)搜索已知區(qū)域中最相似的特征patch 填滿缺失區(qū)域,增加patch 判別器進(jìn)行一致性優(yōu)化,保證了全局一致性;為了得到符合語(yǔ)義的圖像,Yu 等[13]提出了基于上下文注意力的兩階段模型,加入上下文注意力模塊,實(shí)現(xiàn)提取局部區(qū)域的有效特征,但是它不能處理任意形狀的受損區(qū)域.還有一些利用其它技術(shù)的研究,如Nazeri 等[1
計(jì)算機(jī)系統(tǒng)應(yīng)用 2021年5期2021-05-21
- 基于支持向量域描述的雷達(dá)地面目標(biāo)鑒別技術(shù)
從提升地面目標(biāo)鑒別器總體性能與目標(biāo)識(shí)別系統(tǒng)工程可實(shí)現(xiàn)兩個(gè)方面進(jìn)行考慮,提出一種基于非均勻特征向量分布的目標(biāo)鑒別器。本方法在訓(xùn)練階段,對(duì)訓(xùn)練樣本特征空間中的特征向量利用協(xié)方差矩陣描述特征向量之間的分布特性,以此為準(zhǔn)則選擇構(gòu)成特征空間超球邊界的特征向量,從而實(shí)現(xiàn)對(duì)訓(xùn)練樣本特征空間的描述。利用實(shí)測(cè)數(shù)據(jù)與仿真數(shù)據(jù)結(jié)合的方式,對(duì)本文所提出的方法進(jìn)行測(cè)試,本文所提出方法可有效應(yīng)用于雷達(dá)地面目標(biāo)識(shí)別的工程化實(shí)現(xiàn)中。1 支持向量域描述(SVDD)SVDD是一種典型的OCC
火控雷達(dá)技術(shù) 2021年1期2021-04-20
- 光流估計(jì)補(bǔ)償結(jié)合生成對(duì)抗網(wǎng)絡(luò)提高視頻超分辨率感知質(zhì)量
AN基于多特征鑒別器在像素、邊緣和紋理3個(gè)方面的對(duì)抗訓(xùn)練促使生成器生成的SR幀與HR幀分別在像素、邊緣和紋理3個(gè)方面的數(shù)據(jù)分布趨于一致,提高SR幀的感知質(zhì)量。1 相關(guān)工作1.1 單幅圖像超分辨率單幅圖像超分辨率是從單幅LR圖像中恢復(fù)出具有高頻信息的SR圖像。Dong等人將CNN應(yīng)用于SISR,設(shè)計(jì)了一個(gè)包含3個(gè)卷積層的輕量級(jí)網(wǎng)絡(luò)SRCNN[13],其性能和速度均優(yōu)于傳統(tǒng)方法。Kim等人使用全局殘差策略設(shè)計(jì)了一個(gè)20層的殘差網(wǎng)絡(luò)VDSR[14],該網(wǎng)絡(luò)通過(guò)學(xué)
- 基于FIDO技術(shù)的物聯(lián)網(wǎng)身份認(rèn)證解決方案
F協(xié)議引入了“鑒別器(authenticator)”概念,該組件由匹配器(matcher)和密鑰管理器組成,運(yùn)行于用戶終端設(shè)備中,執(zhí)行FIDO核心關(guān)鍵功能.匹配器使用生物特征識(shí)別技術(shù)(例如指紋識(shí)別、人臉識(shí)別、虹膜識(shí)別等)或者其他身份識(shí)別技術(shù)(例如PIN碼、九宮格圖形碼等)對(duì)用戶進(jìn)行身份識(shí)別;密鑰管理器則為用戶創(chuàng)建并管理公私鑰對(duì),并進(jìn)行各種密碼學(xué)運(yùn)算(例如簽名、雜湊、加解密等).密鑰管理器作為鑒別器的密碼學(xué)內(nèi)核(cryptographic kernel),只
信息安全研究 2021年4期2021-04-06
- 基于情感復(fù)寫的中文文本情感遷移方法
訓(xùn)練來(lái)生成器和鑒別器,并通過(guò)Transformer模型的注意力機(jī)制來(lái)自動(dòng)捕獲句子中的情感特征。2 模型在本文中,我們基于CycleGAN網(wǎng)絡(luò)結(jié)構(gòu)來(lái)訓(xùn)練生成器G,通過(guò)兩個(gè)鑒別器D1和D2來(lái)判斷兩種不同情感的文本,模型訓(xùn)練過(guò)程如圖1所示。圖1 模型訓(xùn)練過(guò)程2.1 CycleGANCycleGAN[6]中構(gòu)建了兩個(gè)對(duì)稱的GAN,能夠?qū)崿F(xiàn)兩個(gè)遷移方向的任務(wù),解決了在缺少平行數(shù)據(jù)集的情況下,模型無(wú)法學(xué)習(xí)到從X(Y)屬性數(shù)據(jù)到目標(biāo)Y(X)屬性數(shù)據(jù)的問(wèn)題。CycleGA
現(xiàn)代計(jì)算機(jī) 2021年35期2021-02-27
- 基于生成式對(duì)抗網(wǎng)絡(luò)的開放式信息抽取
列生成器,一個(gè)鑒別器。 其中,序列生成器負(fù)責(zé)生成開放式信息抽取的結(jié)果,鑒別器用于鑒定生成器的結(jié)果是否來(lái)自訓(xùn)練數(shù)據(jù)。 文中也對(duì)一個(gè)大型的Open IE 基準(zhǔn)數(shù)據(jù)集進(jìn)行了研究,實(shí)驗(yàn)結(jié)果表明,該算法的性能優(yōu)于幾種常用的基準(zhǔn)。 同時(shí),也證實(shí)了本文提出的模型要比單一的編碼器-解碼器模型好得多。 此外,性能上的明顯改進(jìn)也證實(shí)了GAN 模型在解決開放信息抽取任務(wù)中的曝光偏差問(wèn)題上的有效性。1 模型架構(gòu)生成式對(duì)抗網(wǎng)絡(luò)已經(jīng)成功應(yīng)用于計(jì)算機(jī)視覺(jué)等領(lǐng)域以及一些其他重要的領(lǐng)域[2
智能計(jì)算機(jī)與應(yīng)用 2021年10期2021-02-25
- 融合感知損失的深度學(xué)習(xí)在常規(guī)MR圖像轉(zhuǎn)換的研究
是生成器,D是鑒別器。G旨在學(xué)習(xí)從隨機(jī)向量噪聲z到目標(biāo)域中圖像y的映射,而D學(xué)習(xí)區(qū)分生成的圖像G(z)和真實(shí)圖像y。不同于GAN 網(wǎng)絡(luò),CycleGAN 同時(shí)學(xué)習(xí)兩個(gè)映射。定義兩個(gè)圖像域X和Y,如圖1a 所示,CycleGAN 學(xué)習(xí)從給定圖像x(x∈X)到輸出圖像y(y∈Y)的映射G:x→y以及從給定圖像y到輸出圖像x的映射F:y→x。在CycleGAN 中還包含了兩個(gè)鑒別器DX和DY,生成器G和F盡可能生成真實(shí)的圖像以欺騙鑒別器,而作為一個(gè)二分類模型的鑒
中國(guó)醫(yī)學(xué)物理學(xué)雜志 2021年2期2021-02-07
- 基于EKF的北斗B1C信號(hào)數(shù)據(jù)/導(dǎo)頻聯(lián)合跟蹤方法
C/N0估計(jì)在鑒別器層面對(duì)載波環(huán)進(jìn)行合并,實(shí)現(xiàn)了載波環(huán)聯(lián)合跟蹤;文獻(xiàn)[11]和文獻(xiàn)[12]分別使用GPS L2C、Galileo E1信號(hào)對(duì)載波環(huán)路聯(lián)合跟蹤技術(shù)進(jìn)行了測(cè)試,驗(yàn)證了載波環(huán)聯(lián)合跟蹤可以達(dá)到提升靈敏度的目的.另外,由于卡爾曼濾波(KF)有良好的線性系統(tǒng)處理能力,相比傳統(tǒng)鎖相環(huán)具有很大的精度優(yōu)勢(shì)[13-14],因此可以使用KF跟蹤方法以及改進(jìn)的KF跟蹤方法對(duì)低載噪比信號(hào)進(jìn)行處理,平滑噪聲影響,以提供更精確的相位誤差和多普勒頻移估計(jì)值,例如文獻(xiàn)[15
全球定位系統(tǒng) 2020年6期2021-01-21
- 引入自編碼機(jī)制對(duì)抗網(wǎng)絡(luò)的文本生成模型*
LSTM網(wǎng)絡(luò),鑒別器使用CNN網(wǎng)絡(luò)。最后解決生成文本的創(chuàng)新性不足問(wèn)題,引入強(qiáng)化學(xué)習(xí)和交叉熵作為鑒別器中句子級(jí)和單詞級(jí)的獎(jiǎng)勵(lì),提高文本生成的質(zhì)量。2 相關(guān)工作2011年Sutskever等人[13]在會(huì)話方面解決了RNN訓(xùn)練困難的問(wèn)題,使用RNN成功生成文本;2012年He等人[14]在統(tǒng)計(jì)模型基礎(chǔ)上,為每一行古詩(shī)進(jìn)行特定訓(xùn)練,生成中國(guó)古詩(shī);在此基礎(chǔ)上,2014年Zhang等人[15]使用RNN學(xué)習(xí)到單個(gè)字符的多種不同組合,解決了多個(gè)字符間關(guān)聯(lián)的問(wèn)題,使產(chǎn)生
計(jì)算機(jī)工程與科學(xué) 2020年9期2020-10-10
- 基于LeakyMish 流行正則化半監(jiān)督生成對(duì)抗網(wǎng)絡(luò)的圖像分類模型
分別是生成器和鑒別器,故是生成器和鑒別器相互競(jìng)爭(zhēng)。生成器通過(guò)學(xué)習(xí)真實(shí)樣本生成類似真實(shí)樣本的生成樣本,盡可能地欺騙鑒別器,而鑒別器區(qū)分真實(shí)樣本和生成樣本,盡可能地不被生成樣本欺騙,兩者相互競(jìng)爭(zhēng),最終達(dá)到納什均衡,它表述為:其中,x 為真實(shí)圖像庫(kù)中的圖像,Pdata為其分布,z為隨機(jī)噪聲,Pz為其分布,一般為高斯白噪聲,D(x)是真實(shí)圖像輸入鑒別器后的輸出概率值,G(z)是隱變量通過(guò)生成器得到的生成圖像,D(G(z))是生成圖像通過(guò)鑒別器后的輸出概率值。生成對(duì)
現(xiàn)代計(jì)算機(jī) 2020年18期2020-08-07
- 非平行文本下基于變分自編碼器和輔助分類器生成對(duì)抗網(wǎng)絡(luò)的語(yǔ)音轉(zhuǎn)換
于ACGAN的鑒別器不僅能鑒別生成的頻譜包絡(luò)特征的真假,還能鑒別生成的頻譜包絡(luò)特征的類別,因此,生成的樣本更加接近特定樣本,從而進(jìn)一步提升轉(zhuǎn)換語(yǔ)音的質(zhì)量.充分的主觀和客觀實(shí)驗(yàn)表明: 本文提出的將ACGAN應(yīng)用于語(yǔ)音轉(zhuǎn)換領(lǐng)域,在有效改善合成語(yǔ)音質(zhì)量的同時(shí)進(jìn)一步提升了說(shuō)話人個(gè)性的相似度,實(shí)現(xiàn)了高質(zhì)量的語(yǔ)音轉(zhuǎn)換.1 基于VAWGAN的語(yǔ)音轉(zhuǎn)換基準(zhǔn)方法針對(duì)C-VAE解碼器輸出趨于過(guò)平滑的問(wèn)題,基于VAWGAN的語(yǔ)音轉(zhuǎn)換框架利用WGAN提升了C-VAE的性能,VAW
復(fù)旦學(xué)報(bào)(自然科學(xué)版) 2020年3期2020-06-28
- 基于Msmall-Patch訓(xùn)練的夜晚單幅圖像去霧算法——MP-CGAN
,其由生成器與鑒別器構(gòu)成,將噪聲輸入生成器學(xué)習(xí)真實(shí)數(shù)據(jù)分布,鑒別器判斷數(shù)據(jù)真假性,其缺點(diǎn)是生成不受控制。為解決GAN生成自由的問(wèn)題,文獻(xiàn)[17]提出條件生成對(duì)抗網(wǎng)絡(luò)(Conditional Generated Adversarial Network,CGAN),將條件與噪聲同時(shí)輸入生成器,目標(biāo)函數(shù)如式(1)所示:其中:x指輸入圖片,y指清晰圖片,z指隨機(jī)噪聲。但CGAN會(huì)引入噪聲,對(duì)此,文獻(xiàn)[18]提出感知損失,即用已經(jīng)訓(xùn)練好的深層神經(jīng)網(wǎng)絡(luò)提取圖片高級(jí)特征
計(jì)算機(jī)應(yīng)用 2020年3期2020-06-06
- 基于EBGAN的圖像風(fēng)格化技術(shù)
征當(dāng)作條件輸入鑒別器,控制輸出樣本的精確度,但是Chen等人[7]認(rèn)為,該模型具有訓(xùn)練不穩(wěn)定、難優(yōu)化等問(wèn)題,很難生成高分辨率圖像。為了解決以上問(wèn)題,chen等人使用了基于感知損失的直接回歸目標(biāo),并產(chǎn)生了可以合成2048×1024圖像的第一個(gè)模型,但是此網(wǎng)絡(luò)模型在多樣性上沒(méi)有突破。對(duì)此,Zhu等人[8]提出了多尺度鑒別器的方法,在鑒別階段,采用相同結(jié)構(gòu)、尺度不同的3個(gè)鑒別器,用以鑒別不同分辨率的圖像,在多樣性方面,通過(guò)用戶給出特征編碼,作為加入生成器的條件,
計(jì)算機(jī)與現(xiàn)代化 2020年4期2020-04-23
- 基于GAN的醫(yī)學(xué)圖像仿真數(shù)據(jù)集生成算法
配對(duì)二同時(shí)送入鑒別器中,由鑒別器判斷兩個(gè)配對(duì)的相似程度.生成器和鑒別器在模型訓(xùn)練的過(guò)程中反復(fù)對(duì)抗,最終實(shí)現(xiàn)對(duì)“白化”區(qū)域中像素仿照肝臟腫瘤的灰度、紋理、形狀進(jìn)行填充,從而得到合成的有病變的肝臟CT圖像數(shù)據(jù).圖1中,G表示生成器,D表示鑒別器,y表示原始圖像,x表示對(duì)原始圖像進(jìn)行“白化”操作后得到的結(jié)果,G(x)表示生成器得到的結(jié)果.3)將配對(duì)后的圖片送入生成對(duì)抗網(wǎng)絡(luò)中訓(xùn)練.生成對(duì)抗網(wǎng)絡(luò)中的生成器輸入病變白化的圖片,然后使生成的圖片中白化區(qū)域被智能填充而其他
- 基于改進(jìn)的GAN的局部遮擋人臉表情識(shí)別
了將GAN 的鑒別器由原來(lái)的二分類改為一個(gè)多分類器[8-9],該模型可以實(shí)現(xiàn)半監(jiān)督分類,但是由于前期修復(fù)模型是基于簡(jiǎn)單的GAN,所以修復(fù)效果不是很好,容易造成識(shí)別階段識(shí)別率不高,甚至誤判。針對(duì)上述方法的局限性,本文提出一種基于雙鑒別網(wǎng)絡(luò)的深度生成對(duì)抗網(wǎng)絡(luò)模型,對(duì)遮擋人臉進(jìn)行表情識(shí)別。模型前期通過(guò)生成器和兩個(gè)鑒別器進(jìn)行對(duì)抗學(xué)習(xí),對(duì)遮擋圖像進(jìn)行修復(fù),由于加入了局部鑒別器和全局鑒別器兩個(gè)鑒別器,所以該模型在修復(fù)圖像時(shí)能夠在細(xì)節(jié)和全局上更好地恢復(fù)遮擋圖像,使得修復(fù)
計(jì)算機(jī)工程與應(yīng)用 2020年5期2020-03-11
- 衛(wèi)星導(dǎo)航信號(hào)無(wú)模糊抗多徑碼相關(guān)參考波形設(shè)計(jì)技術(shù)*
線性組合構(gòu)造碼鑒別器。CCRW技術(shù)采用專門設(shè)計(jì)的閘波信號(hào)代替本地碼,通過(guò)改變鑒相函數(shù)獲得更優(yōu)的多徑抑制性能。窄相關(guān)與Double-Delta技術(shù)也可歸于CCRW技術(shù)范疇。衛(wèi)星導(dǎo)航接收機(jī)廣泛采用DLL結(jié)構(gòu)接收信號(hào),通過(guò)本地生成的信號(hào)和接收到的衛(wèi)星信號(hào)進(jìn)行相關(guān)運(yùn)算,實(shí)現(xiàn)偽碼同步跟蹤,因此相關(guān)運(yùn)算生成的鑒別曲線形狀決定了跟蹤算法的性能[8]。文獻(xiàn)[9]提出了一種對(duì)鑒別曲線人為賦形并求解本地多相關(guān)器組合的方法,并給出了BOC(1,1)信號(hào)的仿真結(jié)果,但未考慮帶限情
國(guó)防科技大學(xué)學(xué)報(bào) 2019年4期2019-07-29
- 基于GAN的天文圖像生成研究
生成器,一個(gè)是鑒別器。它的優(yōu)點(diǎn)是能夠讓生成器和鑒別器在對(duì)抗中自動(dòng)獲得最優(yōu)的結(jié)果。這種方法的核心是利用CNN的多層卷積對(duì)目標(biāo)圖像進(jìn)行特征提取,然后根據(jù)目標(biāo)圖像的像素概率密度分布特點(diǎn)進(jìn)行重構(gòu),再將重構(gòu)圖像與目標(biāo)圖像進(jìn)行對(duì)比后不斷調(diào)優(yōu)[10-11]。GAN將圖像生成技術(shù)帶到了全新的高度,在GAN被提出之后,許多領(lǐng)域的圖像生成模型都采用了GAN的基本結(jié)構(gòu)并對(duì)其進(jìn)行了各種各樣的改進(jìn)[12-20]。生成高分辨率的星系與恒星圖像對(duì)預(yù)測(cè)未知恒星與星系,幫助人們了解宇宙有著
西北工業(yè)大學(xué)學(xué)報(bào) 2019年2期2019-05-15
- GNSS導(dǎo)航信號(hào)的開環(huán)補(bǔ)償多徑抑制方法
旨在設(shè)計(jì)特殊的鑒別器,使之對(duì)多徑信號(hào)不敏感,由于其計(jì)算復(fù)雜度較低,得到了廣泛的應(yīng)用。如窄相關(guān)技術(shù)把延遲鎖定環(huán)路的早遲間隔由傳統(tǒng)的1個(gè)偽碼碼片縮短到小于1個(gè)偽碼碼片,同時(shí)提高了接收信號(hào)的帶寬,可以顯著地降低多徑的影響[10]。ELS技術(shù)根據(jù)存在多徑信號(hào)時(shí)接收機(jī)中頻信號(hào)與本地信號(hào)的相關(guān)函數(shù)兩側(cè)斜率不相等的現(xiàn)象,通過(guò)兩組早遲相關(guān)器獲得相關(guān)函數(shù)兩側(cè)的斜率,并計(jì)算出其交點(diǎn),將交點(diǎn)所對(duì)應(yīng)的橫坐標(biāo)作為多徑誤差的估計(jì),返回給偽距計(jì)算以糾正該誤差。文獻(xiàn)[11]結(jié)合ELS技術(shù)
全球定位系統(tǒng) 2018年4期2018-10-09
- 對(duì)抗網(wǎng)絡(luò)生成的藝術(shù)作品為何比人類藝術(shù)家更受歡迎?
設(shè)計(jì)為接收來(lái)自鑒別器的兩個(gè)信號(hào),作為兩個(gè)相互矛盾的力量,以實(shí)現(xiàn)三點(diǎn):1)生成新作品;2)新作品不應(yīng)該太新,它不應(yīng)該遠(yuǎn)離分布,否則會(huì)產(chǎn)生太多的喚醒,從而根據(jù)W undt曲線激活厭惡系統(tǒng)并落入負(fù)面特征范圍;3)生成的作品應(yīng)該增加風(fēng)格的模糊性。類似于生成對(duì)抗網(wǎng)絡(luò)(GAN),CAN具有兩個(gè)對(duì)手網(wǎng)絡(luò),一個(gè)鑒別器和一個(gè)發(fā)生器。鑒別器可以使用與風(fēng)格標(biāo)簽(文藝復(fù)興、巴洛克風(fēng)格、印象派、表現(xiàn)主義等)相關(guān)的大量藝術(shù)品,并使用它來(lái)學(xué)習(xí)區(qū)分風(fēng)格。生成器無(wú)法訪問(wèn)任何藝術(shù)品,它從隨機(jī)
機(jī)器人產(chǎn)業(yè) 2017年4期2017-08-09
- 陣列天線DOA跟蹤環(huán)路鑒別器性能分析
DOA跟蹤環(huán)路鑒別器性能分析關(guān)剛強(qiáng),李柏渝,聶俊偉,王飛雪(國(guó)防科學(xué)技術(shù)大學(xué)電子科學(xué)與工程學(xué)院,湖南長(zhǎng)沙 410073)網(wǎng)址:www.sys-ele.com利用陣列天線波束指向空間相關(guān)性的特點(diǎn),可以構(gòu)建一個(gè)類似于傳統(tǒng)鎖相環(huán)結(jié)構(gòu)的閉合環(huán)路以實(shí)現(xiàn)對(duì)導(dǎo)航信號(hào)來(lái)波方向(direction of arrival,DOA)的跟蹤。DOA跟蹤環(huán)路中鑒別器的實(shí)現(xiàn)方法主要有實(shí)部相減相干法、幅值相減歸一化法、功率相減歸一化法,首先基于波束形成技術(shù)建立了陣列天線導(dǎo)航接收機(jī)DOA
系統(tǒng)工程與電子技術(shù) 2016年5期2016-11-02
- 基于訓(xùn)練特征空間分布的雷達(dá)地面目標(biāo)鑒別器設(shè)計(jì)
的雷達(dá)地面目標(biāo)鑒別器設(shè)計(jì)李 龍 劉 崢*(西安電子科技大學(xué)雷達(dá)信號(hào)處理國(guó)家重點(diǎn)實(shí)驗(yàn)室 西安 710071)該文對(duì)雷達(dá)地面目標(biāo)高分辨1維距離像目標(biāo)識(shí)別中的庫(kù)外目標(biāo)鑒別問(wèn)題,提出一種基于訓(xùn)練特征空間分布的雷達(dá)地面目標(biāo)鑒別器。在訓(xùn)練階段利用基于相關(guān)系數(shù)預(yù)處理的K-Means聚類方法對(duì)庫(kù)內(nèi)目標(biāo)樣本特征空間進(jìn)行區(qū)域劃分,并采用基于空間分布的支撐向量域描述方法確定樣本特征空間的邊界與支撐向量,利用樣本特征空間邊界與加權(quán)K近鄰原則對(duì)目標(biāo)類別進(jìn)行判決。該方法解決了庫(kù)內(nèi)目標(biāo)
電子與信息學(xué)報(bào) 2016年4期2016-08-26
- 短延遲多徑干擾下的跟蹤環(huán)路鑒別器設(shè)計(jì)
擾下的跟蹤環(huán)路鑒別器設(shè)計(jì)同 釗1,李兵兵1,惠永濤1,鐘興旺2,劉 浩1(1.西安電子科技大學(xué)綜合業(yè)務(wù)網(wǎng)理論及關(guān)鍵技術(shù)國(guó)家重點(diǎn)實(shí)驗(yàn)室,陜西西安 710071; 2.中國(guó)空間技術(shù)研究院西安分院,陜西西安 710100)針對(duì)短延遲多徑干擾影響下傳統(tǒng)多徑消除方法性能下降的問(wèn)題,提出了一種跟蹤環(huán)路鑒別器的構(gòu)造方法.首先分析了短延遲多徑下同相/正交超前、滯后與即時(shí)支路的輸出特性,在此基礎(chǔ)上構(gòu)建出一種改進(jìn)的超前支路;將環(huán)路鑒別器的輸出定義為歸一化超前減滯后功率型函數(shù),
西安電子科技大學(xué)學(xué)報(bào) 2015年5期2015-07-24
- 基于自適應(yīng)門限的脈沖寬度鑒別器的設(shè)計(jì)與實(shí)現(xiàn)
比較門限的脈寬鑒別器設(shè)計(jì)方法。通過(guò)高速模/數(shù)轉(zhuǎn)換器 (ADC)對(duì)輸入的模擬信號(hào)進(jìn)行連續(xù)采樣,通過(guò)獲取單次脈沖的最大采樣幅值來(lái)確定本次采樣脈沖的脈寬比較門限——最大采樣值的一半,同時(shí)存儲(chǔ)采樣得到的所有數(shù)據(jù)。當(dāng)本次信號(hào)采樣結(jié)束后,將采樣得到的所有數(shù)據(jù)與本次獲取的脈寬比較門限比較,通過(guò)獲取大于比較門限的連續(xù)采樣點(diǎn)數(shù)確定本次脈沖的寬度。1 設(shè)計(jì)原理假設(shè)ADC采樣速率為mMsps。雷達(dá)發(fā)出的詢問(wèn)信號(hào)的脈寬寬度τ:T1≤τ,其中T1為詢問(wèn)信號(hào)的最小脈寬寬度。待檢測(cè)信號(hào)
艦船電子對(duì)抗 2014年4期2014-10-13
- 衛(wèi)星導(dǎo)航信號(hào)波形畸變引起的碼跟蹤偏差
變波形的DLL鑒別器特性典型的GNSS接收機(jī)對(duì)距離的測(cè)量是通過(guò)DLL對(duì)接收信號(hào)的偽碼跟蹤來(lái)實(shí)現(xiàn)的。忽略導(dǎo)航數(shù)據(jù)信息的GNSS接收機(jī)信號(hào)模型為sR(t)=A·p(t-τ0)sin(2πf0t+φ0)+n(t).(2)式中:A為接收信號(hào)幅度;p(t-τ0)為導(dǎo)航衛(wèi)星下播的偽碼波形;τ0為傳播時(shí)延;φ0為相位;f0為頻率;n(t)為接收機(jī)噪聲。射頻估計(jì)誤差忽略不計(jì),經(jīng)混頻和濾波后,接收信號(hào)可表示為sR(t)=A·p(t-τ0)sinφ0+n(t).(3)當(dāng)相關(guān)器
全球定位系統(tǒng) 2014年2期2014-08-21
- 基于FPGA的導(dǎo)航接收機(jī)跟蹤環(huán)路設(shè)計(jì)與實(shí)現(xiàn)
通道調(diào)度,環(huán)路鑒別器計(jì)算和環(huán)路濾波等是在DSP或者ARM中實(shí)現(xiàn)。這樣就導(dǎo)致了研發(fā)時(shí)間較長(zhǎng),研發(fā)過(guò)程也較為復(fù)雜。利用Xilinx公司提供的協(xié)處理器[2],實(shí)現(xiàn)環(huán)路的跟蹤和通道的調(diào)度,在單片F(xiàn)PGA內(nèi)實(shí)現(xiàn)導(dǎo)航接收機(jī)的跟蹤環(huán)路,在不損失性能的基礎(chǔ)上實(shí)現(xiàn)資源的優(yōu)化。本文分析了導(dǎo)航接收機(jī)的設(shè)計(jì)和跟蹤的基本原理,分析了載波環(huán)、碼環(huán)的基本設(shè)計(jì)和環(huán)路鑒別器的算法性能分析,而后設(shè)計(jì)了基于FPGA的導(dǎo)航接收機(jī)跟蹤環(huán)路,并在Xilinx公司的Virtex-4系列的XC4VSX5
全球定位系統(tǒng) 2014年5期2014-08-21
- 北斗系統(tǒng)信號(hào)NH碼處理方法研究
LL可供使用的鑒別器算法有點(diǎn)積叉積法、叉積法、二相反正切法和四相反正切法[1]。由于四相反正切法無(wú)需計(jì)算信號(hào)幅度,且在低信噪比條件下也有較好的跟蹤效果,因此應(yīng)用最為廣泛。這種鑒別器可以允許較大的捕獲頻率誤差,但是對(duì)數(shù)據(jù)跳變敏感[4],因此相鄰的積分序列不應(yīng)該存在頻繁的比特跳變。對(duì)于數(shù)據(jù)比特率為50bit/s的GPS來(lái)說(shuō)可以滿足這項(xiàng)要求,因?yàn)楸忍胤D(zhuǎn)導(dǎo)致鑒別器受影響的可能性很低,F(xiàn)LL可以正常工作[5];但是對(duì)于北斗系統(tǒng) MEO/IGSO衛(wèi)星信號(hào),數(shù)據(jù)比特最
導(dǎo)航定位學(xué)報(bào) 2014年3期2014-01-10
- 基于小波的改進(jìn)GPS弱信號(hào)跟蹤方法
相差可通過(guò)環(huán)路鑒別器得出,相差經(jīng)過(guò)濾波再反饋到數(shù)控振蕩器(NCO),NCO以此來(lái)調(diào)整本地載波頻率。圖1 接收機(jī)載波跟蹤環(huán)基本框圖普通的PLL對(duì)180°相移敏感,而GPS接收機(jī)使用的是對(duì)180°相移不敏感的Costas環(huán)[7],以應(yīng)對(duì)GPS信號(hào)中的導(dǎo)航數(shù)據(jù)比特跳變。其框圖如圖2所示。圖2 載波跟蹤C(jī)ostas環(huán)在鎖定狀態(tài)的時(shí)候,信號(hào)將全部集中在同相(I)支路。若本地碼相位精確對(duì)齊,則有同相支路I相乘結(jié)果正交支路Q相乘結(jié)果式中,φ即為輸入與本地載波的相差。若相
通信電源技術(shù) 2013年3期2013-09-25
- 伽利略導(dǎo)航衛(wèi)星E1 B偽碼跟蹤技術(shù)研究
中的無(wú)模糊跟蹤鑒別器算法的參數(shù)推導(dǎo)仿真和利用此算法參數(shù)設(shè)計(jì)的伽利略接收機(jī)將在接下來(lái)的章節(jié)中被著重介紹。2 伽利略E1信號(hào)E1信號(hào)由E1-B和E1-C信號(hào)組成。如圖1所示。圖1中S1表示E1-B碼子載波a和E1-B碼子載波b分別乘以系數(shù)然后相加,S2表示E1-C碼子載波a和E1-C碼子載波b分別乘以系數(shù)然后相減。伽利略在E1頻點(diǎn)上采用BOC調(diào)制方式。BOC調(diào)制方式使Galileo的信號(hào)與GPS的L1 BPSK信號(hào)避免了相互干擾,同時(shí)有著良好的抗多徑特性。BO
微處理機(jī) 2012年2期2012-07-25
- 一種新的BOC調(diào)制無(wú)模糊跟蹤鑒別器設(shè)計(jì)
峰值,從而使得鑒別器曲線存在錯(cuò)誤鎖定點(diǎn),增加這種信號(hào)的捕獲難度和錯(cuò)誤跟蹤的可能性。用于BOC調(diào)制的無(wú)模糊捕獲方法,如BPSK-like方法[2]、副載波相位消除技術(shù)(Sub Carrier Phase Cancellation)[3]等,同樣可以用于無(wú)模糊跟蹤。BPSK-like方法相關(guān)函數(shù)的計(jì)算會(huì)造成3 dB的信噪比損失;副載波相位消除技術(shù)則需要兩個(gè)通道平方相加,從而造成平方損耗。從建立碼跟蹤延遲鎖定環(huán)數(shù)學(xué)模型出發(fā),詳述了BOC調(diào)制信號(hào)的跟蹤模糊問(wèn)題,基
全球定位系統(tǒng) 2010年5期2010-08-29