国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于融合波動抑制的機(jī)械零件圖像智能分類算法設(shè)計(jì)

2024-12-28 00:00:00紀(jì)永
機(jī)械制造與自動化 2024年6期
關(guān)鍵詞:機(jī)械零件圖像分類小波變換

摘要:為提升圖像分類效果,提出雙目加權(quán)模型融合波動抑制的機(jī)械零件圖像分類算法。對圖像進(jìn)行小波分解,獲取高頻分量,重構(gòu)處理后的分量得到去噪圖像。將去噪后的圖像分解為拉普拉斯金字塔序列,通過平均梯度和區(qū)域能量融合系數(shù)融合圖像,引入雙目加權(quán)模型完成圖像重構(gòu)抑制融合系數(shù)波動。采用CNN提取圖像特征,使用濾波器訓(xùn)練特征,引入集成學(xué)習(xí)策略獲取分類標(biāo)簽,實(shí)現(xiàn)圖像分類。實(shí)驗(yàn)結(jié)果表明:所提算法的融合系數(shù)波動較小,圖像分類效果較好。

關(guān)鍵詞:雙目加權(quán)模型;融合波動抑制;機(jī)械零件;圖像分類;小波變換;卷積神經(jīng)網(wǎng)絡(luò)

中圖分類號:TP391.41文獻(xiàn)標(biāo)志碼:A文章編號:1671-5276(2024)06-0174-06

Abstract:To improve the image classification performance, a mechanical part image classification algorithm based on binocular weighted model fusion and fluctuation suppression is proposed. Wavelet decomposition on the image is performed to obtain high-frequency components, and the processed components are reconstructed to obtain a denoised image. The denoised image is decomposed into a Laplacian pyramid sequence, and by fusing the image through average gradient and regional energy fusion coefficient, a binocular weighted model is introduced to complete image reconstruction and suppress fusion coefficient fluctuations. With adoption of CNN to extract image features and filters to train features, ensemble learning strategies are introduced to gain classification labels, achieving image classification. The experimental results show that the proposed algorithm has small fluctuations in fusion coefficients and good image classification performance.

Keywords:binocular weighted model; fusion fluctuation suppression; mechanical parts; image classification; wavelet transform; convolutional neural network

0引言

高精密機(jī)械零件在工業(yè)發(fā)展領(lǐng)域占據(jù)十分重要的地位,現(xiàn)階段正在朝著種類繁多以及微型化等方向發(fā)展[1-2]。在機(jī)械零件的生產(chǎn)、科研以及應(yīng)用等方面,機(jī)械智能化逐漸成為發(fā)展趨勢。在智能控制中,對機(jī)械零件的智能分類是一項(xiàng)基本基礎(chǔ)工作,所以設(shè)計(jì)一種機(jī)械零件圖像分類算法具有十分重要的意義。

現(xiàn)階段,專家針對該方面的內(nèi)容已進(jìn)行了大量的研究。李鳴等[3]優(yōu)先對卷積神經(jīng)網(wǎng)絡(luò)初始化處理,輸入特征BN處理,獲取歸一化數(shù)據(jù)輸入特征圖中,采用迭代方式參數(shù)調(diào)整,實(shí)現(xiàn)圖像分類。王鑫等[4]首先設(shè)計(jì)了一個(gè)全新的卷積神經(jīng)網(wǎng)絡(luò),共有7層。采用網(wǎng)絡(luò)對圖像訓(xùn)練,得到圖像的高層特征;采用主成分分析對池化層輸出降維處理,后作為高層特征并將全部高層特征融合,獲取圖像特征,進(jìn)而實(shí)現(xiàn)分類。

雖然現(xiàn)階段上述兩種算法取得了較為滿意的研究成果,但上述方法應(yīng)用到機(jī)械零件智能圖像分類中,都是以單目立體視覺模式識別為基礎(chǔ),在對目標(biāo)圖像融合分類過程中,融合系數(shù)波動過大會導(dǎo)致圖像分類偏差及分類丟失比例較大。

針對上述問題,本文提出一種機(jī)械零件圖像分類算法,其與傳統(tǒng)方法不同之處在于抑制圖像的融合系數(shù)波動,降低機(jī)械零件圖像分類的分類偏差與復(fù)雜度,根據(jù)各個(gè)圖像塊的相似性獲取噪聲在圖像中分布的真實(shí)情況。通過雙目加權(quán)模型機(jī)械零件圖像合成對機(jī)械零件圖像分類,實(shí)現(xiàn)圖像的特征提取和分類,以期減少分類偏差,減少機(jī)械零件圖像分類丟失比例。

1機(jī)械零件圖像分類算法設(shè)計(jì)

1.1圖像去噪

圖像處理中的小波分析是目前研究的熱點(diǎn)之一,同時(shí)小波分析也是圖像預(yù)處理的一項(xiàng)重要手段。通過小波變換針對機(jī)械零件圖像去噪處理,具體的操作步驟如下。

先從攝像機(jī)成像角度出發(fā),將機(jī)械零件圖像劃分為規(guī)則相同的塊,將圖像結(jié)構(gòu)相似性較高的圖像組合在一起,構(gòu)建三維數(shù)組[5-6],即分組;再通過分組操作能夠有效濾除圖像中的噪聲。另外,聯(lián)合濾波可根據(jù)各個(gè)圖像塊的相似性獲取噪聲在圖像中分布的真實(shí)情況。

1)分組

圖像塊之間的相似性主要通過距離衡量。兩個(gè)圖像塊之間的距離越小,說明兩者的相似性越高。任意一個(gè)機(jī)械零件圖像塊均能夠設(shè)定為參考塊,結(jié)合匹配算法獲取的相似塊組合在一起即可形成三維數(shù)組,再計(jì)算每一個(gè)圖像塊之間的距離。

2)聯(lián)合濾波

設(shè)定一個(gè)含有n個(gè)圖像塊的組,對這個(gè)組聯(lián)合濾波處理,獲取n個(gè)估計(jì)值,即各個(gè)塊分別對應(yīng)一個(gè)估計(jì)。如果機(jī)械零件的三維數(shù)據(jù)已經(jīng)建立完成[7],則聯(lián)合濾波的操作步驟如下:

a)對構(gòu)建的圖像塊組線性變換;

b)通過收縮變換域的系數(shù)有效減少噪聲;

c)經(jīng)過逆線性變換獲取不同圖像塊對應(yīng)的估計(jì)值。

3)聚集

經(jīng)過分組和濾波操作后,圖像塊可能會存在重疊區(qū)域,由于不同圖像塊之間的運(yùn)行估計(jì)存在明顯差異,需要對其加權(quán)處理,整個(gè)操作過程即為聚集??紤]帶有噪聲的機(jī)械零件圖像z表示為

式中:y(x)為機(jī)械零件圖像的輸入節(jié)點(diǎn);R為圖像信息特征集;η(x)為機(jī)械零件圖像的信息節(jié)點(diǎn)。

聚集的步驟如下:

a)對含有噪聲的機(jī)械零件圖像小波分解,獲取對應(yīng)的高低頻分量;

b)圖像的高頻分量通過小波變換完成去噪;

c)圖像的低頻部分優(yōu)先二次分解,同時(shí)重復(fù)步驟b)的去噪過程,直至圖像中的噪聲全部剔除,則停止操作;

d)采用小波逆變換逐層重構(gòu)獲取去噪后的機(jī)械零件圖像。

1.2基于雙目加權(quán)模型的圖像融合系數(shù)抑制

完成機(jī)械零件圖像的分類需要優(yōu)先對融合系數(shù)抑制[8-9],具體的抑制過程如下:

1)采用高斯核將參與融合的機(jī)械零件圖像逐步分解為圖像序列;

2)將各層機(jī)械零件圖像和上一層的圖像作差,得到分解圖像;

3)從上至下均作差,構(gòu)建拉普拉斯金字塔序列。

合成圖像中含有大量不同的信息,例如視差圖像信息等,以下需要通過雙目加權(quán)模型機(jī)械零件圖像合成,即

式中:IL為機(jī)械零件的左視點(diǎn)圖像;IR為右視點(diǎn)圖像;ωL為機(jī)械零件圖像左視點(diǎn)的融合系數(shù);ωR為機(jī)械零件圖像右視點(diǎn)的融合系數(shù);d為視差值;x為橫坐標(biāo)值;y為縱坐標(biāo)值。

通過加權(quán)雙目模型將機(jī)械零件圖像中的序列依次融合,設(shè)定GR,n為機(jī)械零件圖像右視點(diǎn)的平均梯度,ER,m為機(jī)械零件圖像右視點(diǎn)的區(qū)域能量,則有:

式中:M和N分別為左、右視點(diǎn)圖像的規(guī)格;ΔIx和ΔIy分別為像素(x,y)在x和y方向上的一階差分;μ(i,j)為區(qū)域像素值;i為特征量;j為圖像的噪聲節(jié)點(diǎn)。

結(jié)合上述操作過程,融合系數(shù)對應(yīng)的計(jì)算式為:

式中:GL,n為機(jī)械零件圖像左視點(diǎn)的平均梯度;EL,m為機(jī)械零件圖像左視點(diǎn)的區(qū)域能量,ωR,n、ωL,n分別為機(jī)械零件圖像右、左視點(diǎn)平均梯度對應(yīng)的融合系數(shù),取值范圍為[0.4,0.6];ωR,m、ωL,m分別為機(jī)械零件圖像右、左視點(diǎn)區(qū)域能量對應(yīng)的融合系數(shù),取值范圍為[0.4,0.6]。綜合上述分析,完成了機(jī)械零件圖像融合系數(shù)抑制。

1.3機(jī)械零件圖像分類

采用卷積神經(jīng)網(wǎng)絡(luò)對經(jīng)過合成的機(jī)械零件圖像特征提取[10-11]。接下來引入集成學(xué)習(xí)策略獲取最終的分類標(biāo)簽,實(shí)現(xiàn)機(jī)械零件圖像分類,具體操作過程如圖1所示。

卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練是借鑒多層感知機(jī)網(wǎng)絡(luò)實(shí)現(xiàn)的,主要?jiǎng)澐譃閮煞N不同的形式,分別為前向傳播和反向傳播。

前向傳播的具體操作步驟為:

1)通過輸入層填充大小,對機(jī)械零件圖像的邊緣部分填充[12],獲取輸入張量xLi;

2)將網(wǎng)絡(luò)中隱藏層中的全部數(shù)據(jù)初始化處理;

3)輸出層第i個(gè)圖像的第L層為

式中zLi為機(jī)械零件圖像分布。

通過前向傳播可以完成輸入特征提取和分類,但是網(wǎng)絡(luò)中參數(shù)的更新更加適合反向傳播。通過兩種不同的傳播方式能夠更加真實(shí)地反映不同標(biāo)簽之間的誤差取值。以下主要通過鏈?zhǔn)角髮?dǎo)解決反向傳播問題。

針對前向傳播到輸出層形成的損失函數(shù)可以表示為

式中:σ為圖像的參數(shù)融合;w為隸屬度函數(shù);b為圖像的分布點(diǎn)數(shù)。根據(jù)鏈?zhǔn)角髮?dǎo)法則能夠獲取以下的計(jì)算式:

式中:J為參數(shù)分布集;zLwL為圖像殘差分量。

計(jì)算網(wǎng)絡(luò)中池化層的反向傳播,池化通常使用最大池化或者平均池化,求反向傳播的過程中,刪除最大值,計(jì)算平均值,整個(gè)過程即為下采樣過程[13-14]。經(jīng)過求解獲取上一層的取值,具體的計(jì)算式如下:

為了獲取卷積層的δL,通過式(10)獲取δL-1k,結(jié)合遞推關(guān)系,獲取以下形式的計(jì)算式:

式中zL和zL-1兩者之間的關(guān)系可以表示為

式中:wL為L層隸屬度函數(shù);bL為L層圖像的分布點(diǎn)數(shù)。

通過卷積神經(jīng)網(wǎng)絡(luò),提取合成圖像的主要特征,設(shè)定圖像的輸入為X,借助濾波器對模型優(yōu)化,具體的表達(dá)式為

式中:Y為圖像輸出;λ為濾波系數(shù);F為濾波器。通過卷積塊后獲取的特征需要采用濾波器F參數(shù)訓(xùn)練,以下采用嶺回歸對其求解,具體的計(jì)算式為

式中I為系數(shù)向量。

在上述分析的基礎(chǔ)上,將i個(gè)濾波器集成處理,能夠獲取以下的表達(dá)式:

同理

針對訓(xùn)練集,采用優(yōu)化出來的F和w需要代入式(14)中,則有

由于單一層次的特征無法更好地表征機(jī)械零件的特征,對訓(xùn)練集獲取的類別標(biāo)簽以及真實(shí)的類別標(biāo)簽[15],需要求解兩者的歐式距離,具體的計(jì)算式為

在上述分析的基礎(chǔ)上,引入集成學(xué)習(xí)策略獲取最終的分類標(biāo)簽,最終機(jī)械零件第i個(gè)圖像的分類計(jì)算如下:

根據(jù)上述公式計(jì)算,對機(jī)械零件圖像分類,實(shí)現(xiàn)圖像的特征提取和分類[16-17]。

2實(shí)驗(yàn)結(jié)果與分析

為了驗(yàn)證所提基于雙目加權(quán)模型的機(jī)械零件圖像分類算法的有效性與可行性,進(jìn)行實(shí)驗(yàn)分析。

2.1實(shí)驗(yàn)環(huán)境與樣本采集

實(shí)驗(yàn)在系統(tǒng)版本為Windows10,處理器為酷睿i9-9100、內(nèi)存為8G的硬件條件下進(jìn)行。實(shí)驗(yàn)過程中選取二極管、三極管、電阻、電容等共16類常用機(jī)械零件作為測試對象,采用NC-8080半自動影像測量儀直接對實(shí)物測量獲取機(jī)械零件圖像,每一張圖像都是同一樣本在不同拍攝角度下得到的。圖像采集儀器如圖2所示,儀器參數(shù)如表1所示。

2.2實(shí)驗(yàn)流程

1)圖像去噪:對采集的原始圖像實(shí)施小波分解,獲取高頻分量并重構(gòu)實(shí)現(xiàn)圖像去噪,得到去噪后的圖像。

2)特征提?。横槍θピ牒蟮臋C(jī)械零件圖像,采用卷積神經(jīng)網(wǎng)絡(luò)提取池化層中圖像的主要特征,并標(biāo)記分類標(biāo)簽。

3)圖像分類:根據(jù)分類標(biāo)簽對常用機(jī)械零件圖像分類,得到分類結(jié)果。

根據(jù)本文提出的雙目加權(quán)模型分類算法,繪制的分類方法框架圖如圖3所示。

在上述實(shí)驗(yàn)環(huán)境與參數(shù)設(shè)置條件下,分別采用所提算法、文獻(xiàn)[3]算法和文獻(xiàn)[4]算法進(jìn)行圖像分類處理,將融合系數(shù)、分類偏差、分類復(fù)雜度以及丟失比例作為實(shí)驗(yàn)指標(biāo),圖4—圖5為機(jī)械零件圖像特征提取與融合結(jié)果。

從圖4—圖5可以看出,本文方法能夠有效提取機(jī)械零件圖像特征,特征提取過程誤差較小,且特征融合穩(wěn)定。原因在于本文方法根據(jù)各個(gè)圖像塊的相似性獲取噪聲在圖像中分布的真實(shí)情況,并通過雙目加權(quán)模型合成機(jī)械零件圖像對機(jī)械零件圖像分類,獲取現(xiàn)圖像的特征提取和分類結(jié)果,降低了噪聲干擾,有效減少了分類偏差,提升了特征提取效果。

2.3實(shí)驗(yàn)結(jié)果分析

機(jī)械零件圖像融合系數(shù)對比結(jié)果如圖6所示。由上文可知,融合系數(shù)的取值范圍為[0.4,0.6],其越接近0.5,表明算法性能越好。

分析圖6中的實(shí)驗(yàn)數(shù)據(jù)可知,文獻(xiàn)[3]算法的融合系數(shù)曲線波動較大,融合系數(shù)最高值達(dá)到了0.59,最低值為0.36;文獻(xiàn)[4]算法的融合系數(shù)最高值達(dá)到了0.62,最低值為0.38。而所提算法的融合系數(shù)曲線均在取值范圍內(nèi),且波動較小,最高值與最小值僅為0.55和0.47。由此可知,所提算法的融合系數(shù)更加穩(wěn)定,有效提高了機(jī)械零件圖像的分類效果。這是因?yàn)樵撍惴紤]到合成圖像中含有大量不同的信息,所以通過加權(quán)雙目模型將機(jī)械零件圖像中的序列依次融合,提升了圖像融合效果。

不同算法的機(jī)械零件圖像分類偏差對比結(jié)果如表2所示。

分析表2中的實(shí)驗(yàn)數(shù)據(jù)可知,隨著圖像樣本數(shù)量的持續(xù)增加,文獻(xiàn)[3]算法和文獻(xiàn)[4]算法的分類偏差均處于直線上升趨勢,在樣本數(shù)為280時(shí),分別達(dá)到了0.217%和0.302%,所提算法的分類偏差最大值僅為0.030%,與文獻(xiàn)算法相比降低了0.187個(gè)百分點(diǎn)和0.272個(gè)百分點(diǎn),并且所提算法的分類偏差則處于相對穩(wěn)定的狀態(tài)。因此,所提算法有效降低了分類偏差,證明了所提算法的優(yōu)越性。

在分類的過程中,由于各個(gè)算法的操作過程不同,導(dǎo)致分類復(fù)雜度也存在明顯的差異。以下實(shí)驗(yàn)測試主要對比3種不同算法的分類復(fù)雜度,具體的實(shí)驗(yàn)對比結(jié)果如圖7所示。

分析圖7中的實(shí)驗(yàn)數(shù)據(jù)可知,所提算法的分類復(fù)雜度曲線波動更小,并且其最大復(fù)雜度僅為0.37,文獻(xiàn)[3]算法的最大分類復(fù)雜度為0.87,文獻(xiàn)[4]算法的最大分類復(fù)雜度為0.91。相比另外兩種算法,所提算法的分類復(fù)雜度明顯更低一些,表明所提算法的圖像分類效果更佳。

為了更加全面驗(yàn)證所提算法的優(yōu)越性,以下實(shí)驗(yàn)測試重點(diǎn)對比3種不同算法的機(jī)械零件圖像分類丟失比例,具體實(shí)驗(yàn)結(jié)果如表3所示。

分析表3中的實(shí)驗(yàn)數(shù)據(jù)可知,所提算法的圖像分類丟失比例未隨著樣本數(shù)量的增加而增加,在測試中,最大丟失比例為0.04%,而文獻(xiàn)算法的丟失比例均隨著樣本數(shù)量的增加而增大。文獻(xiàn)[3]算法的最大丟失比例為0.21%,最小值為0.04%;文獻(xiàn)[4]算法的最大丟失比例為0.34%,最小值為0.08%。三者相比,文獻(xiàn)算法的最小丟失比例與所提算法的最大值相等,而隨著樣本數(shù)量的增加,丟失比例相差越大,最高分別差0.20個(gè)百分點(diǎn)和0.33個(gè)百分點(diǎn)。因此,說明所提算法有效降低了機(jī)械零件圖像分類丟失比例。

3結(jié)語

針對傳統(tǒng)機(jī)械零件圖像分類算法存在的一系列問題,本文對基于雙目加權(quán)模型的機(jī)械零件圖像分類算法進(jìn)行了研究。其創(chuàng)新之處在于利用雙目加權(quán)模型抑制機(jī)械零件圖像融合系數(shù)波動,通過前向傳播可以完成輸入特征提取和分類。實(shí)驗(yàn)結(jié)果表明,所提算法能夠有效降低分類偏差和分類復(fù)雜度,同時(shí)減少機(jī)械零件圖像分類丟失比例。但是,由于時(shí)間以及環(huán)境等因素的限制,所提算法仍然存在一定的弊端,后續(xù)將對其改進(jìn),提升整個(gè)算法的綜合性能。

參考文獻(xiàn):

[1] 梁承權(quán). 電子器件測試設(shè)備信息遠(yuǎn)程監(jiān)控方法仿真[J]. 計(jì)算機(jī)仿真,2019,36(7):134-138.

[2] 鮑文霞,閻少梅,梁棟,等. 基于橢圓-雙曲線馬氏度量的圖像分類算法[J]. 系統(tǒng)工程與電子技術(shù),2018,40(2):456-462.

[3] 李鳴,張鴻. 基于卷積神經(jīng)網(wǎng)絡(luò)迭代優(yōu)化的圖像分類算法[J]. 計(jì)算機(jī)工程與設(shè)計(jì),2017,38(1):198-202,214.

[4] 王鑫,李可,徐明君,等. 改進(jìn)的基于深度學(xué)習(xí)的遙感圖像分類算法[J]. 計(jì)算機(jī)應(yīng)用,2019,39(2):382-387.

[5] 史靜,朱虹. 多特征融合的場景圖像分類算法[J]. 計(jì)算機(jī)系統(tǒng)應(yīng)用,2018,27(5):171-175.

[6] 劉啟超,肖亮,劉芳,等. SSCDenseNet:一種空-譜卷積稠密網(wǎng)絡(luò)的高光譜圖像分類算法[J]. 電子學(xué)報(bào),2020,48(4):751-762.

[7] 許開煒,楊學(xué)志,艾加秋,等. 點(diǎn)特征相似與卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合的SAR圖像分類算法研究[J]. 地理與地理信息科學(xué),2019,35(3):28-36.

[8] 楊紅紅,曲仕茹,金紅霞. 基于包級空間多示例稀疏表示的圖像分類算法[J]. 西北工業(yè)大學(xué)學(xué)報(bào),2017,35(4):690-697.

[9] 趙浩如,張永,劉國柱. 基于RPN與B- CNN的細(xì)粒度圖像分類算法研究[J]. 計(jì)算機(jī)應(yīng)用與軟件,2019,36(3):210-213,264.

[10] 齊永鋒,李發(fā)勇. 基于局部保留降維卷積神經(jīng)網(wǎng)絡(luò)的高光譜圖像分類算法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2019,50(3):136-143.

[11] 畢曉君,周澤宇. 基于雙通道GAN的高光譜圖像分類算法[J]. 光學(xué)學(xué)報(bào),2019,39(10):297-308.

[12] 姜代紅,張三友,劉其開. 基于特征重標(biāo)定生成對抗網(wǎng)絡(luò)的圖像分類算法[J]. 計(jì)算機(jī)應(yīng)用研究,2020,37(3):932-935.

[13] 馬曉麗,陸鍵. 基于灰度分析的路面裂縫圖像分類算法研究[J]. 武漢理工大學(xué)學(xué)報(bào)(交通科學(xué)與工程版),2018,42(5):748-752,756.

[14] 王燕,曹建芳,李艷飛. 融合混合優(yōu)化組合的大規(guī)模場景圖像分類算法[J]. 計(jì)算機(jī)技術(shù)與發(fā)展,2019,29(9):86-91.

[15] 宋海峰,陳廣勝,景維鵬,等. 基于(2D)~2PCA的受限玻爾茲曼機(jī)圖像分類算法及其并行化實(shí)現(xiàn)[J]. 應(yīng)用科學(xué)學(xué)報(bào),2018,36(3):495-503.

[16] 吳蓉,趙敏,孫通,等. 基于深度卷積神經(jīng)網(wǎng)絡(luò)的γ光子圖像分類識別研究[J]. 機(jī)械制造與自動化,2020,49(5):139-141.

[17] 洪慶,宋喬,楊晨濤,等. 基于智能視覺的機(jī)械零件圖像分割技術(shù)[J]. 機(jī)械制造與自動化,2020,49(5):203-206.

收稿日期:20221102

基金項(xiàng)目:教育部行指委職業(yè)教育改革創(chuàng)新課題項(xiàng)目(HBKC215038)

作者簡介:紀(jì)永(1977—),男,吉林松原人,副教授,碩士,研究方向?yàn)闄C(jī)電智能控制,liugea1234@163.com。

DOI:10.19344/j.cnki.issn1671-5276.2024.06.035

猜你喜歡
機(jī)械零件圖像分類小波變換
數(shù)字圖像處理在機(jī)械零件測量中的應(yīng)用
科技資訊(2016年26期)2017-02-28 09:33:12
基于云計(jì)算的圖像分類算法
基于目標(biāo)特征的機(jī)械零件表面缺陷檢測方法
軟件(2016年4期)2017-01-20 09:34:29
基于錨點(diǎn)建圖的半監(jiān)督分類在遙感圖像中的應(yīng)用
MATLAB在《數(shù)字圖像處理》課程中的輔助教學(xué)
基于互信息和小波變換的圖像配準(zhǔn)的研究
保持細(xì)節(jié)的Retinex紅外圖像增強(qiáng)算法
一種基于引導(dǎo)濾波和MNF的高光譜遙感圖像分類方法
基于最大似然法的南京市土地利用類型分類研究
商(2016年22期)2016-07-08 14:32:30
基于小波包絡(luò)分析的滾動軸承典型故障診斷技術(shù)研究
商情(2016年11期)2016-04-15 07:39:54
襄樊市| 沁阳市| 剑阁县| 罗平县| 重庆市| 博爱县| 家居| 霍山县| 芷江| 惠来县| 精河县| 沁水县| 江油市| 海阳市| 富蕴县| 泰兴市| 平潭县| 白山市| 平山县| 扶余县| 科技| 札达县| 钟山县| 项城市| 漳平市| 英吉沙县| 宜君县| 潢川县| 宁海县| 和顺县| 凤凰县| 承德市| 通州市| 黔江区| 富源县| 普洱| 吉林省| 淳安县| 扶余县| 门头沟区| 股票|