国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

融合對(duì)立學(xué)習(xí)的混合灰狼優(yōu)化算法*

2017-04-17 01:39唐明珠
計(jì)算機(jī)與生活 2017年4期
關(guān)鍵詞:測(cè)試函數(shù)灰狼學(xué)習(xí)策略

王 敏,唐明珠

1.湖南機(jī)電職業(yè)技術(shù)學(xué)院 信息工程學(xué)院,長(zhǎng)沙 410151

2.湖南大學(xué) 計(jì)算機(jī)與通信學(xué)院,長(zhǎng)沙 410082

3.長(zhǎng)沙理工大學(xué) 能源與動(dòng)力工程學(xué)院,長(zhǎng)沙 410114

融合對(duì)立學(xué)習(xí)的混合灰狼優(yōu)化算法*

王 敏1,2+,唐明珠3

1.湖南機(jī)電職業(yè)技術(shù)學(xué)院 信息工程學(xué)院,長(zhǎng)沙 410151

2.湖南大學(xué) 計(jì)算機(jī)與通信學(xué)院,長(zhǎng)沙 410082

3.長(zhǎng)沙理工大學(xué) 能源與動(dòng)力工程學(xué)院,長(zhǎng)沙 410114

灰狼優(yōu)化算法;Rosenbrock搜索;對(duì)立學(xué)習(xí)

1 引言

群體智能優(yōu)化算法源于對(duì)自然界中生物群體的一些行為機(jī)制的模擬,通過(guò)生物群體中個(gè)體之間的相互合作所表現(xiàn)出的智能行為進(jìn)行迭代搜索。與傳統(tǒng)優(yōu)化方法相比,群體智能優(yōu)化算法通常具有原理簡(jiǎn)單,需調(diào)整的參數(shù)少,支持分布式并行計(jì)算,編程容易實(shí)現(xiàn),無(wú)需問(wèn)題的梯度信息,較強(qiáng)的全局搜索能力等特點(diǎn),因此被廣泛應(yīng)用于函數(shù)優(yōu)化、參數(shù)估計(jì)、組合優(yōu)化、神經(jīng)網(wǎng)絡(luò)訓(xùn)練、自動(dòng)控制、圖像處理、路徑規(guī)劃等多個(gè)領(lǐng)域。典型的群智能優(yōu)化算法有粒子群優(yōu)化(particle swarm optimization,PSO)算法[1]、蟻群優(yōu)化(ant colony optimization,ACO)算法[2]、人工蜂群(artificial bee colony,ABC)算法[3]等。

2014年,Mirjalili等人[4]借鑒灰狼群體捕食行為的特性,提出一種新型群體智能優(yōu)化算法,即灰狼優(yōu)化(grey wolf optimization,GWO)算法。GWO算法主要通過(guò)狼群追蹤、包圍、追捕、攻擊獵物等過(guò)程來(lái)達(dá)到優(yōu)化搜索的目的。GWO算法具有原理簡(jiǎn)單,需要調(diào)整的參數(shù)少,并行性,編程容易實(shí)現(xiàn),有較強(qiáng)的全局搜索能力等特點(diǎn)。在函數(shù)優(yōu)化方面,GWO算法比PSO算法、引力搜索算法(gravitational search algorithm,GSA)和差分進(jìn)化(differential evolution,DE)算法具有更快的收斂速度和較好的收斂精度[4]。因此,GWO算法被廣泛應(yīng)用于電力系統(tǒng)[5]、傳感器訓(xùn)練[6]、直流電機(jī)最優(yōu)控制[7]、經(jīng)濟(jì)調(diào)度[8]、特征子集選擇[9]等領(lǐng)域中。

然而,與其他群體智能優(yōu)化算法類似,GWO算法同樣也存在后期收斂速度慢,求解精度不高,易出現(xiàn)早熟收斂現(xiàn)象等缺陷。因此,研究人員從不同角度對(duì)GWO算法進(jìn)行改進(jìn)以提高其尋優(yōu)性能。文獻(xiàn)[10]將動(dòng)態(tài)進(jìn)化種群(evolutionary population dynamics,EPD)算子嵌入到GWO算法中,用于加快算法收斂速度和增強(qiáng)其局部搜索能力。文獻(xiàn)[11]提出一種改進(jìn)GWO算法用于訓(xùn)練高斯徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)。文獻(xiàn)[12]結(jié)合差分進(jìn)化的搜索能力,提出一種混合GWO算法用于函數(shù)優(yōu)化和三維堆疊芯片的測(cè)試調(diào)度。文獻(xiàn)[13]提出一種改進(jìn)GWO算法用于求解約束優(yōu)化問(wèn)題,在改進(jìn)算法中,引入佳點(diǎn)集初始化種群個(gè)體,對(duì)當(dāng)前最優(yōu)個(gè)體執(zhí)行Powell局部搜索。

針對(duì)標(biāo)準(zhǔn)GWO算法的缺點(diǎn),本文利用對(duì)立學(xué)習(xí)策略取代隨機(jī)初始化生產(chǎn)初始種群;為了增強(qiáng)局部搜索能力和加快收斂速度,對(duì)當(dāng)前群體中最優(yōu)個(gè)體進(jìn)行Rosenbrock局部搜索;對(duì)當(dāng)前最優(yōu)個(gè)體執(zhí)行精英對(duì)立學(xué)習(xí)策略以避免算法出現(xiàn)早熟收斂現(xiàn)象,提出一種混合GWO算法。

2 灰狼優(yōu)化算法

2.1 灰狼群體捕食行為

灰狼是頂級(jí)食肉動(dòng)物,其生活方式大多以群居為主,構(gòu)建了灰狼種群等級(jí)金字塔,并具有嚴(yán)格的等級(jí)管理制度,如圖1所示。

Fig.1 Hierarchy of grey wolf population圖1 灰狼種群等級(jí)金字塔示意圖

金字塔第一層為種群中的頭狼稱為α,主要負(fù)責(zé)群體各項(xiàng)決策事務(wù);金字塔第二層稱為β,協(xié)助α做出管理決策;金字塔第三層為δ,δ聽(tīng)從α及β的指令;金字塔最底層稱為ω,主要負(fù)責(zé)平衡種群內(nèi)部關(guān)系。

灰狼的種群等級(jí)在實(shí)現(xiàn)群體高效捕殺獵物的過(guò)程中發(fā)揮著至關(guān)重要的作用。捕食過(guò)程由α帶領(lǐng)完成,首先狼群以團(tuán)隊(duì)模式搜索、跟蹤、靠近獵物,然后從各個(gè)方位包圍獵物,當(dāng)包圍圈足夠小且完善時(shí),狼群在α的指揮下由獵物最近的β、δ展開(kāi)進(jìn)攻,在獵物逃跑時(shí),其余個(gè)體進(jìn)行補(bǔ)給,實(shí)現(xiàn)群狼包圍圈的跟隨變換移動(dòng),從而對(duì)獵物不斷實(shí)施各個(gè)方向的攻擊,最終捕獲獵物。

2.2GWO算法描述

在GWO算法中,由α、β、δ執(zhí)行追捕行為,ω跟隨前3者進(jìn)行獵物跟蹤圍剿,最終完成捕食任務(wù)。利用GWO算法求解連續(xù)函數(shù)優(yōu)化問(wèn)題時(shí),假設(shè)灰狼種群中的灰狼數(shù)目為N,搜索空間為d維,其中第i只灰狼在d維空間中的位置可表示為xi=(xi1,xi2,…,xid),種群中當(dāng)前最優(yōu)個(gè)體記為α,將適應(yīng)度值排名第二及第三的對(duì)應(yīng)個(gè)體記為β和δ,剩余個(gè)體記為ω,獵物的位置對(duì)應(yīng)于優(yōu)化問(wèn)題的全局最優(yōu)解。

在捕食過(guò)程中,灰狼群體首先根據(jù)式(1)對(duì)獵物進(jìn)行包圍:

其中,Xp(t)表示第t代時(shí)獵物的位置;X(t)表示第t代時(shí)灰狼個(gè)體的位置;常數(shù)C為擺動(dòng)因子,由式(2)決定:

式中,r1為[0,1]之間的隨機(jī)數(shù)。

利用式(3)進(jìn)行灰狼位置更新:

其中,A為收斂因子,由式(4)決定:

式中,r2為[0,1]之間的隨機(jī)數(shù);a隨著迭代次數(shù)增加從2線性遞減到0。

狼群中個(gè)體跟蹤獵物方位的數(shù)學(xué)描述如下:由式(5)~(10)計(jì)算出群內(nèi)其他灰狼個(gè)體與α、β、δ的距離,然后由式(11)即可綜合判斷出個(gè)體向獵物移動(dòng)的方向。

3 混合灰狼優(yōu)化算法

3.1 基于對(duì)立學(xué)習(xí)的種群初始化

與其他群體智能優(yōu)化算法一樣,基本GWO算法在迭代前同樣采用隨機(jī)初始化種群個(gè)體。由于事先對(duì)全局最優(yōu)解沒(méi)有任何先驗(yàn)知識(shí),初始種群應(yīng)均勻地覆蓋在搜索空間中。對(duì)基于種群迭代的智能優(yōu)化算法來(lái)說(shuō),最優(yōu)保存策略是將上一代種群中的優(yōu)良個(gè)體保存到下一代種群;若初始種群中的優(yōu)良個(gè)體較少,則會(huì)直接影響算法的收斂。另外,初始種群的優(yōu)劣還會(huì)影響算法的收斂速度。因此,本文采用對(duì)立學(xué)習(xí)策略[14]來(lái)產(chǎn)生初始種群,即同時(shí)產(chǎn)生當(dāng)前個(gè)體及相應(yīng)的對(duì)立個(gè)體,然后比較選擇適應(yīng)度值較好的個(gè)體作為初始種群個(gè)體,從而提高算法的搜索效率。

對(duì)立學(xué)習(xí)策略是由學(xué)者Tizhoosh[14]于2005年提出的,目前已在遺傳算法(genetic algorithm,GA)、PSO算法、差分進(jìn)化算法、ACO算法、生物地理學(xué)優(yōu)化(biogeography-based optimization,BBO)算法等群體智能優(yōu)化算法中得到了成功的應(yīng)用。

定義1(對(duì)立點(diǎn))假設(shè)在[l,u]上存在數(shù)x,則x的對(duì)立點(diǎn)定義為x′=l+u-x。將對(duì)立點(diǎn)的定義擴(kuò)展到n維空間,設(shè) p=(x1,x2,…,xn)為n維空間中的一個(gè)點(diǎn),其中xi∈[li,ui],i=1,2,…,n,則其對(duì)立點(diǎn)為 p′= (x1′,x2′,…,xn′),其中xi′=li+ui-xi。

根據(jù)上述定義,基于對(duì)立學(xué)習(xí)策略的種群初始化步驟如下:

(1)在搜索空間中隨機(jī)初始化N個(gè)灰狼個(gè)體位置 xij(i=1, 2,…,n,j=1, 2,…,N)作為初始種群 RP,N為種群規(guī)模。

(2)根據(jù)定義1,初始種群RP中的每個(gè)灰狼個(gè)體x的對(duì)立個(gè)體x′構(gòu)成對(duì)立種群OP。

(3)合并種群RP和OP,將其2N個(gè)灰狼個(gè)體按照適應(yīng)度值進(jìn)行升序排序,選取適應(yīng)度值前N個(gè)灰狼個(gè)體作為初始種群。

3.2 Rosenbrock搜索方法

Rosenbrock搜索[15]是一種用于無(wú)約束優(yōu)化的直接方法,它不需問(wèn)題的梯度信息,具有強(qiáng)大的局部搜索能力。其搜索過(guò)程包括兩個(gè)階段,即探測(cè)和構(gòu)造新的搜索方向。

第一階段 探測(cè)階段。

步驟1給定初始點(diǎn)x(1)∈Rn,取坐標(biāo)方向作為單位正交方向d(1),d(2),…,d(n),步長(zhǎng),縮減因子 β∈(-1,0),擴(kuò)大因子α>1,允許誤差ε>0。令y(1)=x(1),k=1,j=1,δi=δ(0)i(i=1,2,…,n)。

步驟2 若 f(y(j)+δjd(j))<f(y(j)),則 y(j+1)=y(j),δj: = αδj,否則,y(j+1)=y(j),δj: =βδj。

步驟3若 j<n,則 j:=j+1,轉(zhuǎn)步驟2;否則,轉(zhuǎn)步驟4。

步驟4 若 f(y(n+1))<f(y(1)),則 y(1)=y(n+1),j=1,轉(zhuǎn)步驟2;若 f(y(n+1))=f(y(1)),則轉(zhuǎn)步驟5。

步驟5若 f(y(n+1))<f(y(k)),則轉(zhuǎn)步驟6;否則,若對(duì)于所有 j,|δj|≤ε成立,則計(jì)算停止,x(k)作為近似最優(yōu)解;否則,令y(1)=y(n+1),j=1,轉(zhuǎn)步驟2。

步驟 6 設(shè) x(k+1)=y(n+1),若 ||x(k+1)-x(k)||≤ε,則將x(k+1)作為近似極小值,計(jì)算停止;否則,轉(zhuǎn)步驟7。

第二階段 構(gòu)造新的搜索方向。

采用Gram-Schmidt方法將{p(j)}正交化,令

然后單位化,令

獲得n個(gè)新的正交搜索方向。

步驟8 令d(j)=dˉ(j),δj=δ(0)j(j=1,2,…,n),y(1)=x(k+1),k:=k+1,j=1,返回步驟2。

3.3 精英對(duì)立學(xué)習(xí)策略

利用GWO算法在求解優(yōu)化問(wèn)題時(shí),找到全局最優(yōu)解是其最終的目標(biāo)。在GWO算法的進(jìn)化過(guò)程中,尤其是進(jìn)化后期,所有灰狼個(gè)體均向決策層區(qū)域逼近,從而導(dǎo)致群體多樣性損失,收斂速度明顯變慢或停止,進(jìn)而陷入局部最優(yōu),這也是群體智能優(yōu)化算法的固有特點(diǎn)。

由文獻(xiàn)[14]可知,對(duì)立學(xué)習(xí)策略能較好地?cái)U(kuò)大群體的搜索范圍,開(kāi)采出新的搜索區(qū)域,增強(qiáng)群體的多樣性,利用其與群體智能優(yōu)化算法混合,可提高算法的全局搜索能力和避免算法出現(xiàn)早熟收斂現(xiàn)象。因此,本文對(duì)決策層中個(gè)體執(zhí)行精英對(duì)立學(xué)習(xí)策略。

由定義2可知,γ為[0,1]之間服從均勻分布的隨機(jī)數(shù),當(dāng)γ取不同的數(shù)值時(shí),由當(dāng)前灰狼群體中決策層3個(gè)個(gè)體可產(chǎn)生多個(gè)不同的精英對(duì)立個(gè)體,從而可有效地提高群體的多樣性,避免算法陷入局部最優(yōu)。

3.4HGWO算法步驟

步驟1初始化算法參數(shù)。種群規(guī)模N,最大迭代次數(shù),在搜索空間中隨機(jī)生成a、A、C等參數(shù)。

步驟2在搜索空間中利用2.1節(jié)所描述的對(duì)立學(xué)習(xí)策略產(chǎn)生包含N個(gè)灰狼個(gè)體的初始種群,令t=1。

步驟3計(jì)算群體中每個(gè)灰狼個(gè)體的適應(yīng)度值,并將適應(yīng)度值進(jìn)行排序,記錄最優(yōu)適應(yīng)度值及對(duì)應(yīng)位置。

步驟4將適應(yīng)度值排列前3位的灰狼個(gè)體位置分別記為Xα、Xβ和Xδ,作為決策層。

步驟5由式(5)~(7)計(jì)算群體中其他灰狼個(gè)體與Xα、Xβ和Xδ的距離,并根據(jù)式(8)~(11)更新每個(gè)灰狼個(gè)體的位置。

步驟6利用2.2節(jié)所描述的Rosenbrock搜索方法對(duì)當(dāng)前最優(yōu)灰狼個(gè)體進(jìn)行局部精確搜索。

步驟7對(duì)決策層個(gè)體Xα、Xβ和Xδ執(zhí)行2.3節(jié)所描述的精英對(duì)立學(xué)習(xí)策略以產(chǎn)生新的個(gè)體。

步驟8更新a、A、C等參數(shù)的值。

步驟9判斷灰狼群體是否滿足收斂條件,若是,則算法結(jié)束,輸出最優(yōu)解;否則,令t=t+1,返回步驟3。

4 仿真實(shí)驗(yàn)及分析

4.1 測(cè)試函數(shù)

為了檢驗(yàn)本文提出的HGWO算法的尋優(yōu)性能,選取6個(gè)標(biāo)準(zhǔn)測(cè)試函數(shù)進(jìn)行仿真實(shí)驗(yàn),6個(gè)測(cè)試函數(shù)的表達(dá)式如下。

在上述6個(gè)測(cè)試函數(shù)中,f1、f2和 f3為單峰函數(shù),f4、f5和 f6為多峰函數(shù),函數(shù)的維數(shù)均設(shè)置為30,6個(gè)函數(shù)的全局最優(yōu)值均為0。

4.2與標(biāo)準(zhǔn)GWO和GWO-DE算法的比較

利用HGWO算法對(duì)6個(gè)標(biāo)準(zhǔn)測(cè)試函數(shù)進(jìn)行求解,并與標(biāo)準(zhǔn)GWO算法以及混合GWO與差分進(jìn)化(記為GWO-DE)算法[12]進(jìn)行比較。3種算法參數(shù)如下:種群規(guī)模N均設(shè)置為50,最大迭代次數(shù)均設(shè)置為1 000,收斂精度設(shè)置為1E-06。所有仿真實(shí)驗(yàn)均在Intel Core Quad,CPU:Q8300,2 GB內(nèi)存,2.50 GHz主頻的計(jì)算機(jī)上實(shí)現(xiàn),程序采用Matlab7.0語(yǔ)言實(shí)現(xiàn)。

6個(gè)測(cè)試函數(shù)在上述參數(shù)設(shè)置的條件下,采用GWO和HGWO算法分別獨(dú)立運(yùn)行30次,記錄其最優(yōu)值、平均值、最差值和標(biāo)準(zhǔn)差,并與GWO-DE算法的結(jié)果進(jìn)行比較,結(jié)果如表1所示。為了增加其可信度,GWO-DE算法的結(jié)果直接來(lái)源于參考文獻(xiàn)。

Table 1 Experimental results of 3 algorithms for 6 test functions表1 3種算法對(duì)6個(gè)測(cè)試函數(shù)的結(jié)果比較

從表1可知,在滿足固定收斂精度下,除了Rosenbrock函數(shù),本文提出的HGWO算法在其他5個(gè)函數(shù)上進(jìn)行30次實(shí)驗(yàn)中均能一致收斂到問(wèn)題的全局最優(yōu)解,尤其是Rastrigin函數(shù)和Griewank函數(shù),HGWO算法能收斂到理論最優(yōu)值。對(duì)于Rosenbrock函數(shù),3種GWO算法的尋優(yōu)結(jié)果不理想,原因在于Rosenbrock是一個(gè)典型的非凸函數(shù),在維數(shù)大于3的情況下呈現(xiàn)出多峰特性,其全局極小值位于一條平滑而狹長(zhǎng)的拋物線形狀的山谷底部,且為優(yōu)化算法提供的信息很少,因此找到全局極小值就顯得相當(dāng)困難。對(duì)于Sphere函數(shù)、Schwefel 1.2函數(shù)、Rastrigin函數(shù)、Ackley函數(shù)和Griewank函數(shù),HGWO算法尋優(yōu)成功率為100%。標(biāo)準(zhǔn)GWO算法對(duì)于Sphere函數(shù)和Ackley函數(shù),30次實(shí)驗(yàn)均能一致收斂到全局最優(yōu)解,尋優(yōu)成功率為100%;對(duì)于Schwefel 1.2函數(shù)和Rastrigin函數(shù),GWO算法能收斂到問(wèn)題的全局最優(yōu)解,尋優(yōu)成功率分別為75%和20%;對(duì)于Griewank函數(shù),GWO算法找到的解接近全局最優(yōu)解。由上述比較得知,與標(biāo)準(zhǔn)GWO算法相比,不論是收斂精度,還是收斂穩(wěn)定性方面,HGWO算法的尋優(yōu)性能有了明顯的提高。

與GWO-DE算法相比,對(duì)于測(cè)試函數(shù)f1、f2和f3,HGWO算法獲得了較好的尋優(yōu)結(jié)果。對(duì)于測(cè)試函數(shù)f4和f6,兩種算法得到了相似的最優(yōu)值0,而HGWO算法獲得了較好的平均值、最差值和標(biāo)準(zhǔn)差。對(duì)測(cè)試函數(shù)f5,兩種算法取得了相似的結(jié)果。

另外,在算法收斂(達(dá)到收斂精度1E-06)時(shí)間方面,標(biāo)準(zhǔn)GWO算法對(duì)6個(gè)測(cè)試函數(shù)30次實(shí)驗(yàn)的平均收斂時(shí)間分別為6.02 s、60.16 s、27.84 s、26.67 s、7.99 s和23.56 s,而HGWO算法對(duì)6個(gè)測(cè)試函數(shù)30次實(shí)驗(yàn)的平均收斂時(shí)間分別為0.90 s、15.13 s、27.35 s、5.28 s、1.20 s和4.66 s。從平均收斂時(shí)間來(lái)看,與標(biāo)準(zhǔn)GWO算法相比,HGWO算法的收斂速度明顯加快。圖2給出了GWO算法和HGWO算法對(duì)6個(gè)函數(shù)的尋優(yōu)收斂曲線。從圖2可以清晰地看出,對(duì)于6個(gè)函數(shù),HGWO算法均能比GWO算法具有較快的收斂速度。

4.3 與其他進(jìn)化算法的比較

Fig.2 Evolution curves for 6 test functions圖2 6個(gè)測(cè)試函數(shù)的進(jìn)化曲線

為了更進(jìn)一步驗(yàn)證HGWO算法的有效性,將其與PSO算法[4]、GSA算法[4]和DE算法[4]的結(jié)果進(jìn)行比較。3種算法的參數(shù)設(shè)置如下:種群規(guī)模和最大迭代次數(shù)均與HGWO算法設(shè)置相同;在PSO算法中,最大慣性權(quán)重為0.9,最小慣性權(quán)重為0.2,c1=c2=2;在DE算法中,縮放因子F=0.5,交叉概率Pc=0.2;在GSA算法中,G0=100,α=20。為了增加其可信度,PSO、GSA和DE算法的結(jié)果直接來(lái)源于各自參考文獻(xiàn),結(jié)果如表2所示。

Table 2 Experimental results of 4 different evolutionary algorithms for 6 test functions表2 4種進(jìn)化算法對(duì)6個(gè)測(cè)試函數(shù)的結(jié)果比較

從表2可知,與PSO算法和GSA算法相比,HGWO算法在6個(gè)函數(shù)上均獲得了較好的尋優(yōu)結(jié)果。與DE算法相比,HGWO算法在Sphere、Schwefel 1.2、Rastrigin和Ackley函數(shù)上獲得了較好的結(jié)果,在Rosenbrock函數(shù)上獲得了較差的尋優(yōu)結(jié)果,在Griewank函數(shù)上得到了相似的結(jié)果。

4.4 對(duì)立學(xué)習(xí)種群初始化的算法性能分析

由3.1節(jié)可知,最優(yōu)保存策略是將上一代種群中的優(yōu)良個(gè)體保存到下一代種群;若初始種群中的優(yōu)良個(gè)體較少,則會(huì)直接影響算法的收斂。隨機(jī)初始化則不能保證初始種群中含有較多的優(yōu)良個(gè)體,因此本文采用對(duì)立學(xué)習(xí)策略來(lái)初始化種群個(gè)體。下面通過(guò)對(duì)6個(gè)測(cè)試函數(shù)進(jìn)行實(shí)驗(yàn),分析采用對(duì)立學(xué)習(xí)策略和隨機(jī)初始化對(duì)算法性能的影響。表3是分別采用兩種初始化方法的尋優(yōu)結(jié)果比較。

從表3中結(jié)果可知,除了測(cè)試函數(shù)f6,采用對(duì)立學(xué)習(xí)策略初始化種群方法在其他5個(gè)函數(shù)上獲得的結(jié)果明顯優(yōu)于采用隨機(jī)初始化方法;對(duì)于測(cè)試函數(shù)f6,兩種初始化方法取得了相似的尋優(yōu)結(jié)果。從比較結(jié)果可以看出,與隨機(jī)初始化方法相比,采用對(duì)立學(xué)習(xí)初始化種群方法在收斂速度和收斂精度上均有較明顯的優(yōu)勢(shì)。

Table 3 Experimental results of 2 initialization methods for 6 test functions表3 兩種初始化方法對(duì)6個(gè)測(cè)試函數(shù)的結(jié)果比較

5 結(jié)束語(yǔ)

本文將灰狼優(yōu)化算法、對(duì)立學(xué)習(xí)策略與Rosenbrock搜索方法相結(jié)合,提出了一種混合灰狼優(yōu)化(HGWO)算法。對(duì)6個(gè)基準(zhǔn)函數(shù)進(jìn)行測(cè)試實(shí)驗(yàn),結(jié)果表明,相對(duì)于其他幾種群體智能優(yōu)化算法,HGWO算法具有尋優(yōu)精度高,收斂速度快,魯棒性強(qiáng)等特點(diǎn)。然而,HGWO算法對(duì)單峰Rosenbrock函數(shù)優(yōu)化時(shí)收斂速度較慢。對(duì)HGWO算法進(jìn)行改進(jìn)以加強(qiáng)其尋優(yōu)能力是進(jìn)一步研究的課題。另外,將HGWO算法用于處理約束優(yōu)化問(wèn)題也有待進(jìn)一步研究。

[1]Akbari R,Ziarati K.A rank based particle swarm optimization algorithm with dynamic adaptation[J].Journal of Computational and Applied Mathematics,2011,235(8):2694-2714.

[2]Seckiner S U,Eroglu Y,Emrullah M,et al.Ant colony optimization for continuous functions by using novel pheromone updating[J].Applied Mathematics and Computation, 2013,219(9):4163-4175.

[3]Tang Lingyun,Mao Li,Zhou Changxi.Improved artificial bee colony algorithm for function optimization[J].Journal of Frontiers of Computer Science and Technology,2015,9(7):854-860.

[4]Mirjalili S,Mirjalili S M,Lewis A.Grey wolf optimization [J].Advances in Engineering Software,2014,69:46-61.

[5]Ei-Gaafary A A M,Mohamed Y S,Hemeida A M,et al. Grey wolf optimization for multi input multi output system [J].Universal Journal of Communications and Networks, 2015,3(1):1-6.

[6]Mirjalili S.How effective is the grey wolf optimizer in training multilayer perceptrons[J].Applied Intelligence,2015, 42(4):608-619.

[7]Madadi A,Motlagh M M.Optimal control of DC motor using grey wolf optimizer algorithm[J].Technical Journal of Engineering andApplied Science,2014,4(4):373-379.

[8]Song H M,Sulaiman M H,Mohamed M R.An application of grey wolf optimizer for solving combined economic emission dispatch problems[J].International Review on Modelling and Simulation,2014,7(5):838-844.

[9]Emary E,Zawbaa H M,Grosan C,et al.Feature subset selection approach by gray-wolf optimization[C]//Advances in Intelligent Systems and Computing 334:Proceedings of the 1st International Afro-European Conference for Industrial Advancement,Addis Ababa,Ethiopia,Nov 17-19,2014. Berlin,Heidelberg:Springer,2014:1-13.

[10]Saremi S,Mirjalili S Z,Mirjalili S M.Evolutionary population dynamics and grey wolf optimizer[J].Neural Computing &Applications,2015,26(5):983-989.

[11]Muangkote N,Sunat K,Chiewchanwattana S.An improved grey wolf optimizer for training q-Gaussian radial basis functional-link nets[C]//Proceedings of the 2014 International Conference on Computer Science and Engineering, Khon Kaen,Thailand,Jul 30-Aug 1,2014.Piscataway, USA:IEEE,2014:209-214.

[12]Zhu Aijun,Xu Chuanpei,Li Zhi,et al.Hybridizing grey wolf optimization with differential evolution for global optimization and test scheduling for 3D stacked SoC[J].Journal of Systems Engineering and Electronics,2015,26(2): 317-328.

[13]Long Wen,Zhao Dongquan,Xu Songjin.Improved grey wolf optimization algorithm for constrained optimization problem[J].Journal of Computer Applications,2015,35(9): 2590-2595.

[14]Tizhoosh H R.Opposition-based learning:a new scheme for machine intelligence[C]//Proceedings of the 2005 International Conference on Computational Intelligence for Modelling,Control and Automation and International Conference on Intelligent Agents,Web Technologies and Internet Commerce,Vienna,Austria,Nov 28-30,2005.Washington:IEEE Computer Society,2005:695-701.

[15]Jia Shujin,Du Bin.Hybrid optimized algorithms based on the Rosenbrock search method and dynamic inertia weight PSO[J].Control and Decision,2011,26(7):1060-1064.

附中文參考文獻(xiàn):

[3]唐凌蕓,毛力,周長(zhǎng)喜.求解函數(shù)優(yōu)化問(wèn)題的改進(jìn)人工蜂群算法[J].計(jì)算機(jī)科學(xué)與探索,2015,9(7):854-860.

[13]龍文,趙東泉,徐松金.求解約束優(yōu)化問(wèn)題的改進(jìn)灰狼優(yōu)化算法[J].計(jì)算機(jī)應(yīng)用,2015,35(9):2590-2595.

[15]賈樹(shù)晉,杜斌.Rosenbrock搜索與動(dòng)態(tài)慣性權(quán)重粒子群混合優(yōu)化算法[J].控制與決策,2011,26(7):1060-1064.

WANG Min was born in 1978.He is an associate professor at Hunan Mechanical&Electrical Polytechnic.His research interests include intelligent optimization algorithm and evolutionary computation,etc.

王敏(1978—),男,湖南長(zhǎng)沙人,碩士,湖南機(jī)電職業(yè)技術(shù)學(xué)院副教授,主要研究領(lǐng)域?yàn)橹悄軆?yōu)化算法,進(jìn)化計(jì)算等。

TANG Mingzhu was born in 1983.He received the Ph.D.degree in control science and engineering from Central South university in 2011.Now he is a lecturer at Changsha University of Science&Engineering.His research interests include intelligent optimization algorithm and system simulation,etc.

唐明珠(1983—),男,湖南岳陽(yáng)人,2011年于中南大學(xué)控制科學(xué)與工程專業(yè)獲得博士學(xué)位,現(xiàn)為長(zhǎng)沙理工大學(xué)講師,主要研究領(lǐng)域?yàn)橹悄軆?yōu)化算法,系統(tǒng)仿真等。

Hybrid Grey Wolf OptimizationAlgorithm with Opposition-Based Learning*

WANG Min1,2+,TANG Mingzhu3
1.Department of Information Engineering,Hunan Mechanical&Electrical Polytechnic,Changsha 410151,China
2.School of Computer and Communication,Hunan University,Changsha 410082,China
3.School of Energy and Power Engineering,Changsha University of Science&Technology,Changsha 410114,China
+Corresponding author:E-mail:wangmin_7819@163.com

The standard grey wolf optimization(GWO)algorithm has a few disadvantages of slow convergence, low solving precision and high possibility of being trapped in local optimum.To overcome these disadvantages of GWO algorithm,this paper proposes a hybrid GWO(HGWO)algorithm based on opposition-based learning strategy and Rosenbrock local search method.In the proposed hybrid algorithm,opposition-based learning strategy is introduced to generate initial population,which strengthens the diversity of population.Rosenbrock local search method is applied to the current best individual,which improves the convergence speed and local search ability of GWO algorithm.Elite opposition-based learning approach is used to avoid premature convergence of GWO algorithm. The experimental results of 6 well-known benchmark functions show that the proposed HGWO algorithm has strong convergence and high precision.

grey wolf optimization algorithm;Rosenbrock search;opposition-based learning

10.3778/j.issn.1673-9418.1509052

A

TP301.6

*The National Natural Science Foundation of China under Grant No.61403046(國(guó)家自然科學(xué)基金);the Science and Technology Projects of Hunan Province under Grant No.2014FJ3051(湖南省科技計(jì)劃項(xiàng)目).

Received 2015-09,Accepted 2016-10.

CNKI網(wǎng)絡(luò)優(yōu)先出版:2016-10-31,http://www.cnki.net/kcms/detail/11.5602.TP.20161031.1650.004.html

WANG Min,TANG Minzhu.Hybrid grey wolf optimization algorithm with opposition-based learning.Journal of Frontiers of Computer Science and Technology,2017,11(4):673-680.

摘 要:針對(duì)標(biāo)準(zhǔn)灰狼優(yōu)化(grey wolf optimization,GWO)算法存在后期收斂速度慢,求解精度不高,易出現(xiàn)早熟收斂現(xiàn)象等問(wèn)題,提出了一種基于對(duì)立學(xué)習(xí)策略和Rosenbrock局部搜索的混合灰狼優(yōu)化(hybrid GWO,HGWO)算法。該算法首先采用對(duì)立學(xué)習(xí)策略取代隨機(jī)初始化生成初始種群,以保證群體的多樣性;然后對(duì)當(dāng)前群體中最優(yōu)個(gè)體進(jìn)行Rosenbrock局部搜索,以增強(qiáng)局部搜索能力和加快收斂速度;最后為了避免算法出現(xiàn)早熟收斂現(xiàn)象,利用精英對(duì)立學(xué)習(xí)方法產(chǎn)生精英對(duì)立個(gè)體。對(duì)6個(gè)標(biāo)準(zhǔn)測(cè)試函數(shù)進(jìn)行仿真實(shí)驗(yàn),并與其他算法進(jìn)行比較,結(jié)果表明,HGWO算法收斂速度快,求解精度高。

猜你喜歡
測(cè)試函數(shù)灰狼學(xué)習(xí)策略
解信賴域子問(wèn)題的多折線算法
基于自主學(xué)習(xí)策略的高中寫作教學(xué)探索
一種基于精英選擇和反向?qū)W習(xí)的分布估計(jì)算法
應(yīng)用型本科層次大學(xué)生網(wǎng)絡(luò)在線學(xué)習(xí)策略及實(shí)踐
灰狼和山羊
高三英語(yǔ)復(fù)習(xí)教學(xué)中的合作學(xué)習(xí)策略
基于自適應(yīng)調(diào)整權(quán)重和搜索策略的鯨魚(yú)優(yōu)化算法
谷谷雞和小灰狼
灰狼的大大噴嚏
具有收縮因子的自適應(yīng)鴿群算法用于函數(shù)優(yōu)化問(wèn)題
屯昌县| 安平县| 汶上县| 诸暨市| 沁水县| 东乡族自治县| 黄山市| 吴堡县| 青川县| 庄河市| 咸丰县| 环江| 石景山区| 十堰市| 昭平县| 察哈| 宜兰县| 阜平县| 根河市| 铁岭县| 花莲市| 平泉县| 平顺县| 同仁县| 祁连县| 乐都县| 高要市| 交口县| 泸水县| 鄢陵县| 旅游| 邵阳市| 建德市| 平凉市| 郴州市| 广河县| 淳安县| 湘阴县| 夹江县| 江陵县| 玉环县|