国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于ImageNet預(yù)訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)的圖像風(fēng)格遷移

2022-01-19 10:17趙衛(wèi)東施實(shí)偉
關(guān)鍵詞:卷積損失神經(jīng)網(wǎng)絡(luò)

趙衛(wèi)東,施實(shí)偉,周 嬋

(1.成都大學(xué) 計(jì)算機(jī)學(xué)院,四川 成都 610106;2.西南大學(xué) 教育學(xué)部,重慶 400715;3.西北師范大學(xué) 教育技術(shù)學(xué)院,甘肅 蘭州 730070)

0 引 言

隨著社會(huì)經(jīng)濟(jì)的不斷發(fā)展,人們對(duì)各類藝術(shù)作品有了更多的喜好和追求.相關(guān)應(yīng)用表明,圖像風(fēng)格遷移技術(shù)能夠?qū)⒏鞣N藝術(shù)畫作的風(fēng)格遷移到普通圖像中,從而能夠較為快速地生成不同藝術(shù)風(fēng)格的作品.目前,在實(shí)際的應(yīng)用場(chǎng)景中,人們可以通過(guò)利用如Prisma、Ostagram及Deep Forger等相關(guān)的應(yīng)用處理軟件,使作品實(shí)現(xiàn)圖像風(fēng)格遷移的效果[1].

圖像風(fēng)格遷移技術(shù)主要分為傳統(tǒng)風(fēng)格遷移技術(shù)和卷積神經(jīng)網(wǎng)絡(luò)風(fēng)格遷移技術(shù)2類.傳統(tǒng)的圖像風(fēng)格遷移技術(shù)主要通過(guò)分析特定風(fēng)格的圖像,并為其建立相應(yīng)的數(shù)學(xué)統(tǒng)計(jì)模型,其局限性主要體現(xiàn)在一個(gè)模型只能做特定風(fēng)格的轉(zhuǎn)換且難以提取圖像的高層抽象特征,使得其實(shí)際應(yīng)用場(chǎng)景非常有限.而隨著計(jì)算機(jī)視覺(jué)技術(shù)中深度學(xué)習(xí)技術(shù)的發(fā)展,借助卷積神經(jīng)網(wǎng)絡(luò)強(qiáng)大的特征提取能力,圖像風(fēng)格遷移技術(shù)已實(shí)現(xiàn)了突破性進(jìn)展[2].相關(guān)從業(yè)者可以借助該技術(shù),不再局限于建構(gòu)特定藝術(shù)風(fēng)格的數(shù)學(xué)統(tǒng)計(jì)模型,而可將更多的精力投入到新的藝術(shù)作品創(chuàng)作中去.

基于卷積神經(jīng)網(wǎng)絡(luò)技術(shù),圖像在進(jìn)行風(fēng)格遷移的過(guò)程中,需要將風(fēng)格圖像和內(nèi)容圖像作為卷積神經(jīng)網(wǎng)絡(luò)的2種輸入,并隨機(jī)初始化一張白噪聲圖像作為目標(biāo)圖像.與此同時(shí),還需要構(gòu)建風(fēng)格損失函數(shù)和內(nèi)容損失函數(shù),并將這2種損失函數(shù)結(jié)合起來(lái)作為總的損失函數(shù)來(lái)對(duì)卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行評(píng)估.此外,在網(wǎng)絡(luò)模型的訓(xùn)練過(guò)程中,還需要根據(jù)網(wǎng)絡(luò)模型所提取到的特征圖來(lái)計(jì)算損失,并通過(guò)不斷迭代訓(xùn)練來(lái)降低生成圖像的損失,從而得到理想的目標(biāo)圖像.基于此,本研究采用ImageNet[3]中預(yù)訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)來(lái)對(duì)風(fēng)格圖像和內(nèi)容圖像分別提取卷積層特征,并根據(jù)對(duì)風(fēng)格圖像和內(nèi)容圖像提取到的特征來(lái)生成風(fēng)格遷移的目標(biāo)圖像.同時(shí),網(wǎng)絡(luò)也會(huì)對(duì)隨機(jī)初始化生成的一張白噪聲目標(biāo)圖像并提取相同的特征,通過(guò)與風(fēng)格圖像和內(nèi)容圖像所提取的特征進(jìn)行對(duì)比,并通過(guò)融合風(fēng)格損失函數(shù)和內(nèi)容損失函數(shù)構(gòu)成整個(gè)模型的損失函數(shù),在不斷訓(xùn)練優(yōu)化后,生成最終所需要的目標(biāo)圖像.

1 ImageNet預(yù)訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)

1.1 ImageNet簡(jiǎn)介

事實(shí)上,ImageNet項(xiàng)目是一個(gè)巨大的可供視覺(jué)訓(xùn)練的大型可視化圖像庫(kù),旨在提供較為全面和多樣的圖像數(shù)據(jù).ImageNet就像一個(gè)網(wǎng)絡(luò),其擁有多個(gè)節(jié)點(diǎn),每一個(gè)節(jié)點(diǎn)相當(dāng)于一個(gè)類別,一個(gè)節(jié)點(diǎn)含有至少500個(gè)對(duì)應(yīng)物體的可供訓(xùn)練的圖像.

1.2 人工神經(jīng)網(wǎng)絡(luò)

神經(jīng)元是人工神經(jīng)網(wǎng)絡(luò)的基本處理單元,一般情況下其是多輸入單輸出的單元[4].一個(gè)神經(jīng)元可以接收n個(gè)輸入,x=(x1,x2…xn),并對(duì)應(yīng)n個(gè)權(quán)值,w=(w1,w2…wn),同時(shí),還有一個(gè)偏置項(xiàng)b.神經(jīng)元將所有輸入?yún)?shù)與對(duì)應(yīng)權(quán)值進(jìn)行加權(quán)求和,得到的結(jié)果經(jīng)過(guò)激活函數(shù)變換后進(jìn)行輸出,其計(jì)算式為,

y=f(w×x+b)

(1)

通常,人工神經(jīng)網(wǎng)絡(luò)由多個(gè)神經(jīng)元及其之間的連接構(gòu)成.通過(guò)學(xué)習(xí)訓(xùn)練,對(duì)網(wǎng)絡(luò)中的參數(shù)賦予不同權(quán)重值,使其對(duì)網(wǎng)絡(luò)輸出結(jié)果產(chǎn)生較大的影響.而實(shí)現(xiàn)這種權(quán)重的函數(shù)是一種非線性激活函數(shù),常用的激活函數(shù)有Sigmoid、Tanh及ReLu 等[5].此外,在神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)訓(xùn)練過(guò)程中,通過(guò)反向傳播算法得出的輸出結(jié)果,能夠進(jìn)行反向修改人工神經(jīng)網(wǎng)絡(luò)中的參數(shù),從而更大概率地輸出希望獲得的目標(biāo)結(jié)果.

1.3 卷積神經(jīng)網(wǎng)絡(luò)

卷積神經(jīng)網(wǎng)絡(luò)是人工神經(jīng)網(wǎng)絡(luò)的一種,其計(jì)算方式從輸入到輸出層層遞進(jìn),而訓(xùn)練時(shí)用反向神經(jīng)網(wǎng)絡(luò)進(jìn)行學(xué)習(xí),可使用在圖片的學(xué)習(xí)過(guò)程中.而連接的權(quán)重為待訓(xùn)練參數(shù),可通過(guò)反向傳播過(guò)程進(jìn)行訓(xùn)練調(diào)整.

卷積神經(jīng)網(wǎng)絡(luò)也是利用反向傳播算法在訓(xùn)練過(guò)程中,經(jīng)過(guò)網(wǎng)絡(luò)模型各層的計(jì)算后,對(duì)網(wǎng)絡(luò)權(quán)重進(jìn)行更新調(diào)整.卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)包含卷積層、池化層及全連接層等.其中,卷積層可以學(xué)習(xí)到圖像的特征;池化層在盡可能保留圖像特征的基礎(chǔ)上,可進(jìn)一步減少計(jì)算量,常用的池化方法包括最大池化和均值池化;全連接層中的每個(gè)神經(jīng)元與其前一層的所有神經(jīng)元進(jìn)行全連接,可以整合卷積層或者池化層中具有類別區(qū)分性的局部信息.

1.4 預(yù)訓(xùn)練網(wǎng)絡(luò)

一般而言,預(yù)訓(xùn)練可提供較好的模型初始化,這通常會(huì)帶來(lái)更好的泛化性能,并加速對(duì)目標(biāo)任務(wù)的收斂.預(yù)訓(xùn)練可以看成是一種正則化過(guò)程,以避免少量數(shù)據(jù)引起的過(guò)擬合現(xiàn)象,同時(shí)也可節(jié)約大量的時(shí)間成本去訓(xùn)練網(wǎng)絡(luò)模型.故本研究采用在ImageNet中預(yù)訓(xùn)練好的VGG-16和VGG-19 2種網(wǎng)絡(luò)模型完成對(duì)內(nèi)容圖像風(fēng)格的轉(zhuǎn)換.

VGG-16和VGG-19 模型都屬于經(jīng)典的VGG網(wǎng)絡(luò)模型,VGG-16網(wǎng)絡(luò)模型包含13 個(gè)Conv layer 卷積層與3 個(gè)fully connectedlayer全連接層,而VGG-19網(wǎng)絡(luò)模型則是16個(gè)Conv layer 卷積層與3 個(gè)fully connectedlayer全連接層[6].VGG網(wǎng)絡(luò)模型全部使用的是3×3的卷積核,網(wǎng)絡(luò)中還使用5個(gè)2×2的max pooling池化層進(jìn)行分割.

在實(shí)驗(yàn)中,本研究采用了VGG-16和VGG-19 2種在ImageNet中預(yù)訓(xùn)練好的網(wǎng)絡(luò)模型,其中VGG-16網(wǎng)絡(luò)模型的結(jié)構(gòu)如圖1所示.VGG-19網(wǎng)絡(luò)模型比VGG-16網(wǎng)絡(luò)模型多出來(lái)的3層卷積層,conv3_4、conv4_4及conv5_4,用紅色部分進(jìn)行了標(biāo)注,其結(jié)構(gòu)如圖2所示.

圖1 VGG-16網(wǎng)絡(luò)模型結(jié)構(gòu)圖

圖2 VGG-19網(wǎng)絡(luò)模型結(jié)構(gòu)圖

2 損失函數(shù)構(gòu)建

2.1 損失函數(shù)簡(jiǎn)介

卷積神經(jīng)網(wǎng)絡(luò)的反向傳播主要基于梯度下降方式向訓(xùn)練誤差減小的方向進(jìn)行調(diào)整,整個(gè)模型的訓(xùn)練目標(biāo)就是使得模型總損失函數(shù)的值實(shí)現(xiàn)最小化[7].損失函數(shù)能夠衡量當(dāng)前模型生成的圖像效果與預(yù)期效果之間的誤差,即損失函數(shù)的值越小,生成的目標(biāo)圖像效果就越好,而損失函數(shù)的值較大,其最終生成的目標(biāo)圖像的效果則會(huì)較差.通常,網(wǎng)絡(luò)模型在最開(kāi)始訓(xùn)練時(shí)的損失函數(shù)的值都會(huì)相對(duì)較大,對(duì)此,本研究通過(guò)使用Adam優(yōu)化算法[8]不斷在網(wǎng)絡(luò)模型訓(xùn)練的進(jìn)行過(guò)程中,逐漸降低損失函數(shù)的值,從而得到目標(biāo)圖像輸出效果較好的模型.

2.2 內(nèi)容損失函數(shù)

本研究采用的內(nèi)容損失函數(shù)[2]的計(jì)算式為,

(2)

2.3 風(fēng)格損失函數(shù)

圖像風(fēng)格的本質(zhì)是在各種空間尺度中圖像的紋理、顏色及視覺(jué)圖案等特征,而不同卷積核所提取到的圖像特征也不同.隨著網(wǎng)絡(luò)層數(shù)的深入,卷積核提取到的特征也會(huì)變得更加復(fù)雜和抽象.而深層網(wǎng)絡(luò)特征的提取也需要綜合底層網(wǎng)絡(luò)提取到的邊緣、形狀與顏色等信息.這些不同卷積層提取到特征結(jié)合起來(lái)才能表示圖像的風(fēng)格.

研究表明,Gram 矩陣可計(jì)算在卷積過(guò)程中多維特征圖下不同維度之間特征向量的相關(guān)性,其可將目標(biāo)圖像和風(fēng)格圖像的差異進(jìn)行量化,并把圖像特征之間隱藏的聯(lián)系提取出來(lái),即各個(gè)特征向量之間的相關(guān)程度[2].如果2個(gè)圖像的特征向量的Gram矩陣的差異較小,就可以認(rèn)定這2個(gè)圖像的風(fēng)格是相近的.利用Gram矩陣計(jì)算風(fēng)格圖像的紋理等特征信息的計(jì)算式為,

(3)

在第l層中,卷積特征的通道數(shù)為Nl,卷積的高與寬的乘積為Ml,對(duì)應(yīng)第l層的Gram矩陣分別為Al和Gl,則第l層的總損失[2]的計(jì)算式為,

(4)

(5)

2.4 總損失函數(shù)

本研究的網(wǎng)絡(luò)模型總損失函數(shù)是由內(nèi)容損失函數(shù)和風(fēng)格損失函數(shù)進(jìn)行加權(quán)求和而成,其中α和β2個(gè)超參數(shù)是用來(lái)調(diào)整內(nèi)容損失函數(shù)和風(fēng)格損失函數(shù)在總損失函數(shù)中各自權(quán)重的比重,其目的是實(shí)現(xiàn)調(diào)整目標(biāo)圖像的風(fēng)格轉(zhuǎn)換程度更接近于內(nèi)容還是更接近于風(fēng)格[9].總損失函數(shù)的計(jì)算式為,

(6)

3 實(shí)驗(yàn)與結(jié)果

3.1 實(shí)驗(yàn)環(huán)境

本研究的實(shí)驗(yàn)運(yùn)行環(huán)境為python3.7、tesorflow2.3和cuda10.2,實(shí)驗(yàn)硬件平臺(tái)為Intel(R)Core(TM)i7-8700K CPU ,主頻為3.70 GHz,內(nèi)存為16 GB.其中,為本實(shí)驗(yàn)提供計(jì)算資源的是NVIDIA GeForce GTX 1080Ti GPU,使用cuda10.2作為GPU計(jì)算平臺(tái)的底層加速框架.實(shí)驗(yàn)測(cè)試表明,此架構(gòu)為網(wǎng)絡(luò)模型的優(yōu)化過(guò)程節(jié)省了大量的計(jì)算時(shí)間.

3.2 數(shù)據(jù)預(yù)處理

首先,在網(wǎng)絡(luò)進(jìn)行訓(xùn)練之前,將內(nèi)容圖像、風(fēng)格圖像及隨機(jī)初始化白噪聲圖像的寬度修改為450 px,高度修改為300 px,圖像默認(rèn)通道數(shù)為3.因?yàn)楸緦?shí)驗(yàn)中訓(xùn)練權(quán)重使用的是ImageNet數(shù)據(jù)集上的平均值與標(biāo)準(zhǔn)差,所以在對(duì)輸入圖像進(jìn)行歸一化處理時(shí),也使用相同的值.

3.3 實(shí)驗(yàn)過(guò)程

本實(shí)驗(yàn)采用4幅不同的原始風(fēng)格圖像與2幅不同的原始內(nèi)容圖像,具體如圖3、圖4所示.

圖3 4幅不同的原始風(fēng)格圖像

圖4 2幅不同的原始內(nèi)容圖像

實(shí)驗(yàn)選擇在ImageNet中預(yù)訓(xùn)練好的VGG-16網(wǎng)絡(luò)模型與VGG-19網(wǎng)絡(luò)模型對(duì)圖像特征進(jìn)行提取,同時(shí)舍棄其中的全連接層,Adma作為優(yōu)化器,使用@tf.function修飾符,將訓(xùn)練過(guò)程轉(zhuǎn)化為圖執(zhí)行模式,從而加快訓(xùn)練速度.因?yàn)棣僚cβ2個(gè)參數(shù)是用來(lái)調(diào)整目標(biāo)圖像效果更接近于內(nèi)容還是更接近于風(fēng)格,所以本研究分別對(duì)α/β為10-1、10-2與10-3進(jìn)行了測(cè)試.

在計(jì)算過(guò)程中,由于收斂速度趨勢(shì)的重復(fù)性較高,故選取VGG-16網(wǎng)絡(luò)模型與VGG-19網(wǎng)絡(luò)模型在圖3(a)與圖4(e),且α與β參數(shù)比值不同情況下模型的訓(xùn)練過(guò)程進(jìn)行展示,模型總損失值(loss value)隨迭代次數(shù)(epoch)的收斂過(guò)程如圖5所示.

圖5 VGG-16網(wǎng)絡(luò)模型與VGG-19網(wǎng)絡(luò)模型在圖3(a)與圖4(e)且α與β權(quán)重比值不同情況下的訓(xùn)練過(guò)程結(jié)果

本研究根據(jù)收斂速度與損失值,最終將α/β的參數(shù)比設(shè)定為10-1,其余參數(shù)設(shè)置見(jiàn)表1.

表1 VGG-16網(wǎng)絡(luò)模型與VGG-19網(wǎng)絡(luò)模型訓(xùn)練參數(shù)設(shè)置

在實(shí)驗(yàn)測(cè)試中,使用VGG-16網(wǎng)絡(luò)模型與VGG-19網(wǎng)絡(luò)模型提取圖像特征,其損失值都能夠快速達(dá)到收斂,并且都能得到效果較為不錯(cuò)的目標(biāo)圖像.同時(shí),將2種網(wǎng)絡(luò)模型在不同迭代次數(shù)生成的目標(biāo)圖像進(jìn)行對(duì)比,結(jié)果如下:

1)當(dāng)原始內(nèi)容圖為(e)時(shí),與4幅不同的原始風(fēng)格圖像(a)、(b)、(c)與(d)進(jìn)行結(jié)合,選取第100、1 000、10 000次迭代生成的目標(biāo)圖像,結(jié)果如圖6所示.

圖6 原始內(nèi)容圖(e)生成的不同風(fēng)格目標(biāo)圖像

2)當(dāng)原始內(nèi)容圖為(f)時(shí),與4種不同的原始風(fēng)格圖像(a)、(b)、(c)與(d)進(jìn)行結(jié)合,選取第100、1 000、10 000次迭代生成的目標(biāo)圖像,結(jié)果如圖7所示.

圖7 原始內(nèi)容圖(f)生成的不同風(fēng)格目標(biāo)圖像

3.4 結(jié)果分析

為了將內(nèi)容圖像(e)、(f)與4幅不同風(fēng)格圖像(a)、(b)、(c)與(d)在VGG-16與VGG-19 2種在ImageNet預(yù)訓(xùn)練好的網(wǎng)絡(luò)模型生成的目標(biāo)圖像效果進(jìn)行量化評(píng)價(jià),本研究將實(shí)驗(yàn)過(guò)程中2種網(wǎng)絡(luò)模型的總損失值進(jìn)行了輸出,結(jié)果如表2所示.

表2 內(nèi)容圖像與不同風(fēng)格圖在VGG-16網(wǎng)絡(luò)模型與VGG-19網(wǎng)絡(luò)模型迭代10 000次時(shí)的損失值

由表2數(shù)據(jù)可以看出,風(fēng)格圖像(b)和內(nèi)容圖像(e)、(f)的結(jié)合,經(jīng)過(guò)10 000次迭代后,風(fēng)格圖像(b)使用2種預(yù)訓(xùn)練的網(wǎng)絡(luò)模型與不同的內(nèi)容圖像進(jìn)行結(jié)合后損失值最小的.因此,相同的網(wǎng)絡(luò)模型下,影響最終生成的目標(biāo)圖像效果也與原始風(fēng)格圖像自身的藝術(shù)紋理特征相關(guān).而從2種不同類型的預(yù)訓(xùn)練網(wǎng)絡(luò)模型對(duì)比來(lái)看,VGG-16網(wǎng)絡(luò)模型的總體損失值都比VGG-19網(wǎng)絡(luò)模型低,反映在最終生成的目標(biāo)圖像的效果上也是使用預(yù)訓(xùn)練模型為VGG-16的網(wǎng)絡(luò)模型更好.

同時(shí),由圖6與圖7中第1 000次迭代生成的目標(biāo)圖像可以看出,在訓(xùn)練過(guò)程中,VGG-16網(wǎng)絡(luò)模型生成的目標(biāo)圖像能夠更快地接近原始風(fēng)格圖像的風(fēng)格特征.反映在對(duì)應(yīng)圖中的損失值可視化效果圖中,VGG-16網(wǎng)絡(luò)模型達(dá)到收斂的速度快于VGG-19網(wǎng)絡(luò)模型,即在相同的迭代次數(shù)和相同的原始內(nèi)容圖像與原始風(fēng)格圖像情況下,VGG-16網(wǎng)絡(luò)模型的風(fēng)格遷移效果較VGG-19網(wǎng)絡(luò)模型具有更為豐富的風(fēng)格圖像細(xì)節(jié)特征.

此外,由于卷積神經(jīng)網(wǎng)絡(luò)采用的是ImageNet中預(yù)訓(xùn)練好的模型,所以在訓(xùn)練過(guò)程中直接通過(guò)tf.keras.applications加載預(yù)訓(xùn)練模型即可,其中最為重要的工作是進(jìn)行損失函數(shù)的構(gòu)建與模型總損失值進(jìn)行不斷優(yōu)化.最終2種網(wǎng)絡(luò)模型都達(dá)到收斂之后,在α/β參數(shù)比為10-1的基礎(chǔ)上,2種網(wǎng)絡(luò)模型生成的目標(biāo)圖像都具有不錯(cuò)的風(fēng)格遷移效果.

4 結(jié) 論

本研究通過(guò)使用基于ImageNet中預(yù)訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)VGG-16網(wǎng)絡(luò)模型與VGG-19網(wǎng)絡(luò)模型,實(shí)現(xiàn)了對(duì)原始內(nèi)容圖像的風(fēng)格遷移,通過(guò)使用了2幅不同的原始內(nèi)容圖像和4幅不同的原始風(fēng)格圖像對(duì)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,同時(shí),分析了不同的網(wǎng)絡(luò)模型在保持各項(xiàng)訓(xùn)練參數(shù)與權(quán)重相同的情況下,生成目標(biāo)圖像過(guò)程的差異性.

實(shí)驗(yàn)結(jié)果表明,基于ImageNet中預(yù)訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò),利用深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)的特征提取能力與Gram矩陣計(jì)算圖像風(fēng)格差異,并基于現(xiàn)有圖像風(fēng)格進(jìn)行藝術(shù)創(chuàng)作過(guò)程中,具有節(jié)省訓(xùn)練時(shí)間,從而更高效地推廣應(yīng)用等更多的優(yōu)勢(shì),促進(jìn)了計(jì)算機(jī)視覺(jué)技術(shù)在不同的領(lǐng)域的實(shí)際應(yīng)用與發(fā)展.事實(shí)上,除了在專業(yè)的影視娛樂(lè)與游戲設(shè)計(jì)等領(lǐng)域外,在用戶的日常創(chuàng)作場(chǎng)景中,圖像風(fēng)格遷移技術(shù)也擁有廣泛的具體應(yīng)用前景.

此外,針對(duì)圖像風(fēng)格遷移算法,如果使用生成對(duì)抗網(wǎng)絡(luò)(generative adversarial networks,GAN)[10]完成這項(xiàng)工作或許會(huì)有令人驚艷的效果.因?yàn)樵贕AN中,可以使用多個(gè)判別器分別來(lái)約束圖像風(fēng)格、圖像結(jié)構(gòu)和圖像細(xì)節(jié)等要素.這項(xiàng)工作有待今后去做更多的探究與驗(yàn)證.同時(shí),在人工智能教學(xué)課程中,以本實(shí)驗(yàn)項(xiàng)目為基礎(chǔ)單元,將GAN用于風(fēng)格遷移項(xiàng)目可以作為學(xué)習(xí)者后一個(gè)單元的學(xué)習(xí)材料,從而在人工智能教學(xué)過(guò)程中使得學(xué)習(xí)者能夠更好地掌握相關(guān)知識(shí).此外,另一個(gè)值得探究的問(wèn)題是,通過(guò)計(jì)算機(jī)技術(shù)生成的藝術(shù)作品是否具有美學(xué)與藝術(shù)價(jià)值,以及其評(píng)價(jià)指標(biāo)與體系如何構(gòu)建等相關(guān)問(wèn)題,也是未來(lái)人工智能技術(shù)應(yīng)用于藝術(shù)創(chuàng)作領(lǐng)域亟待思考的重要課題.

猜你喜歡
卷積損失神經(jīng)網(wǎng)絡(luò)
洪澇造成孟加拉損失25.4萬(wàn)噸大米
基于全卷積神經(jīng)網(wǎng)絡(luò)的豬背膘厚快速準(zhǔn)確測(cè)定
基于神經(jīng)網(wǎng)絡(luò)的船舶電力系統(tǒng)故障診斷方法
MIV-PSO-BP神經(jīng)網(wǎng)絡(luò)用戶熱負(fù)荷預(yù)測(cè)
基于改進(jìn)Hopfield神經(jīng)網(wǎng)絡(luò)的對(duì)地攻擊型無(wú)人機(jī)自主能力評(píng)價(jià)
一種基于卷積神經(jīng)網(wǎng)絡(luò)的地磁基準(zhǔn)圖構(gòu)建方法
基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
一種并行不對(duì)稱空洞卷積模塊①
兩敗俱傷
基于神經(jīng)網(wǎng)絡(luò)的中小學(xué)生情感分析