国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

AIGC 技術(shù)在人工智能電影創(chuàng)作中的應(yīng)用策略研究

2023-10-10 01:35:20陳焱松
現(xiàn)代電影技術(shù) 2023年9期
關(guān)鍵詞:人工智能智能

陳焱松

北京師范大學(xué)藝術(shù)與傳媒學(xué)院,北京 100875

1 人工智能電影的概念

在人工智能(AI)及其相關(guān)支撐技術(shù)不斷發(fā)展迭代的當(dāng)下,人工智能電影(Artificial Intelligence Film)成為一種對(duì)電影未來(lái)形態(tài)的想象,成為一種“由來(lái)已久卻又不斷生出新增內(nèi)容的動(dòng)態(tài)指涉”[1]。在這個(gè)指涉過程中,人工智能電影實(shí)際上不斷與人工智能技術(shù)進(jìn)行耦合關(guān)系建構(gòu),并呈現(xiàn)出內(nèi)涵與外延的復(fù)雜樣態(tài)。

目前學(xué)界對(duì)于人工智能電影的概念定義往往從兩個(gè)維度進(jìn)行界定,一方面是作為電影的人工智能,即電影敘事內(nèi)容以人工智能為題材,涉及到了數(shù)字人角色、科幻母題探討、AI 主導(dǎo)社會(huì)形態(tài)等多個(gè)層面,諸如《大都會(huì)》(Metropolis,1927)、《2001:太空漫游》(2001: A Space Odyssey,1968)、《銀翼殺手》(Blade Runner,1982)、《人工智能》(Artificial Intelli-gence:AI,2001),《她》(Her,2013)等都展現(xiàn)了人工智能要素對(duì)于電影藝術(shù)的參與式滲透。另一方面則是作為人工智能的電影,即人工智能技術(shù)參與到電影創(chuàng)作形式與流程中,“由人工智能算法自動(dòng)生成劇本或輔助完成視聽工作流程的電影”[2]。

學(xué)者李巖認(rèn)為,作為人工智能的電影大致分為兩種形式,一種是人類僅提供訓(xùn)練模型和初始調(diào)參,由算法獨(dú)立自行完成的影像作品,另一種是以提升影像制作的生產(chǎn)力或創(chuàng)造力為目標(biāo),由人類作者以AI 算法為工具而完成的影像作品[2]。兩種邏輯都彰顯出人工智能生成方式對(duì)于電影的藝術(shù)介入,只是在創(chuàng)作的獨(dú)立性和輔助性程度上有所區(qū)別。因此,作為人工智能的電影,其核心是針對(duì)人工智能生成方式的探討,也就是說本文所提出的“人工智能電影”實(shí)際上是對(duì)“作為人工智能的電影”的統(tǒng)一稱謂。

2 AIGC 技術(shù)發(fā)展對(duì)于電影創(chuàng)作的影響

2.1 人工智能技術(shù)發(fā)展的四個(gè)階段

人工智能概念自1956 年在達(dá)特茅斯會(huì)議被首次提出之后,逐漸成為一門涉及廣泛的計(jì)算機(jī)交叉學(xué)科及前沿科學(xué),但其核心意旨仍然是讓作為機(jī)器的計(jì)算機(jī)能夠像人一樣思考。在人工智能的發(fā)展歷程中,這種思考路徑不斷迭代更新,主要表現(xiàn)為四個(gè)重要階段。

第一階段為早期發(fā)展時(shí)期,出現(xiàn)在20 世紀(jì)50 年代中期至60 年代末期,聚焦于將邏輯推理能力賦予計(jì)算機(jī)系統(tǒng),出現(xiàn)了包括機(jī)器定理證明、跳棋程序、表處理語(yǔ)言(List Processing,LISP)等一系列內(nèi)容;第二階段為知識(shí)工程時(shí)期,出現(xiàn)在20 世紀(jì)70 年代初期至80年代末期,聚焦于知識(shí)表達(dá)的應(yīng)用問題,由此出現(xiàn)模擬人類專家的知識(shí)和經(jīng)驗(yàn)解決特定領(lǐng)域問題的專家系統(tǒng),同時(shí)也提出了卷積神經(jīng)網(wǎng)絡(luò)(CNN),促使人工智能技術(shù)進(jìn)一步走向?qū)嵱没?;第三階段為機(jī)器學(xué)習(xí)(ML)時(shí)期,出現(xiàn)在20 世紀(jì)90 年代至21 世紀(jì)初期,聚焦于利用計(jì)算機(jī)對(duì)數(shù)據(jù)進(jìn)行分析的理論和方法,利用經(jīng)驗(yàn)改善系統(tǒng)自身的能力,出現(xiàn)了監(jiān)督學(xué)習(xí)(Supervised Learning,SL)、無(wú)監(jiān)督學(xué)習(xí)(Unsupervised Learning,UL)、強(qiáng)化學(xué)習(xí)(Reinforcement Learning,RL)等眾多理論,進(jìn)而出現(xiàn)包括1997 年IBM 深藍(lán)超級(jí)計(jì)算機(jī)戰(zhàn)勝了國(guó)際象棋世界冠軍卡斯帕羅夫在內(nèi)的一系列標(biāo)志性事件;第四階段為深度學(xué)習(xí)(DL)時(shí)期,出現(xiàn)在2010年至今,伴隨大數(shù)據(jù)、云計(jì)算、互聯(lián)網(wǎng)、物聯(lián)網(wǎng)等信息技術(shù)發(fā)展及泛在感知數(shù)據(jù)和圖形處理器等計(jì)算平臺(tái)的推動(dòng),以深度神經(jīng)網(wǎng)絡(luò)(DNN)為代表的人工智能技術(shù)飛速發(fā)展,大幅跨越了科學(xué)與應(yīng)用之間的“技術(shù)鴻溝”。

其中,所謂的深度神經(jīng)網(wǎng)絡(luò)的計(jì)算過程一般是從最左側(cè)的輸入層開始,從左往右計(jì)算,逐層向前直到最右側(cè)的輸出層產(chǎn)生運(yùn)算結(jié)果。如果結(jié)果值和目標(biāo)值有差距,再?gòu)挠彝笏?,逐層向后?jì)算每個(gè)節(jié)點(diǎn)的誤差,并且調(diào)整每個(gè)節(jié)點(diǎn)的所有權(quán)重,反向到達(dá)輸入層后,又重新向前計(jì)算,重復(fù)迭代以上步驟,直到所有權(quán)重參數(shù)收斂到一個(gè)合理值。如圖1 展現(xiàn)出深度神經(jīng)網(wǎng)絡(luò)的運(yùn)行機(jī)制,在人臉識(shí)別任務(wù)中對(duì)于不同層級(jí)的神經(jīng)網(wǎng)絡(luò)對(duì)圖像信息的抽取差異,即當(dāng)輸入海量的人臉數(shù)據(jù)集之后,底層網(wǎng)絡(luò)主要是對(duì)圖像中局部紋理進(jìn)行捕捉,而隨著層數(shù)的遞增,模型開始根據(jù)下層收集到的紋理信息對(duì)人臉中的局部結(jié)構(gòu)(如眼睛、耳朵等)進(jìn)行建模,而頂層將綜合上述局部特征對(duì)人臉在圖像中的位置進(jìn)行確定,最終達(dá)成人臉識(shí)別的目的。

圖1 深度神經(jīng)網(wǎng)絡(luò)的運(yùn)行機(jī)制①

2.2 從決策式AI、分析式AI 到生成式AI 的模式轉(zhuǎn)向

在經(jīng)歷早期發(fā)展時(shí)期、知識(shí)系統(tǒng)時(shí)期、機(jī)器學(xué)習(xí)時(shí)期、深度學(xué)習(xí)時(shí)期四個(gè)階段之后,人工智能的重點(diǎn)研究領(lǐng)域完成了從決策式AI、分析式AI 到生成式AI的轉(zhuǎn)變。所謂的人工智能生成內(nèi)容(Artificial Intelligence Generated Content,AIGC)即是指通過人工智能方法生成文本、圖像、音頻、視頻等多媒體內(nèi)容,也是當(dāng)前深度學(xué)習(xí)領(lǐng)域最熱門的方向之一。

從技術(shù)本源來(lái)看,AIGC 技術(shù)主要分為基于規(guī)則與基于學(xué)習(xí)兩大角度。其中,基于規(guī)則的AIGC 是指使用預(yù)先定義好的規(guī)則和邏輯來(lái)生成內(nèi)容,如語(yǔ)法、句型、結(jié)構(gòu)等,它們通常需要人為設(shè)定參數(shù)和約束,以保證內(nèi)容的合理性和一致性?;趯W(xué)習(xí)的AIGC則是指使用機(jī)器學(xué)習(xí)(ML)算法來(lái)從大量的數(shù)據(jù)中學(xué)習(xí)和提取特征和規(guī)律,然后根據(jù)這些特征和規(guī)律來(lái)生成內(nèi)容。這種技術(shù)通常不需要人為地設(shè)定參數(shù)和約束,而是依賴于數(shù)據(jù)的質(zhì)量和數(shù)量。

一般而言,之前的決策式AI 或分析式AI 是針對(duì)學(xué)習(xí)數(shù)據(jù)中的條件概率分布,針對(duì)已有數(shù)據(jù)進(jìn)行分析、判斷、預(yù)測(cè),主要應(yīng)用于物體識(shí)別、文本翻譯、智能推薦、自動(dòng)駕駛等領(lǐng)域;而生成式AI 與其他類型AI 的主要區(qū)別在于其不僅能夠?qū)σ延械臄?shù)據(jù)進(jìn)行分析、判斷、決策,還更加強(qiáng)調(diào)學(xué)習(xí)歸納之后進(jìn)行演繹創(chuàng)造,并生成全新內(nèi)容的過程,即學(xué)習(xí)數(shù)據(jù)中的聯(lián)合概率分布,主要是基于歷史進(jìn)行模仿式、縫合式創(chuàng)作。

2.3 AIGC 技術(shù)視野下的電影創(chuàng)作

《科學(xué)》雜志在總結(jié)2022 年的年度突破時(shí),將AIGC 技術(shù)與“黃金眼”空間望遠(yuǎn)鏡(Golden Eye)、巨型細(xì)胞(A surprisingly massive microbe)等成果列入榜單,并重點(diǎn)提出了AI 開始入侵曾經(jīng)被認(rèn)為是人類獨(dú)有的領(lǐng)域,一個(gè)是藝術(shù)表達(dá),一個(gè)是科學(xué)發(fā)現(xiàn)[3]。

從藝術(shù)表達(dá)的角度來(lái)看,早在1957 年,萊杰倫·希勒(Lejaren Hiller)和倫納德·艾薩克森(Leonard Isaacson)就完成了歷史上第一支由計(jì)算機(jī)創(chuàng)作的弦樂四重奏《伊利亞克組曲》(Illiac Suite)。此后,繼用戶生成內(nèi)容(UGC)、專業(yè)生產(chǎn)內(nèi)容(PGC)之后,AIGC成為AI 藝術(shù)創(chuàng)作領(lǐng)域的核心,它在機(jī)器學(xué)習(xí)(ML)模型的基礎(chǔ)上,根據(jù)一定的訓(xùn)練集從而創(chuàng)建全新的輸出內(nèi)容,就像人類創(chuàng)建新的事物一樣,可用于包括音頻、代碼、圖像、文本和視頻等內(nèi)容創(chuàng)作領(lǐng)域。作為涵蓋文本、圖像、音頻、視頻的綜合性藝術(shù),電影也成為了AIGC 可拓展的全新領(lǐng)域。

(1)橫向影響:文本、圖像與視頻

從橫向?qū)Ρ葋?lái)看,AIGC 技術(shù)目前對(duì)于文本、圖像等單一領(lǐng)域展現(xiàn)出巨大的藝術(shù)潛質(zhì),但對(duì)于視頻領(lǐng)域(尤其是電影創(chuàng)作領(lǐng)域)的介入仍然處在技術(shù)迭代發(fā)展的進(jìn)程中,而市面上現(xiàn)存的視頻解決方案還具有一定的局限性。例如,Runway 的GEN-1 在視頻生成視頻(Video-to-Video)的過程中,前景人物的動(dòng)作時(shí)常影響背景場(chǎng)景的連續(xù)性,GEN-2 在文本生成視頻(Text-to-Video)的模型下僅能通過文字提示詞和單一圖像來(lái)進(jìn)行限定,仍然缺乏一定的可控性。其中,《瞬息全宇宙》(Everything Everywhere All at Once,2022)中運(yùn)用Runway 生成超現(xiàn)實(shí)的場(chǎng)景實(shí)際上是通過簡(jiǎn)單的跳接場(chǎng)景來(lái)規(guī)避了連續(xù)性和可控性的問題。又如,Stable Diffusion 通過包括ControlNet編輯器、Deforum 插件、mov2mov 插件、TemporalKit+EbSynth 流程完成從靜幀圖片到動(dòng)態(tài)影像的生成,但是其畫面閃爍、人臉失真等問題仍然明顯。再如于6月30 日正式全面開放的Wonder Studio 則是提取了視頻中的人物動(dòng)作,同時(shí)進(jìn)行摳像并合成為CG 畫面,甚至新功能可以將提取的動(dòng)作導(dǎo)入至渲染引擎軟件中進(jìn)行再處理,但它只針對(duì)動(dòng)態(tài)人物,對(duì)于場(chǎng)景的生成作用不大。

(2)縱向影響:從工具思維到創(chuàng)作思維

從縱向衍生來(lái)看,AIGC 對(duì)電影的介入則呈現(xiàn)出從工具思維到創(chuàng)作思維的轉(zhuǎn)向。AIGC 在其發(fā)展初期往往被運(yùn)用在電影創(chuàng)作領(lǐng)域的周圍,包括分析現(xiàn)有腳本的大型數(shù)據(jù)集,使用該數(shù)據(jù)生成新的原創(chuàng)故事,從而節(jié)省時(shí)間和資源;通過AI換臉、換聲、分鏡制作、數(shù)字人模擬虛擬角色等操作,降低拍攝風(fēng)險(xiǎn),提高內(nèi)容觀賞性;分析演員的過往表現(xiàn)數(shù)據(jù)及社交媒體活動(dòng),以提高選角決策的準(zhǔn)確性和效率等。這種對(duì)于電影領(lǐng)域的介入是典型的工具思維,直到以Transformer 大模型為基礎(chǔ)的新一波AIGC 技術(shù)發(fā)展浪潮的到來(lái),人工智能電影制作的概念才從單純的工具層面走入藝術(shù)創(chuàng)作層面。

3 AIGC 技術(shù)視野下人工智能電影的應(yīng)用策略分析

盡管目前AIGC 對(duì)于視頻影像的解決方案存在一定局限性,人工智能電影還處于一個(gè)相對(duì)新興和探索的階段,還沒有出現(xiàn)太多的商業(yè)化或廣泛流行的例子。但是,一些實(shí)驗(yàn)性或創(chuàng)新性作品的出現(xiàn),展示了AIGC 技術(shù)在人工智能電影創(chuàng)作中的可能性和潛力。正如電影評(píng)論者納文·喬希(Naveen Joshi)認(rèn)為,電影行業(yè)為人工智能技術(shù)的實(shí)際應(yīng)用準(zhǔn)備了六個(gè)基本入口,按照傳統(tǒng)的電影創(chuàng)制流程,分別為劇作腳本輸出、前期制作的簡(jiǎn)化輔助、選角、配樂編曲、剪輯、后期宣傳[4]。面向未來(lái),在AIGC 及其支持技術(shù)不斷發(fā)展的當(dāng)下,人工智能電影也呈現(xiàn)出多樣化的創(chuàng)作應(yīng)用邏輯與策略。

3.1 以風(fēng)格化驅(qū)動(dòng)的空間生成策略

就目前通用的AI 視頻生成技術(shù)來(lái)看,較好的生成式視頻模型仍然也只能生成幾秒鐘的內(nèi)容,因而導(dǎo)致目前人工智能影片呈現(xiàn)出靜止圖像堆疊、簡(jiǎn)單視頻混剪、視聽語(yǔ)言抽象的風(fēng)格趨勢(shì)。因此從更廣闊的技術(shù)發(fā)展角度來(lái)看,人工智能電影的藝術(shù)創(chuàng)作可能性并不能放置在現(xiàn)有階段淺層的“輔助性創(chuàng)作”之中,而是應(yīng)該進(jìn)入深層次的“風(fēng)格化創(chuàng)作”邏輯。一般而言,AIGC 技術(shù)視野下人工智能電影的風(fēng)格化驅(qū)動(dòng)的核心在于空間生成,即同時(shí)呈現(xiàn)出離線渲染(Pre-rendering)、實(shí)時(shí)渲染(Real-time Rendering)[5]兩種思維模式。

(1)離線渲染的邏輯

從離線渲染的角度,人工智能電影的本體仍然是傳統(tǒng)電影,即同樣受到視覺畫框、時(shí)間剪輯、空間切換等影像美學(xué)邏輯的影響。例如,Netflix 與小冰公司日本分部(Rinna)、WIT STUDIO 共同創(chuàng)作的《犬與少年》是AIGC 技術(shù)輔助商業(yè)化動(dòng)畫片的首個(gè)發(fā)行級(jí)別作品。該作品采用了一種名為“原始人工智能”的定制系統(tǒng)進(jìn)行該片的背景繪制,在協(xié)作式的背景藝術(shù)創(chuàng)作過程中,動(dòng)畫師向AI系統(tǒng)提供提示和布局,接著AI 生成相應(yīng)的圖像,最后由動(dòng)畫師加以調(diào)整并與其他元素融合,最終這一迭代過程為團(tuán)隊(duì)提供了實(shí)現(xiàn)動(dòng)畫中所需場(chǎng)景外觀和感覺的高效方式[6]。

格倫·馬歇爾(Glenn Marshall)創(chuàng)作的AI 電影《烏鴉》(The Crow)(圖2)獲得2022 年“戛納短片電影節(jié)”(Cannes Short Film Festival)的最佳短片獎(jiǎng)。作品通過將舞蹈短片《Painted》輸入OpenAI 創(chuàng)建的神經(jīng)網(wǎng)絡(luò)CLIP 中,通過從文本映射到圖像的算法模型,生成一段“荒涼景觀中烏鴉”影像視頻[7]。該電影講述了一個(gè)舞者變成烏鴉的故事,觀眾跟隨烏鴉在由AI 生成的荒涼貧瘠的末世景觀中,觀看其短暫的舞蹈,直至其不可避免地消亡。

圖2 AI電影《烏鴉》劇照②

(2)實(shí)時(shí)渲染的邏輯

從實(shí)時(shí)渲染的角度,人工智能電影的本體呈現(xiàn)出影游融合的可能性,同時(shí)能夠更好地與VR 電影等新興形式相適應(yīng),由AIGC 技術(shù)實(shí)時(shí)生成電影場(chǎng)景,使得影像空間不再是固定的空間,而成為一種不斷增殖的空間。騰訊AI Lab 在2023 游戲開發(fā)者大會(huì)(Game Developers Conference)上展示了利用AIGC 技術(shù)的三維游戲場(chǎng)景自動(dòng)生成解決方案,從零開始迅速搭建一座3D 虛擬城市的過程,所建虛擬城市面積達(dá)到25 平方公里,包含13 萬(wàn)米路網(wǎng)、4416 棟建筑以及超過38 萬(wàn)個(gè)室內(nèi)映射[8]。按照游戲研究者的觀點(diǎn)來(lái)看,生成式場(chǎng)景填補(bǔ)了AIGC 三維內(nèi)容生成要素中的最后一環(huán)[9]。與三維模型內(nèi)容生成相似,生成式場(chǎng)景存在傳統(tǒng)Landscape 生成和神經(jīng)輻射場(chǎng)(Neural Radiance Fields,NeRF)生成兩條技術(shù)路線的差異。對(duì)于傳統(tǒng)Landscape 生成而言,多見由AI 生成顏色圖像繼而生成深度圖,進(jìn)而導(dǎo)入渲染引擎生成Landscape;對(duì)于NeRF 生成而言,英偉達(dá)(NVIDIA)和多倫多大學(xué)共同推出的NeuralField-LDM,使用神經(jīng)輻射場(chǎng)和生成模型,提供了復(fù)雜開放世界3D 場(chǎng)景的建模和編輯能力。

如圖3 所示,AIGC 電影作品《Given Again》由音樂人Jake Oleson 創(chuàng)作,作品描述了作者在父親去世后的混亂和沉思。作品所有序列都是完全使用Luma AI 的NeRF 技術(shù)創(chuàng)建的。在技術(shù)應(yīng)用程序中,可以輕松捕捉物體、風(fēng)景或整個(gè)場(chǎng)景,然后將其轉(zhuǎn)化為詳細(xì)的3D 環(huán)境。NeRF 技術(shù)是通過深度神經(jīng)網(wǎng)絡(luò)分析從不同角度拍攝的圖像或視頻,學(xué)習(xí)物體的底層3D 結(jié)構(gòu)。然后,機(jī)器通過預(yù)測(cè)3D 空間中每個(gè)點(diǎn)的顏色和外觀,即可合成高質(zhì)量、高精度的模型。

圖3 AIGC 電影作品《Given Again》截圖③

3.2 以代理性驅(qū)動(dòng)的智能角色策略

在AIGC 技術(shù)輔助下,人工智能電影中的人物可以不再是被規(guī)定的狀態(tài),而成為具備一定自我意識(shí)的生物體,即成為一個(gè)智能體角色(Agent)。例如,Hugging Face 研發(fā)人員Thomas Simonini 曾將語(yǔ)言模型GPT-3 接入到Unity 3D 中,讓AI 控制游戲非玩家角色(Non-player Character,NPC)直接與玩家語(yǔ)音對(duì)話;開發(fā)者Bloc 則為游戲《騎馬與砍殺2:霸主》(Mount & Blade Ⅱ: Bannerlord)加入了使用ChatGPT的MOD 模組,取代游戲原本NPC 的對(duì)話機(jī)制,讓玩家可以實(shí)時(shí)打字交互,而NPC 則會(huì)做出個(gè)性化回應(yīng),從而實(shí)現(xiàn)動(dòng)態(tài)回復(fù)。

(1)技術(shù)難點(diǎn):智能化程度與資源占用程度

就目前現(xiàn)有的生成式技術(shù)來(lái)說,智能體角色的實(shí)現(xiàn)擁有諸多難點(diǎn)。其一,從智能化程度來(lái)看,現(xiàn)有的基于AIGC 技術(shù)的智能體角色可能受到人類先驗(yàn)知識(shí)或者故有偏見的影響,并依賴于人類的專家知識(shí)及先驗(yàn)信息來(lái)定義和劃分角色,因此現(xiàn)存的智能體角色在面對(duì)新穎或者復(fù)雜的環(huán)境時(shí)缺乏靈活性或魯棒性。其二,從資源占用程度來(lái)看,智能體角色的實(shí)現(xiàn)需要大量額外的計(jì)算量與存儲(chǔ)資源進(jìn)行驅(qū)動(dòng),同時(shí)也需要更多的參數(shù)和模型進(jìn)行表示與學(xué)習(xí),因此需要引入一定的協(xié)調(diào)機(jī)制,包括降低多智能體任務(wù)的復(fù)雜度、將單一智能體功能劃分在不同角色上、減少智能體與智能體之間的沖突和干擾等,來(lái)維持角色與角色、角色與場(chǎng)景的一致性與平衡性,從而實(shí)現(xiàn)最優(yōu)的解決方案。

(2)AIGC 電影智能角色的建構(gòu)路徑:決策、記憶、行動(dòng)

正如游戲中的NPC 一樣,未來(lái)AIGC 電影中的智能體角色將具備決策、記憶、行動(dòng)等多維能力。其中,決策是底層能力,是電影智能角色通過對(duì)一定范圍內(nèi)的劇本背景、角色小傳等信息的輸入與學(xué)習(xí)所做出的反饋;記憶是中層能力,是電影智能角色對(duì)已發(fā)生、已經(jīng)歷的場(chǎng)景、人物、事件的搜集及調(diào)用;行動(dòng)則是電影智能角色基于其自身對(duì)于決策、記憶及其他信息的理解所最終做出的復(fù)雜行為。以下兩個(gè)案例實(shí)際上從不同的角度提出了對(duì)于未來(lái)AIGC 電影智能體角色的建構(gòu)路徑。

2023 年4 月,斯坦福大學(xué)及谷歌研究人員[10]創(chuàng)建出一個(gè)類似于《模擬人生》(The Sims)的微縮RPG 風(fēng)格的名為“Smallville”的二維虛擬世界,同時(shí)在其中架設(shè)了包括房屋、咖啡館、公園和雜貨店在內(nèi)的多種社會(huì)化場(chǎng)景,并以俯視的方式表現(xiàn)出來(lái)。此外,研究者同時(shí)利用社會(huì)互動(dòng)的大語(yǔ)言模型(Large Language Model,LLM)、ChatGPT API 及其他自定義代碼生成了25 個(gè)擁有獨(dú)立行為意識(shí)的代理角色,并使其以高度逼真的行為獨(dú)立生活。代理角色們會(huì)在醒來(lái)后承擔(dān)不同工作,甚至?xí)园l(fā)在小型社群中發(fā)起對(duì)話,提出自己的意見,并能夠不斷記住并思考過去的日子。

2023 年5 月,Wang 等[11]基于開放世界游戲《我的世界》(Minecraft)的既定框架,創(chuàng)設(shè)出一個(gè)由大語(yǔ)言模型(LLM)驅(qū)動(dòng)的具備終身學(xué)習(xí)能力的智能體角色。為了讓智能體VOYAGER 具有上述能力,研究者通過向GPT-4 輸入多種類型的提詞(Prompt)的方式,提出了三個(gè)關(guān)鍵組件。其一是自動(dòng)教程(Automatic Curriculum),以最大化智能體的探索;其二是技能代碼庫(kù)(Skills Library),用以存儲(chǔ)和檢索復(fù)雜行為;其三是迭代提示機(jī)制(Iterative Prompting Mechanism),能結(jié)合游戲反饋、執(zhí)行錯(cuò)誤和自我驗(yàn)證來(lái)改進(jìn)程序。

3.3 以涌現(xiàn)性驅(qū)動(dòng)的自動(dòng)事件策略

從應(yīng)用邏輯來(lái)看,自動(dòng)事件的建立需要基于前文所提到的生成式場(chǎng)景、智能體角色為技術(shù)基礎(chǔ),同時(shí)通過AIGC 技術(shù)生成自動(dòng)化事件,并與用戶進(jìn)行多維交互,從而驅(qū)動(dòng)人工智能電影的涌現(xiàn)屬性。喬治亞理工大學(xué)交互計(jì)算學(xué)院教授馬克·里德爾(Mark Riedl)在《人工智能故事生成導(dǎo)論》(An Introduction to AI Story Generation)一文中解釋了如何從“非機(jī)器學(xué)習(xí)型”的敘事系統(tǒng)到“基于機(jī)器學(xué)習(xí)”(尤其是其中的神經(jīng)網(wǎng)絡(luò)階段)敘事系統(tǒng)的轉(zhuǎn)向[12]。

一方面,所謂的“自動(dòng)事件”并不是利用AIGC 生成劇本的邏輯,而是不依賴于預(yù)先設(shè)計(jì)的劇本或情節(jié),由角色行為和互動(dòng)產(chǎn)生的電影劇情的涌現(xiàn)方法。在倫敦科幻電影節(jié)上映的電影《Sunspring》是一部由AI 編劇本杰明(Benjamin)撰寫,并由真人參與表演的作品。該片使用了ChatGPT 來(lái)根據(jù)一些關(guān)鍵詞生成劇本,講述了一個(gè)發(fā)生在未來(lái)失業(yè)橫行的世界里,三個(gè)年輕人之間復(fù)雜而詭異的愛情故事。盡管劇本所寫的每個(gè)句子都很完整,但是組合起來(lái)就顯示出邏輯的混亂。

另一方面,“自動(dòng)事件”也不是全要素生成電影敘事,而是在既定的邏輯框架下,探索AIGC 電影可能性的一種策略。正如馬里蘭大學(xué)計(jì)算機(jī)科學(xué)專業(yè)助理教授勞拉·馬?。↙ara Martin)等人建議采用GPT-2神經(jīng)語(yǔ)言大模型(目前已發(fā)展到GPT-4),并使用因果關(guān)系的推理來(lái)約束自動(dòng)化事件生成[13]。如圖4 所示,GPT 作為大語(yǔ)言模型(LLM),可以根據(jù)先前單詞符號(hào)的歷史,概率性地生成故事的后續(xù)。馬丁的系統(tǒng)會(huì)解析生成的后續(xù),并使用VerbNet 來(lái)推斷讀者對(duì)該句子的前提條件和影響會(huì)有什么認(rèn)識(shí)。如果后續(xù)句子的前提條件沒有得到故事中先前句子影響的支持,那后續(xù)句子就被拒絕。如果前提條件得到支持,那么該句子所產(chǎn)生的影響,就會(huì)更新一套描述世界的類似邏輯化的命題。這些命題之所以從VerbNet中提取,正是因?yàn)樗鼈兪腔谧x者從閱讀句子中可以推斷出的內(nèi)容,可以被認(rèn)為是一個(gè)簡(jiǎn)單的讀者模型(Reader Models)。通過追蹤這個(gè)假設(shè)性的讀者模型,這個(gè)系統(tǒng)就不太會(huì)再以對(duì)讀者沒有意義的方式,從一個(gè)事件過渡到另一個(gè)事件。④

圖4 勞拉·馬丁所提出的神經(jīng)符號(hào)性故事生成系統(tǒng)架構(gòu)⑤

正如中國(guó)電影家協(xié)會(huì)副主席、中國(guó)電影導(dǎo)演協(xié)會(huì)副會(huì)長(zhǎng)尹力在演講中所說的,“科技給電影插上翅膀,但無(wú)論如何,記錄時(shí)代、反映現(xiàn)實(shí),表達(dá)普通人的情感,永遠(yuǎn)是電影的希望所在”[14]。因此,以動(dòng)態(tài)故事文本、交互人物對(duì)話為特點(diǎn)的自動(dòng)化事件并不再是一種符號(hào)化故事,而是一種經(jīng)過良好組織的數(shù)據(jù)庫(kù)故事,尤其依賴于作者之前對(duì)于電影情節(jié)敘事這一系統(tǒng)的先驗(yàn)理解與認(rèn)知。

4 總結(jié)與展望

從Runway 舉辦AI 電影節(jié),到翠貝卡電影節(jié)開始關(guān)注AI 電影單元,人工智能電影在生成式AI技術(shù)加持下呈現(xiàn)出新的創(chuàng)作視野。本文旨在從更廣闊的技術(shù)發(fā)展角度著手,提出虛擬現(xiàn)實(shí)媒介是人工智能電影的適用媒介之一,并提出了以風(fēng)格化驅(qū)動(dòng)的空間生成策略、以代理性驅(qū)動(dòng)的智能角色策略、以涌現(xiàn)性驅(qū)動(dòng)的自動(dòng)事件策略,為AIGC 技術(shù)視野下人工智能電影的應(yīng)用邏輯提出新的創(chuàng)作可能性。

面向未來(lái),如何針對(duì)AIGC 大模型進(jìn)行基于特定內(nèi)容域的“微調(diào)”,成為AIGC 電影走入深度敘事的先決條件,也是提升AIGC 電影準(zhǔn)確度與藝術(shù)性的重要前提。人工智能電影必將逐步解決敘事節(jié)奏的隨機(jī)性及缺乏人類獨(dú)特的生物性情感構(gòu)建等顯性問題,并在AIGC 的多模態(tài)工具支持下,呈現(xiàn)出更加多樣化的創(chuàng)作邏輯及應(yīng)用策略。

注釋

①圖片來(lái)源:https://blog. goodaudience. com/cnn-for-rnns-agentle-approach-to-use-cnns-for-nlp-53ab80768d43。

②圖片來(lái)源:https://www.bilibili.com/video/BV1NW4y1b7HC/?vd_source=360a6591c70d54f3a901ee39a996b84c。

③圖片來(lái)源:http://jakeoleson.com/given-again。

④相關(guān)的中文翻譯參見https://mp. weixin. qq. com/s/TJc-GIe7c2MX9JxHxK9r1Lw。

⑤圖片來(lái)源:https://www.psyxel.com/mark-riedl-intro-ai-storygeneration/。

猜你喜歡
人工智能智能
我校新增“人工智能”本科專業(yè)
智能制造 反思與期望
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
智能前沿
文苑(2018年23期)2018-12-14 01:06:06
智能前沿
文苑(2018年19期)2018-11-09 01:30:14
智能前沿
文苑(2018年17期)2018-11-09 01:29:26
智能前沿
文苑(2018年21期)2018-11-09 01:22:32
人工智能與就業(yè)
智能制造·AI未來(lái)
商周刊(2018年18期)2018-09-21 09:14:46
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
台东县| 金坛市| 永昌县| 桃园市| 金川县| 牙克石市| 库车县| 高淳县| 九寨沟县| 镇原县| 定襄县| 庄河市| 遂昌县| 东兰县| 旬邑县| 秀山| 红桥区| 滦南县| 博客| 安多县| 中山市| 鹰潭市| 黑山县| 三江| 合山市| 黎川县| 万全县| 屏边| 松潘县| 句容市| 连南| 光山县| 昌吉市| 自治县| 岳普湖县| 年辖:市辖区| 德兴市| 甘孜县| 峨眉山市| 武冈市| 克山县|