国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于AIGC技術(shù)的微課制作研究

2024-09-14 00:00:00陳中全譚積斌
電腦知識與技術(shù) 2024年23期

摘要:微課作為一種教學(xué)資源的主流形式,在現(xiàn)代教學(xué)中扮演著極其重要的角色。然而,傳統(tǒng)的微課制作流程復(fù)雜、技術(shù)要求高,且過度依賴教師個體經(jīng)驗,導(dǎo)致了微課制作效率低下。AIGC技術(shù)的應(yīng)用,能顯著提高微課制作效率。文章以圖形圖像處理課程中的“色彩模式”內(nèi)容為例,分析探討AIGC技術(shù)在微課制作中的應(yīng)用,尤其是教師虛擬“數(shù)字人”出鏡場景下的具體應(yīng)用。

關(guān)鍵詞:AIGC技術(shù);微課制作;虛擬數(shù)字人

中圖分類號:TP37 文獻標(biāo)識碼:A

文章編號:1009-3044(2024)23-0124-03

開放科學(xué)(資源服務(wù))標(biāo)識碼(OSID)

0 引言

微課作為一種短小精悍的教學(xué)資源,在滿足碎片化學(xué)習(xí)需求、促進個性化學(xué)習(xí)、提高學(xué)習(xí)效率、促進教育資源共享、推動教育教學(xué)改革以及支持終身學(xué)習(xí)等方面都具有重要意義。研究表明,教師真人出鏡的微課能夠提升學(xué)習(xí)者的參與度和學(xué)習(xí)效果[1]。然而,傳統(tǒng)的制作教師真人出鏡微課的過程涉及多個環(huán)節(jié),包括教學(xué)設(shè)計、腳本撰寫、素材收集、課件制作等,不僅制作流程復(fù)雜,耗時較長,同時對教師的技術(shù)要求也較高。此外,錄制過程中教師由于經(jīng)驗不足或鏡頭緊張等因素,需要反復(fù)重錄,影響了制作效率,也導(dǎo)致一些教師望而卻步。

AIGC技術(shù)的出現(xiàn),特別是數(shù)字人技術(shù)的應(yīng)用,為解決傳統(tǒng)微課制作效率低下的問題提供了新的解決方案。AIGC能夠顯著降低人工生產(chǎn)內(nèi)容的成本,并具備大規(guī)模、高并發(fā)生產(chǎn)節(jié)目內(nèi)容的能力[2]。AIGC技術(shù)在教學(xué)微課制作中將帶來新的變革,它不僅簡化了制作流程,提升了效率,更能推動教學(xué)內(nèi)容的創(chuàng)新和質(zhì)量的提升。

本研究基于AIGC在媒體制作的應(yīng)用,探討AIGC技術(shù)在微課制作尤其是教師“數(shù)字人”出鏡的微課制作主要環(huán)節(jié)中的具體應(yīng)用,并以大學(xué)圖形圖像處理課程中的“色彩模式”內(nèi)容為案例進行了實踐,旨在為微課制作提供新的思路和方法,為現(xiàn)代化教學(xué)資源建設(shè)提供理論和實踐參考。

1 AIGC技術(shù)概述

AIGC(AI Generated Content) 即人工智能生成內(nèi)容,是繼UGC(User Generated Content) 用戶生成內(nèi)容、PGC(Professional Generated Content) 專業(yè)生產(chǎn)內(nèi)容之后,利用AI技術(shù)自動生成內(nèi)容的新型生產(chǎn)方式。該技術(shù)體系的核心在于人工智能技術(shù)[3],它融合了深度卷積神經(jīng)網(wǎng)絡(luò)、多模態(tài)交互、大數(shù)據(jù)挖掘與分析、數(shù)字孿生、機器翻譯、語音識別以及自然語言理解等一系列前沿技術(shù)[4]。近年來,人工智能技術(shù)的持續(xù)進步已促使這些技術(shù)廣泛應(yīng)用于媒體節(jié)目的制作中,特別是在新興的互聯(lián)網(wǎng)媒體制作。這一趨勢不僅展現(xiàn)了技術(shù)的融合與創(chuàng)新,也預(yù)示著媒體制作領(lǐng)域?qū)⒂瓉砀嗟淖兏锱c可能性。

數(shù)字人,也被稱為虛擬形象、數(shù)字虛擬人、虛擬數(shù)字人等,是指運用數(shù)字技術(shù)創(chuàng)造出來的、與人類形象接近的數(shù)字化人物形象。從外形上又可細分為2D真人、2D卡通、3D卡通、3D寫實等多種[5]。本文主要采用基于教師真人拍攝視頻生成2D真人的類型。

2 AIGC技術(shù)在媒體制作中的應(yīng)用

2.1 文本生成

基于NLP(自然語言處理)技術(shù)的文本生成功能在AIGC技術(shù)的應(yīng)用領(lǐng)域占據(jù)著舉足輕重的地位。它不僅是這一領(lǐng)域中最早得到發(fā)展的技術(shù),同時也是當(dāng)前成熟度最高的功能之一。文本生成的應(yīng)用廣泛,涵蓋了內(nèi)容續(xù)寫、聊天機器人以及大綱概要生成等多個方面。為實現(xiàn)這些功能,業(yè)界已經(jīng)開發(fā)出了多種先進的算法模型,如ChatGPT、文心一言和星火等。這些模型為文本生成提供了強大的技術(shù)支持,進一步推動了AIGC技術(shù)的發(fā)展和應(yīng)用。在微課制作過程中,可利用這些模型先生成解說詞初稿,再根據(jù)實際情況審核修改即可。

2.2 AI語音合成技術(shù)

人工智能的語音合成技術(shù)是直接將文本信息轉(zhuǎn)化為語音的技術(shù)。作為人工智能領(lǐng)域的一項重要應(yīng)用,其應(yīng)用場景廣泛且多樣化。例如,可進行人機對話,通過語音識別和語音合成技術(shù),實現(xiàn)自然流暢的人機對話,如智能客服、語音助手等;也可以進行語音內(nèi)容分析,將音頻內(nèi)容轉(zhuǎn)換為文字,便于提取關(guān)鍵信息,進行內(nèi)容追蹤、處理及打標(biāo)簽等操作;還可以進行實時語音轉(zhuǎn)寫,將會議記錄、筆記、總結(jié)等音頻實時轉(zhuǎn)寫為文字,方便記錄、展示和分享等。同時,還可以根據(jù)需要,選擇不同的語言、口音和音色,并且還能調(diào)整語調(diào)、語速以及情感表達,從而打造出更易為學(xué)習(xí)者接受的配音效果[4]。這一技術(shù)的應(yīng)用不僅豐富了教學(xué)手段,還有助于提升教學(xué)效果和學(xué)習(xí)者的學(xué)習(xí)體驗。目前常用的人工智能語音合成工具有FakeYou、Murf.AI、剪映配音、魔音工坊、訊飛配音等。在微課制作過程中,配音解說以及拍打字幕環(huán)節(jié)需要大量的時間和資源投入,而通過AI語音合成技術(shù)的應(yīng)用可輕松實現(xiàn),極大提高了工作效率。

2.3 圖像生成

在圖像方面,AIGC已發(fā)展出多種先進的模型和工具,它們不僅具備強大的圖像生成能力,還在多個應(yīng)用場景中展現(xiàn)出卓越的性能。如Stable Diffusion和Dall-E 2等模型通過深度學(xué)習(xí)技術(shù),能夠根據(jù)文本描述自動生成高質(zhì)量的圖像。這些模型結(jié)合了強大的生成算法和大量的訓(xùn)練數(shù)據(jù),能夠生成出風(fēng)格多樣、細節(jié)豐富的圖像,極大地豐富了設(shè)計、藝術(shù)等領(lǐng)域的創(chuàng)作素材。在工具方面,AIGC也提供了豐富的選擇。例如,Adobe Firefly、文心一格等圖像工具能夠根據(jù)用戶的創(chuàng)意文字或草圖,快速生成符合要求的圖像。這些工具不僅簡化了圖像創(chuàng)作的流程,還降低了創(chuàng)作的門檻,使得更多人能夠參與圖像創(chuàng)作的行列中來。在微課制作過程中,可以借助AIGC工具進行圖片素材處理和生成。

2.4 動畫生成

在動畫生成領(lǐng)域,AIGC技術(shù)的應(yīng)用日益廣泛,為創(chuàng)作者提供了強大的支持和便利。在模型方面,基于深度學(xué)習(xí)的生成對抗網(wǎng)絡(luò)(GANs) 和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNNs) 等模型能夠模擬真實世界的動態(tài)效果,生成高質(zhì)量的動畫幀。在工具方面,諸如DeepArt、Runway ML等平臺集成了AIGC技術(shù),允許用戶通過簡單的操作即可生成復(fù)雜的動畫效果。這些工具不僅提高了動畫制作的效率,還降低了技術(shù)門檻,使得更多人能夠參與動畫創(chuàng)作中。在微課應(yīng)用過程中,可利用AIGC技術(shù)生成一些抽象的動畫應(yīng)用于教學(xué)。

2.5 視頻生成

AIGC在視頻生成領(lǐng)域展現(xiàn)出了強大的潛力和廣泛的應(yīng)用前景。在模型方面,諸如CogVideo、Imagen Video等基于深度學(xué)習(xí)的算法模型能夠利用文本或圖像生成高質(zhì)量的視頻內(nèi)容。這些模型通過Transformer架構(gòu)和時序建模技術(shù),實現(xiàn)了從文本到視頻、從圖像到視頻的轉(zhuǎn)換。在工具方面,Runway、Pika、Sora等工具提供了豐富的視頻生成和編輯功能。在微課制作過程中,通常可利用AIGC根據(jù)解說詞直接一步生成微課視頻。

2.6 虛擬數(shù)字人生成

AIGC虛擬數(shù)字人是利用人工智能技術(shù),結(jié)合計算機圖形學(xué)、機器學(xué)習(xí)、自然語言處理和情感計算等技術(shù),創(chuàng)造出的具有逼真外觀和行為的數(shù)字人物。AIGC虛擬數(shù)字人廣泛應(yīng)用于多個領(lǐng)域,在教育領(lǐng)域,它們可以扮演教師的角色,加強與學(xué)生互動,提高學(xué)習(xí)效率。算法模型包括HeyGen、騰訊智影、Deepfake、Kreado Ai等。在微課制作過程中,可利用AIGC工具生成教師虛擬數(shù)字人出鏡的微課,加強微課的“親和力”。

此外,還可以利用AIPPT、BoardMix博思白板等AIGC工具,自動生成包含主題大綱和具體內(nèi)容的完整PPT,不僅節(jié)省了教師的時間和精力,而且生成的PPT質(zhì)量高、內(nèi)容豐富,滿足了教師在不同場景下的需求。

3 AIGC技術(shù)輔助微課制作的案例

本文以大學(xué)圖形圖像處理課程中的“色彩模式”內(nèi)容為案例,通過生成解說詞、生成視頻、生成數(shù)字人幾個簡單的操作步驟完成微課制作的流程。

3.1 生成解說詞

色彩模式部分內(nèi)容要求學(xué)生掌握三種色彩模式的概念和應(yīng)用,以“請以教師的身份,以大學(xué)生為授課對象,撰寫一份有關(guān)‘色彩模式’微課的解說詞,時間在5分鐘左右”為指令,通過文心一言生成以下解說詞,如圖1所示。

3.2 生成視頻

打開剪映軟件,點擊“圖文成片”(如圖2所示),將前面生成的解說詞粘貼到“選擇自由編輯方案”(如圖3所示),點擊“生成視頻”,選擇“智能匹配素材”(如圖4所示),便可以生成帶有圖文、動畫、配音、配樂、字幕在內(nèi)的視頻(如圖5所示)。

3.3 數(shù)字人生成

結(jié)合講課需求,拍攝一段教師講解視頻,錄制教師的動作、神態(tài)、聲音等信息,時長控制在2分鐘左右即可。打開“剪映”軟件,將講課講稿以“文本”形式添加到畫面中,然后再右側(cè)屬性欄中選擇“數(shù)字人”,選擇“形象定制”,將前面錄制好的講解視頻片段上傳到平臺,經(jīng)過60分鐘左右的計算時間,平臺會生成一個與教師形象相符,動作神態(tài)相似,聲音音色相近的數(shù)字人(如圖6所示)。

接著點擊屬性欄右下角的“添加數(shù)字人”,即可將數(shù)字人添加到編輯時間軸,即可對數(shù)字人進行控制大小、位置、裁剪、摳像、變速等常規(guī)的視頻編輯,也可依據(jù)視頻畫面設(shè)計需求控制數(shù)字人的景別,調(diào)節(jié)數(shù)字人的色彩。

通過以上步驟,即可快速生成專屬教師本人的數(shù)字人形象,并可以根據(jù)講解內(nèi)容自動調(diào)節(jié)動作神態(tài),給學(xué)生一種真實的、與教師面對面教學(xué)的體驗(如圖7所示),從而使教師能夠?qū)⒏嗟臅r間用于教學(xué)設(shè)計,減少拍攝環(huán)節(jié),極大提升了教師創(chuàng)作教學(xué)資源的效率。

本文以“Word自動目錄”和“八段錦教學(xué)”等內(nèi)容為案例,運用AIGC技術(shù)制作微課。結(jié)果表明,該方法能夠有效地制作出高質(zhì)量的教學(xué)資源,且適用于不同類型的知識傳授。當(dāng)然,目前AIGC技術(shù)在數(shù)字人定制方面還存在一些問題,如開放性、通用性不足以及持續(xù)效果弱等,這些問題的存在一定程度上限制了AIGC技術(shù)在微課制作中的應(yīng)用范圍。

4 結(jié)束語

AIGC技術(shù)在微課制作中展現(xiàn)出顯著的優(yōu)勢,諸如顯著提升制作效率和內(nèi)容形式的多樣化,已經(jīng)引起了廣泛關(guān)注。然而,當(dāng)前的AIGC技術(shù)也存在不容忽視的局限性,這主要體現(xiàn)在對數(shù)據(jù)的高度依賴性和實時交互性等方面的欠缺。相信隨著人工智能技術(shù)的不斷發(fā)展,AIGC技術(shù)將會在微課制作中發(fā)揮更大的作用。

參考文獻:

[1] 楊九民,艾思佳,皮忠玲,等.教學(xué)視頻中教師出鏡對教師的作用——基于對比實驗和訪談的實證分析[J].現(xiàn)代教育技術(shù),2021,31(1):54-61.

[2] 劇大偉,李陸昊,吳彬.AIGC人工智能生產(chǎn)內(nèi)容工具運用分析[J].廣播電視網(wǎng)絡(luò),2024,31(4):35-37.

[3] 任海全,趙濤,劉盼.AIGC在廣電行業(yè)中的應(yīng)用分析[C]//第31屆中國數(shù)字廣播電視與網(wǎng)絡(luò)發(fā)展年會暨第26屆國際廣播電視技術(shù)討論會論文集(CCNS&ISBT 2023) ,2023:151-154.

[4] 陽有明.人工智能技術(shù)在微課制作中的應(yīng)用研究[J].科教導(dǎo)刊,2023(22):60-62.

[5] 趙一鳴,鄭喬治,沈校亮.虛擬數(shù)字人對用戶在線學(xué)習(xí)效果的影響研究[J/OL].現(xiàn)代情報,2024:1-24.[2024-06-15].https://kns.cnki.net/kcms2/article/abstract?v=6RtRr0kVassx6YXB89pe5VAm8zyDofaeOQ2CWePm8X95m52jWFPAbVdIaI-Oj-6pmBf_jrjuexf9G8MA_fZlOX8OTWC1ZXXM7DdJCxE0sVm3x2Cfoahw-g==&uniplatform=NZKPT.

[6] 陶煒,沈陽.從ChatGPT到Sora:面向AIGC的四能教育和范式革新[J].現(xiàn)代教育技術(shù),2024,34(4):16-27.

【通聯(lián)編輯:謝媛媛】

武山县| 巴东县| 轮台县| 荣成市| 安徽省| 苍山县| 海安县| 临夏县| 冕宁县| 巴马| 乳山市| 噶尔县| 宣城市| 元阳县| 化隆| 呼和浩特市| 庄河市| 石首市| 盐边县| 丰顺县| 五莲县| 南乐县| 普宁市| 安福县| 安泽县| 英吉沙县| 改则县| 射阳县| 石泉县| 连江县| 宁城县| 永昌县| 曲阳县| 无棣县| 新竹县| 常熟市| 周口市| 大渡口区| 阜新| 和林格尔县| 友谊县|