国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

生成式人工智能賦能科學(xué)普及:技術(shù)機遇、倫理風(fēng)險與應(yīng)對策略

2024-10-21 00:00:00王碩閻妍李正風(fēng)
科普研究 2024年4期

[摘 要] 生成式人工智能有望極大地賦能科學(xué)普及,帶來更廣泛的主體參與、更豐富的內(nèi)容呈現(xiàn)、更有效的知識轉(zhuǎn)譯以及更精準(zhǔn)的科普研究。然而,這類技術(shù)也易引發(fā)兩類潛在的倫理風(fēng)險:一方面是信息真實性、公平性、隱私安全性、偏見以及版權(quán)等生成式人工智能帶來的技術(shù)倫理問題;另一方面是傳統(tǒng)科普的過度通俗化、過少科學(xué)溝通、科學(xué)權(quán)威削弱和民粹主義等問題可能被放大。鑒于此,本文認(rèn)為,未來需要深入挖掘生成式人工智能在科普實踐中的應(yīng)用潛力,提升公眾、科普工作者與監(jiān)管者的技術(shù)認(rèn)知、應(yīng)用能力與監(jiān)管水平,確??破諆?nèi)容的準(zhǔn)確性、隱私安全性及公平性。

[關(guān)鍵詞]生成式人工智能 科學(xué)普及 技術(shù)機遇 倫理風(fēng)險

[中圖分類號] N4;TP18 [文獻標(biāo)識碼] A [ DOI ] 10.19293/j.cnki.1673-8357.2024.04.001

以ChatGPT為代表的生成式人工智能(Generative Artificial Intelligence,以下簡稱生成式AI)的迅猛發(fā)展為科普帶來了眾多機遇與挑戰(zhàn)。一方面,生成式AI有望大幅提升科普內(nèi)容生產(chǎn)效率,使公眾能夠輕松創(chuàng)作出高質(zhì)量的科普文章、視頻等多模態(tài)內(nèi)容。另一方面,這種技術(shù)也伴隨著信息準(zhǔn)確性存疑、算法偏見等諸多倫理挑戰(zhàn)。黨的二十屆三中全會強調(diào),“完善生成式人工智能發(fā)展和管理機制”[1]。抓住生成式AI賦能科普的新機遇,準(zhǔn)確理解和有效應(yīng)對生成式AI與科普融合面臨的潛在倫理挑戰(zhàn),不僅有助于加深公眾的科學(xué)認(rèn)知與參與、提升全民科學(xué)素質(zhì),還能為科技創(chuàng)新注入新活力,為我國實現(xiàn)高水平科技自立自強與中國式現(xiàn)代化夯實社會基礎(chǔ)。

1研究述評

關(guān)于人工智能(Artificial Intelligence,AI)時代的科普,學(xué)界已經(jīng)展開了較為充分的討論,主要涉及對傳統(tǒng)科技傳播模式的沖擊[2]、與科普活動的深度交互[3]、科學(xué)傳播體系的重構(gòu)[4]、科普數(shù)字化轉(zhuǎn)型[5]以及面臨的倫理挑戰(zhàn)[6]等議題。這些研究對把握科普的新發(fā)展趨勢提供了有益的見解,但是并未充分關(guān)注到生成式AI作為一種顛覆性技術(shù),已經(jīng)悄然對科普產(chǎn)生了更為系統(tǒng)而深刻的影響。生成式AI在許多方面表現(xiàn)出與傳統(tǒng)AI的本質(zhì)區(qū)別,生成式AI能夠自動生成內(nèi)容,這使得它在科普領(lǐng)域不僅僅是輔助工具,還有可能深入改變科普的范式與生態(tài)體系。

國內(nèi)外學(xué)界逐漸開始關(guān)注生成式人工智能對科學(xué)傳播與科學(xué)普及的影響。國外著名科學(xué)傳播學(xué)者邁克·S. ·謝弗(Mike S. Sch?fer)在《科學(xué)傳播雜志》(Journal of Science Communication)上發(fā)表的論文指出,科學(xué)傳播研究者在很大程度上忽視了生成式人工智能。他呼吁研究者應(yīng)該分析“關(guān)于人工智能的傳播”(about AI)以及“與人工智能的傳播”(with AI),探討生成式AI對科學(xué)傳播本身及其生態(tài)系統(tǒng)的影響[7]。國內(nèi)的科普領(lǐng)域?qū)W者則主要關(guān)注生成式AI對人類智能和創(chuàng)造力的重新定義[8]、生成式AI對人類智能的沖擊[9]、AI科普的特性及其與社會的關(guān)系[10]、公眾在生成式AI治理中的能動性和集體義務(wù)[11]、生成式AI時代的使用者倫理[12]等問題。然而,現(xiàn)有研究主要集中在技術(shù)應(yīng)用和宏觀倫理層面,較少直接關(guān)注在微觀層面上生成式AI為科普工作與實踐帶來的具體機遇及其伴隨的潛在倫理挑戰(zhàn)。為此,本文旨在對這一議題展開探索性討論,希望能為科普政策的制定提供啟示,也希望能夠激發(fā)更多同仁的關(guān)注與探討。

2生成式AI為科普帶來新的技術(shù)機遇

生成式AI作為一項新興且迅速發(fā)展的技術(shù),在科普領(lǐng)域具有巨大發(fā)展?jié)摿ΑH欢?,我們對于這一新興技術(shù)的認(rèn)識和理解仍然處于初步探索階段,對于很多前景“看不準(zhǔn)”“摸不清”,相關(guān)落地實踐也具有一定滯后性。所以,目前尚難以形成一個全面和系統(tǒng)的分析框架,來一窺生成式AI賦能科普的全貌。但是,從目前已有的實踐來看,生成式AI在科普領(lǐng)域展現(xiàn)出的應(yīng)用潛力至少涉及以下4個維度,可能成為未來科普研究和實踐的關(guān)鍵方向(見圖1)。

2.1 共創(chuàng):更廣泛的科普參與

生成式AI有望通過賦能公眾,使公眾成為科普的重要主體。在傳統(tǒng)的科普模式中,知識的生產(chǎn)和傳播通常集中在科技工作者、教育工作者、科普工作者等少數(shù)專家和學(xué)者的手中,大部分公眾處于被動接受的信息消費者地位,缺乏參與和創(chuàng)造的主動性。雖然自媒體時代的到來在一定程度上改變了這種權(quán)力關(guān)系,但創(chuàng)作高質(zhì)量內(nèi)容的生產(chǎn)能力依然掌握在少數(shù)人手中,公眾參與內(nèi)容生產(chǎn)的能力依然受限。

然而,生成式AI憑借其強大的數(shù)據(jù)檢索、集成、分析與自主生成能力,降低了生產(chǎn)高質(zhì)量科普內(nèi)容所需要的“文化資本”(cultural capital),賦予公眾前所未有的創(chuàng)作自由與能力。無專業(yè)背景的普通用戶也能夠獲取有價值的知識,并根據(jù)自身需求和興趣,在社交媒體上創(chuàng)作與分享各種類型、更具創(chuàng)新性和多樣性的高質(zhì)量科普內(nèi)容,如科技新聞、科普視頻等。例如,ChatGPT開源共享了很多由用戶自主探索并創(chuàng)建的定制機器人,其中包括“Science Communicator”“Medical Science Popularization”“PopSci Forge”“SciWrite Assistant”“科普作家”“SciHelper科普神器”“小鹵蛋科普”“科普數(shù)字分身”“科普論文寫作助手”“PopSci Writer Assistant”等科普聊天機器人,可以根據(jù)用戶提供的科普主題、目標(biāo)受眾和期望風(fēng)格等信息生成結(jié)構(gòu)完整的科普文章草稿,包括吸引人的標(biāo)題、引人入勝的導(dǎo)語、信息豐富的正文和結(jié)語,大大降低了高質(zhì)量科普創(chuàng)作的知識與技術(shù)門檻。

在這一意義上,生成式AI或許有望降低知識生產(chǎn)與傳播的門檻,使公眾能夠跨越傳統(tǒng)的科普能力障礙,推動其從信息消費者向內(nèi)容生產(chǎn)者轉(zhuǎn)變。通過這樣的“共同生產(chǎn)”(co-production),科學(xué)普及將變得更加“平民化”“去中心化”與“共享化”。

2.2 融媒:更多樣的科普呈現(xiàn)

生成式AI有望豐富科普內(nèi)容的多模態(tài)表達。直到今天,我們對于生成式AI的技術(shù)想象還經(jīng)常停留在文本生成任務(wù)上。事實上,多模態(tài)組合才是生成式AI未來最具顛覆性的領(lǐng)域。以O(shè)penAI①為例,ChatGPT②通過高效的文本生成開啟了大模型時代,引發(fā)了廣泛的應(yīng)用和關(guān)注。DALL-E③進一步擴展了生成式AI的邊界,其可以將文本描述轉(zhuǎn)換為高質(zhì)量圖像,展示了令人驚嘆的創(chuàng)造力。而Sora ④則代表了文本生成視頻的前沿技術(shù),其結(jié)合文本生成的語義特征提取和圖像生成了每一幀畫面,實現(xiàn)了更加復(fù)雜和逼真的內(nèi)容創(chuàng)作。

傳統(tǒng)的科普內(nèi)容主要以文字和圖片為主,雖然文字傳播具備嚴(yán)謹(jǐn)性和邏輯性,但其抽象性和單一的表現(xiàn)形式限制了公眾對復(fù)雜科學(xué)概念和數(shù)據(jù)的理解。這種較為單一的傳播形式在當(dāng)前多元化的信息消費環(huán)境下顯得尤為不足。生成式AI的發(fā)展打破了這一局限,使得科普能夠跨越文本、圖像、視頻、音頻等多種媒介,形成多模態(tài)、跨模態(tài)的內(nèi)容,從而能更全面地呈現(xiàn)復(fù)雜的科學(xué)概念和數(shù)據(jù),其通過激活“多重感官”(multisensory)來增強科普效果和“信息保留”(information retention)[13],豐富科普的形式,增加科普的深度,提升公眾的參與度和學(xué)習(xí)興趣。

第十三次中國公民科學(xué)素質(zhì)抽樣調(diào)查數(shù)據(jù)顯示,QQ、微信、微博等社交媒體平臺和抖音、快手等短視頻平臺,已經(jīng)成為中國公民獲取科技信息的主要網(wǎng)絡(luò)渠道[14]。清華大學(xué)科學(xué)技術(shù)與社會研究中心進行的全國抽樣調(diào)查顯示,超過三分之二的受訪者通過微博、知乎、抖音、快手、微信視頻號等自媒體平臺獲取科學(xué)技術(shù)類信息⑤。隨著社交媒體和短視頻平臺的廣泛使用,跨模態(tài)表達的重要性愈加凸顯,多模態(tài)生成技術(shù)可以將復(fù)雜的科學(xué)知識通過生動的圖片、動態(tài)的視頻,以及音頻內(nèi)容呈現(xiàn),極大地提升用戶的理解效率和參與興趣。我們或許可以期待科普元宇宙(metaverse for science popularization)的出現(xiàn)與應(yīng)用,它可以利用多模態(tài)生成技術(shù)來推動虛擬世界中的科普內(nèi)容創(chuàng)作,使復(fù)雜的科學(xué)知識在一個高度互動和沉浸式的環(huán)境中得以更生動、具體地呈現(xiàn),帶來更加智能的“人—機”交互式科普體驗。

2.3 破壁:更有效的科普轉(zhuǎn)譯

生成式AI有望打破跨文化科普的“轉(zhuǎn)譯”邊界,例如,許多用戶切身體驗到了ChatGPT等生成式AI帶來的“地道”翻譯。所謂的“地道”,不僅指其用詞和語法更接近母語者,更在于它能在翻譯過程中考慮到文化背景、習(xí)俗和語境的細微差別[15]。生成式AI的翻譯實現(xiàn)了“動態(tài)等價”(dynamic equivalence)和“轉(zhuǎn)譯”(translation),能夠根據(jù)不同地域的文化特點進行微調(diào),例如調(diào)整所使用的專業(yè)術(shù)語、提供與當(dāng)?shù)匚幕嚓P(guān)的案例,從而使翻譯內(nèi)容不僅準(zhǔn)確,還能讓目標(biāo)受眾感到自然和貼切,促進跨文化交流和理解。

在傳統(tǒng)認(rèn)知上,全球前沿科技成果的傳播與普及主要依賴于國內(nèi)專業(yè)人士進行翻譯和推介。這種傳播模式不僅耗時,而且受制于專業(yè)人士的科普意愿與能力、激勵機制、商業(yè)考量以及國內(nèi)社會對特定領(lǐng)域前沿研究的信息消費需求等多種因素。生成式AI的發(fā)展成功突破了這些邊界,通過實時翻譯和文化調(diào)適功能,降低了非英語背景的研究者和公眾獲取全球最新科技進展的門檻,從而推動了知識的全球化與共享。例如,在健康科普領(lǐng)域,“上火”和“濕氣”是中國傳統(tǒng)醫(yī)學(xué)中常用的概念,但在西方醫(yī)學(xué)中并沒有直接對應(yīng)的術(shù)語。生成式AI通過文化調(diào)適和翻譯功能,可以將這些概念準(zhǔn)確地傳達給外國受眾,使不同文化背景的受眾能夠更準(zhǔn)確地理解和接受這些健康信息,促進跨文化的健康交流與理解。

此外,科學(xué)知識與地方性知識(local knowledge)的互動是跨文化科學(xué)傳播中的一個關(guān)鍵問題。地方性知識指特定文化和社區(qū)中的傳統(tǒng)知識和實踐,它們在科學(xué)傳播中往往被忽視或誤解[16]。生成式AI有助于在科普實踐中促進科學(xué)話語向地方性知識轉(zhuǎn)化,能夠通過個性化和情境化的溝通,適應(yīng)不同群體的需求。這里我們以四類重點科普人群為例進行說明。對于老年群體,生成式AI可以將復(fù)雜的科學(xué)概念以簡潔、易懂的語言傳達,并結(jié)合他們的生活經(jīng)驗加以解釋;對于農(nóng)民,AI能整合農(nóng)作物種植、氣候變化等科學(xué)信息與當(dāng)?shù)剞r(nóng)耕傳統(tǒng),提供有針對性的實用建議;對于患者,生成式AI可以將醫(yī)學(xué)知識轉(zhuǎn)化為通俗的健康管理建議,結(jié)合個體病史和地方醫(yī)療條件,幫助他們理解治療方案;對于工人,AI能將工業(yè)安全、工作效率等科學(xué)概念結(jié)合實際工作場景,提供易于理解和應(yīng)用的安全知識和技術(shù)建議,從而更好地促進科學(xué)與地方性知識的融合與傳播。

2.4 細分:更精準(zhǔn)的科普研究

生成式AI有望推動科普研究的精準(zhǔn)化與個性化。在傳統(tǒng)認(rèn)知上,報刊、電視節(jié)目和講座是科學(xué)家與公眾溝通的主要途徑,這些方式的反饋機制較為緩慢且模糊,難以準(zhǔn)確把握公眾的興趣點和需求。然而,隨著數(shù)字技術(shù)的進步,科普者可以通過分析公眾在互聯(lián)網(wǎng)上的活動來更精確地了解他們的興趣和需求。生成式AI在發(fā)現(xiàn)和分析公眾的科學(xué)興趣與需求方面展現(xiàn)了巨大潛力。例如,生成式AI可以快速地從社交媒體上的評論、疑問和反饋中提取出社會對某一科學(xué)話題的關(guān)注度、情緒和態(tài)度。通過分析和整合大量的社交媒體數(shù)據(jù),生成式AI能夠精確捕捉和反映出公共領(lǐng)域中的科學(xué)討論熱點和輿論動向,為科普工作者提供寶貴的反饋,響應(yīng)公眾的興趣和需求,更好地實現(xiàn)科普的互動性和動態(tài)性。

這不僅限于社會熱點科學(xué)話題的熱度分析,還可以應(yīng)用到個性化的科學(xué)興趣點發(fā)掘。通過分析個體用戶的歷史瀏覽記錄、搜索關(guān)鍵詞和互動行為,生成式AI能夠構(gòu)建個性化的興趣模型。這種模型不僅能夠識別用戶當(dāng)前感興趣的科學(xué)話題,還能夠預(yù)測他們未來可能感興趣的領(lǐng)域,并通過用戶常用的平臺進行精準(zhǔn)推送。通過對受眾進行精細化分類,科普工作者能夠制定更有針對性的傳播策略,提高傳播效果和受眾參與度。尼古拉斯·尼葛洛龐帝(Nicholas Negroponte)在1995年出版的《數(shù)字化生存》(Being Digital)中預(yù)言了“我的日報”(the Daily Me)的誕生,他設(shè)想未來每個人的新聞和信息都會根據(jù)個人興趣和需求進行定制,從而提供個性化的閱讀體驗[17],生成式AI正在讓“我的日報”逐漸變?yōu)楝F(xiàn)實。

3生成式AI與科普融合伴隨的潛在倫理風(fēng)險

生成式AI在為科普帶來各類機遇的同時,也伴隨著一些潛在的倫理風(fēng)險。為了有效應(yīng)對這些風(fēng)險,我們需要準(zhǔn)確把握其本質(zhì),從而避免陷入對技術(shù)的簡單否定或盲目崇拜。當(dāng)前,我們觀察到的倫理挑戰(zhàn)可以被分為兩類。一類是生成式AI本身的倫理風(fēng)險,這些風(fēng)險在其他領(lǐng)域(如教育、醫(yī)療)等同樣存在,并且會映射到科普活動中。另一類則是傳統(tǒng)科普本身所面臨的挑戰(zhàn),但在生成式AI技術(shù)條件下被放大。分類看待有助于我們更清晰地理解生成式AI帶來的各種挑戰(zhàn),并制定針對性的治理方案(見圖2)。

3.1生成式AI本身的技術(shù)倫理風(fēng)險映射到科普活動

首先,信息的準(zhǔn)確性與可靠性面臨挑戰(zhàn)。生成式AI能夠快速生成大量文本內(nèi)容,但其信息來源和生成過程并不透明。生成式AI依賴訓(xùn)練數(shù)據(jù),其數(shù)據(jù)來源相對多樣,包括維基百科、電子書籍、期刊和社交媒體鏈接等。然而,這些來源很多缺乏嚴(yán)格審查,可能包含虛假和不道德的內(nèi)容[18]。這些數(shù)據(jù)中可能包含錯誤或偏見,生成的內(nèi)容也可能反映這些問題。事實上,有關(guān)實驗表明,公眾并不能準(zhǔn)確識別深度偽造的科學(xué)謠言[19]。廣泛傳播未經(jīng)驗證或具有誤導(dǎo)性的信息,可能會影響公眾的科學(xué)理解。并且,生成式AI的運作機制對公眾來說是一個“黑箱”(black box),其內(nèi)部過程難以被理解和驗證,導(dǎo)致內(nèi)容出現(xiàn)錯誤或引發(fā)爭議時難以追究其責(zé)任。2024年5月,Anthropic①在理解生成式AI模型內(nèi)部運作機制方面取得重大進展,發(fā)現(xiàn)了與代碼漏洞、欺騙、偏見等相關(guān)的特性,進一步凸顯了其缺乏透明性的風(fēng)險[20]。長期而言,這些問題可能削弱科學(xué)在公眾決策中的權(quán)威性,影響公眾對科學(xué)的信任和支持,甚至可能導(dǎo)致社會分裂和對立。

其次,偏見與不公平性的問題同樣顯著。生成式AI在訓(xùn)練過程中可能會吸收和放大現(xiàn)有數(shù)據(jù)中的偏見,如種族、性別、文化等[21],導(dǎo)致不公平或歧視性的信息被傳播。盡管算法本身不具有偏見,但它們往往會從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)并反映這些數(shù)據(jù)的特點。例如,一些研究發(fā)現(xiàn),生成式AI在提供職業(yè)建議時存在性別刻板印象,使用典型的女孩和男孩名字提問時,其提供的STEM(科學(xué)、技術(shù)、工程與數(shù)學(xué))與非STEM建議比例顯著不同[22]。此外,2022年,一位YouTube博主通過訓(xùn)練GPT-4chan機器人,生成了3萬多個包含歧視性言論的帖子,引發(fā)了巨大的爭議[23]。偏見性內(nèi)容不僅可能誤導(dǎo)公眾,還可能對特定群體造成傷害,加劇社會不公。此外,生成式AI的“多輪對話”機制促使機器生成更加貼近用戶預(yù)期的回答,這可能進一步強化用戶已有的知識、觀念,形成信息繭房(filter bubble),使個體只接觸到與自身觀念一致的信息,導(dǎo)致觀念愈加極端和固化。

最后,生成式AI也伴隨著潛在的版權(quán)歸屬風(fēng)險。生成式AI通過大量數(shù)據(jù)訓(xùn)練生成內(nèi)容,而這些數(shù)據(jù)通常來自已有作品和資料,因此AI生成內(nèi)容的原創(chuàng)性問題會導(dǎo)致版權(quán)歸屬變得復(fù)雜。2023年9月,美國作家協(xié)會(The Authors Guild)對OpenAI發(fā)起集體訴訟,聲稱其在未經(jīng)授權(quán)的情況下使用原告作家的版權(quán)作品訓(xùn)練其大語言模型,生成基于這些小說的總結(jié)、復(fù)述及模仿作品,這一事件凸顯了數(shù)據(jù)來源的版權(quán)問題在AI訓(xùn)練中的重要性[24]。生成式AI在生成科普作品時,可能會參考和重組已有的科學(xué)文獻和文章片段。那么,生成的內(nèi)容是否屬于原創(chuàng)作品?其版權(quán)應(yīng)歸屬于誰?這些問題在法律和倫理層面尚未有明確的答案。推動科學(xué)期刊的開放獲取(open access)實踐或許是解決科普創(chuàng)作中版權(quán)問題的有效手段。開放獲取的研究成果經(jīng)過嚴(yán)格的學(xué)術(shù)審查,對公眾開放,允許自由使用和再創(chuàng)作,從而減少版權(quán)糾紛的風(fēng)險。然而即便如此,在相當(dāng)長的一段時間內(nèi)版權(quán)問題仍然是不容忽視的挑戰(zhàn)。

3.2 傳統(tǒng)科普曾經(jīng)面臨的挑戰(zhàn)被生成式AI放大

首先,生成式AI技術(shù)加劇了“過多科學(xué)通俗化”與“過少科學(xué)溝通”的風(fēng)險。一方面,生成式AI時代的到來意味著更多的科學(xué)觀點和信息在公眾場域中競爭,將復(fù)雜的科學(xué)概念和研究成果以簡化和易懂的方式傳達給公眾,可能存在“簡化過度”的風(fēng)險,導(dǎo)致科學(xué)信息的娛樂化和膚淺化。另一方面,生成式AI還放大了虛假公眾觀點和虛假互動的風(fēng)險。當(dāng)生成式AI被應(yīng)用于控制社交機器人時,許多內(nèi)容和評論可能是在平臺上偽造的“公眾觀點”。這些虛假的信息和互動會誤導(dǎo)公眾,使其誤以為這些觀點是真實且被廣泛認(rèn)同的。盡管從表面上看,科學(xué)信息的傳播量增加了,但這些內(nèi)容和評論并不真正反映公眾的真實需求和理解情況,反而會導(dǎo)致信息的同質(zhì)化和失真,造成“過少的科學(xué)溝通”,不僅浪費公眾的注意力,還會阻礙公眾獲取多樣化和相互矛盾的信息。

此外,生成式AI技術(shù)進一步削弱了科普的權(quán)威性。一方面,人們總是傾向于將晦澀難懂的語言和大量概念等同于高學(xué)術(shù)水準(zhǔn)[25],這可能導(dǎo)致非專家撰寫的、基于誤導(dǎo)性信息的內(nèi)容被廣泛傳播和接受。例如,許多無專業(yè)背景的普通科普人士在生成式AI的幫助下,能夠生成更多看似專業(yè)、權(quán)威的信息,獲得更大范圍的信任和傳播。另一方面,生成式AI能夠生成更新穎的信息,而新穎的信息更容易引起公眾的注意和信任,很多虛假新聞都是因其新穎性而被轉(zhuǎn)發(fā)[26]。如果公眾頻繁接觸這些看似“權(quán)威”“新穎”但未經(jīng)科學(xué)驗證的信息,他們可能會逐漸失去對真實科學(xué)研究的興趣與信任,導(dǎo)致“科學(xué)民粹主義”(Science-Related Populism)[27],質(zhì)疑經(jīng)過嚴(yán)格驗證的科學(xué)事實,反而對迎合他們預(yù)期設(shè)想的“偽科學(xué)”深信不疑,進而削弱了科普的權(quán)威性。

4生成式AI賦能科普的對策建議

生成式AI技術(shù)的飛速發(fā)展極大賦能了科學(xué)知識的傳播和普及,帶來了更廣泛的科普參與、更多樣的科普呈現(xiàn)、更有效的科普轉(zhuǎn)譯以及更精準(zhǔn)的科普研究。然而,隨著生成式AI技術(shù)的快速迭代和廣泛應(yīng)用,其潛在的風(fēng)險也逐漸顯現(xiàn)。當(dāng)前,社會各界需要協(xié)同努力,抓住生成式AI技術(shù)賦能科學(xué)普及的新機遇,同時深入理解生成式AI技術(shù)帶來的倫理挑戰(zhàn),以促進相關(guān)技術(shù)更好賦能科普事業(yè)健康、向善發(fā)展。本文將從技術(shù)應(yīng)用、素養(yǎng)提升以及風(fēng)險管控三個方面提出具體對策建議(見圖3)。其中,技術(shù)應(yīng)用是基礎(chǔ),它為生成式AI技術(shù)賦能科普提供了堅實的支撐;素養(yǎng)提升是關(guān)鍵,它決定了各利益相關(guān)方能否有效利用這一技術(shù)推動科學(xué)普及;風(fēng)險管控是底線,它確保在技術(shù)賦能科學(xué)普及過程中,信息真實性、隱私安全性以及公平性等方面能夠得到有效保障。

4.1 技術(shù)應(yīng)用:深度挖掘生成式AI技術(shù)在科普實踐中的應(yīng)用潛力

提升科普內(nèi)容的可讀性與趣味性。鼓勵科技期刊和科普平臺積極利用生成式AI技術(shù),整合多種媒體資源,如視頻、音頻、動畫和3D模型等,使科技內(nèi)容更加直觀、易懂。當(dāng)前,一些醫(yī)學(xué)期刊已經(jīng)開始在論文中整合3D模型、360°全景視圖、音視頻資料、圖片以及網(wǎng)頁鏈接等資源?!秾嵱门R床醫(yī)藥雜志》2022年第14期的《顱腦手術(shù)定位中三維影像體表投影技術(shù)的應(yīng)用價值》一文,便是利用AR技術(shù)和“多模態(tài)數(shù)智內(nèi)容編輯器”編輯的首個案例[28]。通過這種多模態(tài)整合,復(fù)雜的科學(xué)概念能以更加生動、形象的方式呈現(xiàn),從而提高用戶的學(xué)習(xí)興趣和科學(xué)素質(zhì)。

強化科普工作的個性化與互動性。生成式AI技術(shù)在科普工作中應(yīng)充分挖掘用戶數(shù)據(jù),實現(xiàn)精準(zhǔn)的用戶畫像構(gòu)建,從而提供高度定制化的科普內(nèi)容。例如,對于青少年用戶,平臺可以提供互動性強、富有挑戰(zhàn)性的科學(xué)游戲和實驗,激發(fā)他們的探索欲和求知欲。同時,進一步開發(fā)基于生成式AI技術(shù)的互動科普體驗,提供沉浸式的科普環(huán)境,促進用戶與科普內(nèi)容的深度互動。例如,在我國“十三五”科技創(chuàng)新成就展上,科普機器人“小科”受邀來到現(xiàn)場,全面展示了海量科普知識問答、詩詞創(chuàng)作、開放式對話等“技能”[29]。

推動開放科學(xué)與生成式AI技術(shù)的結(jié)合。開放科學(xué)能夠基于全員參與、全過程協(xié)同、高度透明性以及共享性,促進科學(xué)知識與研究成果的充分共享[30]。充分利用開放科學(xué)資源,有助于提供豐富的科學(xué)數(shù)據(jù)、實驗資源和素材庫,支持大眾用戶利用生成式AI技術(shù)生成更高質(zhì)量、更準(zhǔn)確、更權(quán)威的科普內(nèi)容,從而激發(fā)用戶的創(chuàng)造力和參與意愿。例如,開放科學(xué)交流平臺ResearchGate和Academia.edu,允許科研人員就具體的研究問題進行交流和討論,這些交流內(nèi)容可以為生成式AI系統(tǒng)提供實時的科學(xué)討論和觀點,增強其生成內(nèi)容的時效性和互動性。

4.2 素養(yǎng)提升:不斷提高各利益方的技術(shù)認(rèn)知、應(yīng)用或監(jiān)管能力

提升社會公眾科學(xué)素質(zhì)和數(shù)字倫理素養(yǎng)。在大語言模型技術(shù)迅速發(fā)展的今天,公眾的角色已經(jīng)從信息接收者轉(zhuǎn)變?yōu)樾畔⒌纳a(chǎn)者和分發(fā)者。這要求公眾提升科學(xué)素質(zhì)與技能的同時增強數(shù)字倫理意識[31]。一方面,建議進一步提升社會公眾的科學(xué)素質(zhì),以“求真”精神辨別科技信息的真?zhèn)?,通過在教育體系中強調(diào)科學(xué)方法論和批判性思維的培養(yǎng),讓公眾能夠評估信息的準(zhǔn)確性和可靠性,并審慎辨別信息來源,保持獨立思考。另一方面,建議增強公眾的數(shù)字倫理意識,使公眾能以“向善”的原則正確使用新興技術(shù),了解數(shù)字信息的產(chǎn)生和傳播過程,明確自身的角色和責(zé)任,審慎使用數(shù)字工具,維護內(nèi)容的透明度和可追溯性。

提高科普工作者對生成式AI技術(shù)的理解和應(yīng)用能力。引導(dǎo)科普工作者理解大語言模型工具的工作方式,以及這些工具何時以及如何影響科普活動,為合理、規(guī)范使用大語言模型技術(shù)提供清晰、全面且適配的信息。為了增強科普工作者對生成式AI技術(shù)的認(rèn)識與實踐,科技期刊和科普平臺應(yīng)積極開展技術(shù)培訓(xùn)和合作,推動生成式AI技術(shù)在科普中的標(biāo)準(zhǔn)化和規(guī)范化應(yīng)用。

提高監(jiān)管者對生成式AI技術(shù)的認(rèn)知和監(jiān)管能力。生成式AI技術(shù)的迅猛發(fā)展給監(jiān)管者帶來了“科林格里奇困境” (Collingridge Dilemma)①。生成式AI技術(shù)發(fā)展過快,科普內(nèi)容的形式和表達方式不斷創(chuàng)新,傳統(tǒng)的監(jiān)管框架往往滯后,難以及時跟上技術(shù)的飛速變化,導(dǎo)致其在管理風(fēng)險時捉襟見肘。這種滯后不僅導(dǎo)致潛在風(fēng)險管理的缺失,還可能由于監(jiān)管的不確定性或過度嚴(yán)格的管控,壓制了生成式AI在科普領(lǐng)域的創(chuàng)新活力,削弱了我國在該領(lǐng)域的技術(shù)競爭力[32]。為此,監(jiān)管者也需要不斷提高有關(guān)生成式AI技術(shù)的專業(yè)知識,增強對復(fù)雜技術(shù)趨勢的預(yù)測和響應(yīng)能力,從而能夠及時更新和調(diào)整監(jiān)管策略,平衡技術(shù)創(chuàng)新與風(fēng)險管理。

4.3 風(fēng)險管控:全面保障科普內(nèi)容的準(zhǔn)確性、隱私安全性以及公平性

提升科普信息的真實性和準(zhǔn)確性。成立由科學(xué)家、教育專家和媒體專家組成的審核委員會,對生成式AI生成的科普內(nèi)容進行雙重審核,確保其科學(xué)性。建立科普內(nèi)容認(rèn)證體系,例如在短視頻平臺通過認(rèn)證標(biāo)識增強公眾對內(nèi)容的信任,并定期復(fù)查以維持標(biāo)準(zhǔn)。同時,建議有關(guān)平臺明確標(biāo)注科普內(nèi)容生成方式和數(shù)據(jù)來源,并實施透明化報告制度。

確保數(shù)字科普過程中的數(shù)據(jù)隱私保護。相關(guān)部門需要進一步制定嚴(yán)格的科普數(shù)據(jù)相關(guān)保護監(jiān)管政策,規(guī)范生成式AI技術(shù)在數(shù)據(jù)收集和處理中的行為,明確要求科普平臺在收集用戶數(shù)據(jù)前必須獲得用戶同意,并告知用戶數(shù)據(jù)使用與保護方式。在技術(shù)層面可以采用先進的加密技術(shù)和安全措施,防止數(shù)據(jù)泄露和未授權(quán)訪問。此外,建議平臺定期公開數(shù)據(jù)使用情況,并成立獨立的隱私保護審查委員會,監(jiān)督生成式AI技術(shù)的數(shù)據(jù)使用合規(guī)性,確保數(shù)據(jù)處理過程的透明性和安全性。

減少生成式AI技術(shù)在科普應(yīng)用中的算法偏見與歧視。算法是生成式AI技術(shù)的核心,必須優(yōu)化發(fā)展,遵循公平性原則[33]。監(jiān)督技術(shù)研發(fā)平臺使用多樣化的訓(xùn)練數(shù)據(jù),涵蓋不同性別、種族、文化和社會經(jīng)濟背景,以建立多元化的公共數(shù)據(jù)集和科普數(shù)據(jù)集,確??破諆?nèi)容的廣泛性和代表性。鼓勵公眾和專家參與生成式AI技術(shù)的開發(fā)與監(jiān)督,通過設(shè)立開放的反饋和舉報機制,收集并分析反饋以及時修正偏見問題。此外,應(yīng)當(dāng)制定算法透明度和責(zé)任制度,公開生成式AI的數(shù)據(jù)來源,明確算法偏見造成誤導(dǎo)信息的責(zé)任主體,并制定懲處措施,以增強公眾對科普內(nèi)容的信任,確保算法開發(fā)者和應(yīng)用者對其生成內(nèi)容負(fù)責(zé)。

加強對關(guān)鍵科普應(yīng)用領(lǐng)域的監(jiān)管。當(dāng)前需要進一步制定全面的監(jiān)管框架,確保生成式AI技術(shù)在短視頻等高影響力領(lǐng)域中的應(yīng)用既符合倫理和法律要求,又能保證科普內(nèi)容的質(zhì)量和公信力。一方面,政府應(yīng)當(dāng)完善法律框架,明確規(guī)定生成式AI生成內(nèi)容的責(zé)任主體,制定明確的法規(guī)和標(biāo)準(zhǔn),要求平臺和個人遵守特定標(biāo)準(zhǔn),并對違規(guī)行為實施嚴(yán)厲懲罰。另一方面,政府應(yīng)推動抖音、快手、微信視頻號等重點平臺自律,形成內(nèi)部行為準(zhǔn)則和道德標(biāo)準(zhǔn),推動社交媒體平臺成立行業(yè)聯(lián)盟,制定自律公約,定期提交自查報告,確保內(nèi)容生成和傳播的規(guī)范性和透明度。

5結(jié)語

生成式AI不僅標(biāo)志著科普領(lǐng)域的一次技術(shù)革新,更是提升全民科學(xué)素質(zhì)、厚植科學(xué)文化沃土的關(guān)鍵契機。因此,一方面,需要在未來積極抓住生成式AI賦能科普的新機遇,深入探索生成式AI在科普實踐中的創(chuàng)新應(yīng)用場景,有效提升科普的質(zhì)量與廣度。另一方面,也要準(zhǔn)確理解和把握生成式AI在科普中帶來的倫理挑戰(zhàn),加強對生成式AI應(yīng)用的有效規(guī)范與監(jiān)管,促進生成式AI更好地賦能科普事業(yè)健康、向善發(fā)展。

參考文獻

新華社.中共中央關(guān)于進一步全面深化改革 推進中國式現(xiàn)代化的決定[EB/OL].(2024-07-21)[2024-07-24]. http://www.news.cn/politics/20240721/cec09ea2bde840dfb99331c48ab5523a/c.html.

宋微偉.互聯(lián)網(wǎng)時代人工智能對科技傳播的沖擊及其融合[J].科技傳播,2019,11(3):131-132.

黃時進.技術(shù)驅(qū)動與深度交互:人工智能對科學(xué)傳播的跨世紀(jì)構(gòu)建[J].科普研究,2020,15(3):16-19.

董洪哲.科學(xué)傳播在人工智能時代的變革與思考[J].中國廣播,2020(10):29-32.

李正風(fēng),張徐姍.走向“數(shù)字社會”進程中的科學(xué)普及[J].科普研究,2023,18(4):8-17.

王碩,李秋甫.數(shù)字倫理:數(shù)字化轉(zhuǎn)型中科學(xué)普及的新使命與新規(guī)范[J].科普研究,2023,18(3):57-64.

Sch?fer M S. The Notorious GPT:Science Communication in the Age of Artificial Intelligence[J]. Journal of Science Communication,2023,22(2):1-15.

段偉文,余夢. 生成式人工智能時代的終身創(chuàng)造力培養(yǎng)[J].科普研究,2024,19(2):13-22.

劉永謀,伍銘偉. AIGC對人類智能的沖擊與提升公民科學(xué)素質(zhì)的可能路徑[J].科普研究,2024,19(2):39-44,63.

楊慶峰. 人工智能科普及其問題[J].科普研究,2024,19(2):32-38.

李健民. 促進公眾理解生成式人工智能的集體責(zé)任分析——基于集體行動的視角[J].科普研究,2024,19(2):45-53.

閆宏秀,楊映瑜. 生成式人工智能時代的使用者倫理研究[J].科普研究,2024,19(2):23-31.

Broadbent H J,Osborne T,Mareschal D,et al. Withstanding the Test of Time:Multisensory Cues Improve the Delayed Retention of Incidental Learning[J]. Developmental Science,2019,22(1):e12726.

中國公民抽樣調(diào)查課題組.我國公民科學(xué)素質(zhì)的對策發(fā)展現(xiàn)狀——基于第十三次中國公民科學(xué)素質(zhì)抽樣調(diào)查的分析[J].科普研究,2024,19(2):5-12.

Lee T K. Artificial Intelligence and Posthumanist Translation:ChatGPT versus the Translator[EB/OL].(2023-08-01)[2024-07-09]. https://doi.org/10.1515/applirev-2023-0122.

Anaafo D. Between Science and Local Knowledge:Improving the Communication of Climate Change to Rural Agriculturists in the Bolgatanga Municipality,Ghana[J]. Local Environment,2019,24(3):201-215.

尼葛洛龐帝.數(shù)字化生存[M].胡泳,范海燕,譯.北京:電子工業(yè)出版社,2017:182.

Thompson A D. What’s in My AI? [EB/OL]. [2024-07-09]. https://s10251.pcdn.co/pdf/2022-Alan-D-Thompson-Whats-in-my-AI-Rev-0b.pdf.

Doss C,Mondschein J,Shu D,et al. Deepfakes and Scientific Knowledge Dissemination[J]. Scientific Reports,2023,13(1):13429.

Scaling Monosemanticity:Extracting Interpretable Features from Claude 3 Sonnet[EB/OL]. [2024-07-07]. https://transformer-circuits.pub/2024/scaling-monosemanticity/index.html.

Gillespie T. Generative AI and the Politics of Visibility[J]. Big Data and Society,2024,11(2):1-24.

Due S,Das S,Andersen M,et al. Evaluation of Large Language Models:STEM Education and Gender Stereotypes[EB/OL].(2024-06-14)[2024-07-09]. https://arxiv.org/abs/2406.10133.

Vincent J. YouTuber Trains AI Bot on 4chan’s Pile O’Bile with Entirely Predictable Results[EB/OL].(2022-06-08)[2024-07-09]. https://www.theverge.com/2022/6/8/23159465/youtuber-ai-bot-pol-gpt-4chan-yannic-kilcher-ethics.

Gerken T,McMahon Liv. Game of Thrones Author Sues ChatGPT Owner OpenAI[EB/OL].(2023-09-21)[2024-07-09]. https://www.bbc.com/news/technology-66866577.

Sokal A. A Physicist Experiments with Cultural Studies[J]. Lingua franca,1996,6(4):62-64.

Vosoughi S,Roy D,Aral S. The Spread of True and False News Online[J]. Science,2018,359(6380):1146-1151.

Mede N G,Sch?fer M S. Science-related Populism:Conceptualizing Populist Demands Toward Science[J]. Public Understanding of Science,2020,29(5):473-491.

游慧超,孫登江,歐陽和平,等.顱腦手術(shù)定位中三維影像體表投影技術(shù)的應(yīng)用價值[J].實用臨床醫(yī)藥雜志,2022,26(14):14-17.

機器人“小科”亮相“十三五”科技成就展[EB/OL].(2021-10-27)[2024-09-21]. https://www.stdaily.com/index/kejixinwen/2021-10/27/content_1228536.shtml.

陳勁,陽鎮(zhèn).數(shù)字化時代下的開放科學(xué):倫理難題與推進路徑[J].吉林大學(xué)社會科學(xué)學(xué)報,2021,61(3):116-128,236.

李正風(fēng),王碩.數(shù)字素養(yǎng)、數(shù)據(jù)權(quán)利與數(shù)字倫理[J].科普研究,2022(6):8-14.

童云峰.走出科林格里奇困境:生成式人工智能技術(shù)的動態(tài)規(guī)制[J].上海交通大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2024,32(8):53-67.

李偉鑫,王曉麗. ChatGPT類生成式人工智能的倫理問題、原因分析與規(guī)制路徑[J].昆明理工大學(xué)學(xué)報(社會科學(xué)版),2024,24(1):54-62.

(編輯 顏 燕 和樹美)

①一家位于美國的人工智能研究企業(yè),它開發(fā)了包括ChatGPT和DALL-E在內(nèi)的多個知名人工智能模型。

②由OpenAI開發(fā)的一種先進的自然語言處理模型,能夠理解和生成人類語言,廣泛應(yīng)用于聊天機器人和文本生成。

③由OpenAI于2021年1月份推出的圖像生成系統(tǒng),可以根據(jù)書面文字生成圖像,展現(xiàn)了AI在視覺藝術(shù)領(lǐng)域的潛力。

④由OpenAI發(fā)布的文本生成視頻模型,能夠根據(jù)文本提示生成連貫的視頻內(nèi)容。

⑤該數(shù)據(jù)來源于清華大學(xué)科學(xué)技術(shù)與社會研究中心開展的“2023年科技與社會晴雨表調(diào)查”。該調(diào)查采用配額非概率抽樣方法,基于全國第七次人口普查的地域和年齡分布設(shè)計抽樣方案,于2023年12月開展在線問卷調(diào)查,共收集了9 906個樣本,經(jīng)過篩選得到3 000個有效樣本。

①Anthropic是一家美國的人工智能企業(yè),專注于開發(fā)通用AI系統(tǒng)和語言模型。

①科林格里奇困境(Collingridge Dilemma)指在技術(shù)發(fā)展早期,因?qū)ζ錆撛谟绊懭狈α私?,很難對其進行有效監(jiān)管或引導(dǎo);而一旦技術(shù)廣泛應(yīng)用,其影響變得清晰,但調(diào)整或控制的難度也隨之增大。

收稿日期:2024-05-22

基金項目:國家社會科學(xué)基金重大項目“深入推進科技體制改革與完善國家治理體系研究”(21ZDA017);中國科普研究所項目“科普服務(wù)文化建設(shè)研究”(240103);清華大學(xué)自主科研項目“大學(xué)創(chuàng)新體系相關(guān)理論與政策問題研究”(20241080002);浙江省哲學(xué)社會科學(xué)規(guī)劃課題“知識分配力視域下新質(zhì)生產(chǎn)力科普的實踐路徑研究”(24BMHZ048YB)。

作者簡介:王碩,清華大學(xué)社會科學(xué)學(xué)院博士研究生,研究方向:人工智能治理、科技傳播,E-mail:s-wang21@mails.tsinghua.edu.cn。李正風(fēng)為通訊作者,E-mail:lizhf@tsinghua.edu.cn。

Empowering Science Popularization through Generative Artificial Intelligence:Technological Opportunities,Ethical Risks,

and Response Strategies

Wang Shuo Yan Yan   Li Zhengfeng

(School of Social Sciences,Tsinghua University,Beijing 100084)

Abstract:By facilitating greater participation,richer content presentation,more efficient knowledge translation,and more focused science outreach,generative AI has the potential to enhance science communication and popularization significantly. This technology also introduces two different kinds of ethical risks. On the one hand,generative AI raises technical,ethical questions about information authenticity,fairness,security,bias,and copyright. On the other hand,problems historically linked to science popularization may get worse,such as oversimplification,a lack of scientific communication,the erosion of scientific authority,and populism. Consequently,it is crucial to investigate the application potential of generative artificial intelligence in science popularization practices going forward,as well as to raise the technical awareness,application capabilities,and supervision level of the general public,science popularization professionals,and regulators. Additionally,it is necessary to guarantee the accuracy,privacy security,and fairness of the content produced for science popularization.

Keywords:generative AI;science popularization;technological opportunities;ethical risks

CLC Numbers:N4;TP18 Document Code:A DOI:10.19293/j.cnki.1673-8357.2024.04.001

含山县| 平顺县| 栾川县| 九龙坡区| 昌乐县| 泰兴市| 秦皇岛市| 崇州市| 大城县| 临泉县| 壤塘县| 鞍山市| 绩溪县| 鱼台县| 油尖旺区| 泰安市| 高唐县| 琼中| 容城县| 绥滨县| 五原县| 洪江市| 罗定市| 张家界市| 宁远县| 建湖县| 久治县| 米易县| 瓦房店市| 黔西县| 忻城县| 怀远县| 伊吾县| 启东市| 璧山县| 博湖县| 厦门市| 贺州市| 乌恰县| 张掖市| 甘德县|