[摘 " 要] 人工智能已經(jīng)成為新時代國家發(fā)展和競爭的動力源頭,在這一前提下,要更重視人工智能科普。目前社會上對于人工智能的看法受制于傳統(tǒng)觀念,如將人工智能看作工具、生活中的日常對象,從而導致人們?nèi)狈θ斯ぶ悄艿娜胬斫狻1疚膹娜斯ぶ悄茏陨怼⑷斯ぶ悄芘c環(huán)境、人工智能與人類的關(guān)系出發(fā),以透明性、關(guān)聯(lián)性、增強性等概念為基礎(chǔ),提出人工智能科普應分層展開,并改變原有科普觀念。分層展開意味著從三個層次出發(fā)理解人工智能,透明性是對人工智能機制和原理的普及,對于科學工作者來說較有意義;關(guān)聯(lián)性是人工智能與社會的關(guān)系,具有明顯的社會價值,與大眾密切相關(guān);而增強性強調(diào)人類與人工智能的共在關(guān)系,對于人類未來應對超級智能的到來意義重大。改變原有科普觀念是對人工智能的認知從工具到智能體、從對象到環(huán)境的變革,只有這樣才能更好實現(xiàn)人工智能指向民生,推動我國新一代人工智能健康發(fā)展。
[關(guān)鍵詞]人工智能 " 科普 " 透明性 " 關(guān)聯(lián)性 " 增強性
[中圖分類號] "N4;TP18 [文獻標識碼] A [ DOI ] 10.19293/j.cnki.1673-8357.2024.02.004
人工智能的發(fā)展已經(jīng)超出了我們的想象,無論是其發(fā)展速度還是深度。從速度來看,不到百年的時間,通用人工智能已經(jīng)逼近人類生活;從深度來看,人工智能的算法層次達到千層①,涉及參數(shù)以千億來計算。近年來,人工智能無論是算法還是產(chǎn)品都有著極大提升,從ImageNet到Transformer,從2023年的ChatGPT到2024年的Sora都展示了人工智能的強勁力量。各種關(guān)于人工智能的觀點、流言包圍著人們。面對此種情況,進行人工智能科普成為急迫需要。本文將從敘事方式、構(gòu)成維度以及觀念變革等角度探討如何進行人工智能科普這一問題。
1人工智能的三種敘事模式
目前,人工智能敘事方式已經(jīng)形成了科學化敘事、科幻化敘事、詩意化敘事三種明顯形式。
科學化敘事強調(diào)人工智能以神經(jīng)科學、計算機科學為基礎(chǔ),并將AI(Artificial Intelligence)洞見建立在上述科學研究的基礎(chǔ)上??茖W化敘事對AI的未來發(fā)展進行了討論。OpenAI對于一般通用人工智能的推崇通過ChatGPT和Sora這樣的科技進展表現(xiàn)出來,盡管學界對此存在不同意見。楊立昆(Yan LeCun)極力反對Sora是一種世界模型,指出其根據(jù)文字提示生成逼真的視頻,并不代表模型理解了物理世界,他甚至在網(wǎng)絡(luò)推文中指出“通過生成像素來對世界進行建模是一種浪費,就像那些被廣泛拋棄的通過合成來分析的想法一樣,注定失敗”。弗朗索瓦·肖萊(Franc?ois Chollet)也持相似觀點,在網(wǎng)絡(luò)推文中指出AI通過觀看視頻無法學習到世界模型。拉菲爾·米莉勒(Rapha?l Millière)認為,Sora作為視頻生成器,不是人們想象中的世界模擬器,從更為寬泛的意義看,是有限的世界模型[1]。但是如果排除這些干擾因素,我們會看到人們沿著超級智能發(fā)展的“太陽”全力追趕??梢哉f,科學化敘事整合了科學界、產(chǎn)業(yè)界兩大領(lǐng)域,將人工智能理論與實踐關(guān)聯(lián)起來,形成了一種影響社會的極大力量。然而這種敘事卻與人類認識自己沒有關(guān)系。哲學家的技術(shù)敘事的重要目的是通過經(jīng)驗抵達先驗,而對于人類來說,就是理解人自身,“只是在人構(gòu)成的器具和人造物那里,人才學會理解自己身體的屬性和結(jié)構(gòu)。只有在反思由人制成的東西時,人才把握并理解他自己的生理——他制造那些間接工具的方式讓他了解那些支配著他的身體結(jié)構(gòu)和他的身體個別部分的生理功能的法則”[2]。
科幻化敘事強調(diào)對人工智能的理解要以科幻小說或電影為基礎(chǔ),并將相應的洞見建立在超級智能的出現(xiàn)與宇宙、人類命運的關(guān)系問題之上。科幻突破了科學限制,通過科幻電影的形式給人類創(chuàng)造了一種獨特的敵托邦式技術(shù)文化,例如預備毀滅人類的超級智能系統(tǒng)“天網(wǎng)”等??苹没瘮⑹麻_始指向人類,關(guān)切人類的未來命運和發(fā)展。但是從科普角度來看,其中表現(xiàn)敵托邦的科幻電影和小說卻不利于人們對人工智能的接受,反而會加劇人們對AI的希伯來式觀點,“另一種觀點我稱之為希伯來的觀點。這一命名基于希伯來人禁止刻畫圖像的戒律,因為這些造物會引起人們對它的恐懼和褻瀆感。這種由人工智能引起的恐懼和褻瀆感在文學中(也會在生活中出現(xiàn),因為人工智能即將融入我們的日常)隨處可見,諸如約瑟夫·格倫、弗蘭肯斯坦的無名怪物、巫師的學徒等”[3]。
詩意化敘事強調(diào)對人工智能的理解以文學想象為基礎(chǔ)展開,大膽設(shè)想人類在未來智能時代出現(xiàn)的變化,并用一種新的人類形象“后人類”來概括。詩意化敘事以烏托邦的手法對人工智能與人類未來進行刻畫,這種刻畫的特點可以用希臘式的方式概述。它和科學化的敘事有相似之處,能夠為人類走向未來提供不同的思考基礎(chǔ),科學化敘事為人類未來提供理性基礎(chǔ),而詩意化敘事則為人類未來提供想象基礎(chǔ)。
這三種敘事影響了社會對人工智能的接受程度,科學化敘事提供了理性支撐,從研究和產(chǎn)業(yè)角度提出了人工智能的發(fā)展及其影響;科幻化敘事和詩意化敘事會對人工智能科普產(chǎn)生震蕩性影響,至少會讓公眾在后果上產(chǎn)生不夠理性的看法。而要做到讓公眾理性看待人工智能,順利展開人工智能科普,必須要對人工智能倫理的基本維度有足夠的理解。本文認為,我們需要明晰人工智能自身、人工智能與環(huán)境、人工智能與人類的關(guān)系等問題,才能夠開展人工智能科普教育。
2人工智能科普需要關(guān)注的三個維度
進行人工智能科普必須兼顧三個方面的維度:人工智能自身、人工智能與環(huán)境、人工智能與人類的關(guān)系。
第一,人工智能自身維度。人工智能科普必須對人工智能的基本原理、算法構(gòu)造進行充分的介紹,并需要考慮到“透明性”這一原則,該原則涉及和體現(xiàn)AI本身的問題。筆者曾經(jīng)在《從人工智能難題反思AI倫理原則》一文中分析得出,透明性與關(guān)聯(lián)性是AI倫理的基礎(chǔ)概念[4]。在人工智能基本原理上,需要對符號主義和神經(jīng)網(wǎng)絡(luò)做進一步的科普,通過歷史故事讓社會公眾走進人工智能的“宮殿”。在對人工智能進行科普的時候,需要對人工智能的基本算法進行介紹。比如Transformer算法就是一個有趣的算法,這種算法采用注意力、自注意力機制,“注意”這個詞對大眾來說非常熟悉,所以對這個算法進行科普的時候完全可以結(jié)合這一點進行。此外,通過這個算法也可以讓科學界對記憶等哲學基本問題有所了解,從而更好地反哺科學界。
第二, 人工智能與環(huán)境維度。上述考慮到人工智能自身的做法恰恰是建立在“人工智能是實體”這樣一個前提之上,然而,人工智能并不單純是一個實體。對人工智能進行科普還需要考慮它與環(huán)境的關(guān)聯(lián),其中最為重要的是人工智能對自然環(huán)境的影響。大模型對資源的消耗非常大,尤其是水資源。大模型訓練大量的數(shù)據(jù),而進行運算的計算機會產(chǎn)生很高的熱量,這就需要散熱,而成本最低的散熱方式就是水散熱,因此大部分數(shù)據(jù)中心都建在水資源豐富的地方。微軟在其《2022年環(huán)境可持續(xù)性報告》(2022 Environmental Sustainability Report)中披露,從2021年到2022年,該公司的全球用水量大幅增長了34%,接近17億加侖(超過2500個奧運會規(guī)模的游泳池的儲水量)[5]。拉塞·沃爾夫·安東尼(Lasse Wolff Anthony) 認為,社區(qū)必須認真對待資源消耗問題,其一篇文章提到,從 2012 年到 2018 年之間,AI 研究的能源成本增長了約30萬倍[6]。一項評估認為,在中國香港的谷歌云平臺碳排放量約為702克二氧化碳/千瓦時;在香港、北京的亞馬遜網(wǎng)絡(luò)服務器碳排放量約為1 382克二氧化碳/千瓦時[7]。因此,人工智能與環(huán)境的關(guān)系,可以用關(guān)聯(lián)性來概括,讓全社會認識到人工智能對環(huán)境的影響。
第三,人工智能與人類的關(guān)系維度。人工智能對于人類的影響可以通過增強性來把握。增強性有利于人們認識到人工智能對人類產(chǎn)生的淺層和深層影響。增強性體現(xiàn)了AI與人類的關(guān)系,來自增強智能范疇。增強智能原初是一個科學范疇,展示了一種人機混合、融合的關(guān)系,但是,需要做的是將其哲學化和道德化,從而將這個范疇改造為AI倫理中的基礎(chǔ)概念[8]。在筆者看來,當人工智能作為工具呈現(xiàn)出來的時候,人類需要了解如何做到有效和合理利用它,并杜絕濫用和誤用,比如利用Sora生成欺騙性視頻進行詐騙。在利用醫(yī)療智能助手的時候,也需要注意這種助手的有限性,它無法代替醫(yī)生的專業(yè)治療,這些是人工智能應用在淺層次上的表現(xiàn)。深層次則是人工智能高度發(fā)展,進入超級智能的范疇。人類必須對超級智能進行客觀的認識,而不是簡單地把這個問題歸結(jié)為科幻敘事。事實上,這個問題已經(jīng)從科幻領(lǐng)域走入科學領(lǐng)域。盡管科學家在這個問題上存在爭議,但是諸如杰弗里·辛頓(Geoffrey Hinton)及其學生伊利亞·蘇茨克維(Ilya SutsKever)共同擔憂的那樣,超級智能一旦失控,會產(chǎn)生致命性危險,比如滅絕人類[9]。而人工智能科普需要讓公眾對這個維度有更多的了解。
人工智能科普要兼顧這三個維度,分層次、有區(qū)別地進行公眾教育。一般公眾對人工智能專業(yè)知識的掌握程度,不需要做到專家級別,但對算法、智能體的范疇要有基本的掌握。比如算法是具有清晰性、有限制性、可行性和輸入—輸出特征的程序①,
熟知的算法有循環(huán)神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)、Transformer以及信息推薦算法等;在對智能體的定義方面,需要掌握大衛(wèi)·L.普爾(David L. Poole) 對智能體的理解,即“在具體的環(huán)境中具有動作能力的對象”[10]。了解這些知識才可以不必淪為人工智能的門外漢。對于專業(yè)人士來說,人工智能方面的知識需要專家間互相溝通,所以透明性原則就是為了實現(xiàn)這樣一個目的,讓人工智能原理向公眾開放、在專家間共享。人工智能與環(huán)境的關(guān)系需要讓公眾知曉,公眾對于人工智能可能產(chǎn)生的對環(huán)境的影響要有基本的把握。對于專家來說,不僅要誠實地將這方面問題進行展示,而且要積極探索通過全球合作克服上述問題的可能性,并從專家責任的角度讓政府知曉相關(guān)問題,為法律決策的形成提供堅實的基礎(chǔ)。人工智能與人類的關(guān)系并不是一般的知識傳授者所能夠承擔的,它需要科學家、哲學家、文學家、科幻家的聯(lián)手合作。科學家需要給出超級智能構(gòu)建的路線圖,而不是互相爭吵,讓公眾無從把握這方面的情況。在OpenAI的爭斗中,伊利亞的失敗是令人痛心的,他和辛頓一樣,意識到了人工智能可能產(chǎn)生的終極危險,但是可惜的是,山姆·奧特曼(Sam Altman)等人表現(xiàn)出的“資本壓倒一切”將啟蒙式的觀念遮蔽起來。在人類歷史上,希伯來式的觀念總是不討喜,因為這種觀念充滿了敵托邦的色彩。對于哲學家來說,對于超級智能的本質(zhì)要給予闡述,能夠讓人們從理性上認識到超級智能的問題如此迫切,已經(jīng)從科幻轉(zhuǎn)變?yōu)榭茖W現(xiàn)實的問題。對于文學家來說,想象必不可少,他們通過想象將人工智能與人類未來的多種可能性予以揭示,如今文學家已將后人類這一未來可能性呈現(xiàn)出來。對于科幻家來說,他們與前者的差異在于把想象力集中在科幻領(lǐng)域展現(xiàn)出來,他們的想象更加大膽,每一種想象都將多元可能性展現(xiàn)出來。
3人工智能科普:倫理教育的三個補充
要讓社會公眾對人工智能有一個準確而客觀的認識,必須意識到,人工智能倫理教育需要由三個部分構(gòu)成,而且這三個部分缺一不可。
其一,科普教育要強調(diào)將治理與普及相結(jié)合。人工智能作為國家戰(zhàn)略性新興產(chǎn)業(yè),對其的宣傳教育不能被簡單看作是知識的無限制傳播,而必須要有序、有理地推進。國家層面出臺必要的政策是自上而下推進治理的根本,我國在這個方面已經(jīng)有所行動。2021年《關(guān)于科技倫理治理的意見》以及各類人工智能發(fā)展的規(guī)范、算法監(jiān)督審查方面的文件紛紛出臺,這些政策的出臺為我國的人工智能倫理治理提供了基礎(chǔ)依據(jù),對人工智能企業(yè)及活動主體進行了約束,使其活動有了法律政策依據(jù)。公眾也因此能理性看待人工智能可能造成的后果。有了國家法規(guī)的約束,人工智能的研發(fā)、使用能夠做到有法可依。
其二,科普教育要強調(diào)以公眾能理解的人工智能為核心。這一路徑幫助公眾更好地理解、走近人工智能及其研發(fā)機構(gòu)。當公眾能夠從透明性、關(guān)聯(lián)性和增強性三個層面看待人工智能的時候,基本上也能夠從人工智能自身、人工智能與環(huán)境、人工智能與人類的關(guān)系等方面對其進行宏觀把握。但僅僅是理性認識人工智能還不夠,還需要讓公眾走進企業(yè),理解人工智能企業(yè)、實驗室所做事情的意義。在此基礎(chǔ)上,公眾能夠做到更好地使用企業(yè)開發(fā)的各種智能產(chǎn)品。未來社會必然會呈現(xiàn)為智能社會,關(guān)鍵在于正確認識人工智能的未來指向。在這一方面,應該大力宣傳人工智能已成為指向民生的戰(zhàn)略性技術(shù)。2018年,習近平總書記在“推動我國新一代人工智能健康發(fā)展”的講話中指出,“要加強人工智能同保障和改善民生的結(jié)合,從保障和改善民生、為人民創(chuàng)造美好生活的需要出發(fā),推動人工智能在人們?nèi)粘9ぷ?、學習、生活中的深度運用,創(chuàng)造更加智能的工作方式和生活方式。要抓住民生領(lǐng)域的突出矛盾和難點,加強人工智能在教育、醫(yī)療衛(wèi)生、體育、住房、交通、助殘養(yǎng)老、家政服務等領(lǐng)域的深度應用,創(chuàng)新智能服務體系”[11]。
其三,科普教育要讓全社會意識到人工智能存在的未來風險。2024年3月,歐洲議會正式通過了《人工智能法案》(Artificial intelligence act),這項法案的一個亮點在于將人工智能風險等級化,并劃分為不可接受的風險(Unacceptable risk)、高風險(High risk)、透明風險(Tranparency risk)、低風險(Minimal risk)[12]。不可接受的風險即意味著該項技術(shù)要被禁止,比如失控的超級智能,而其他三種類別則依據(jù)技術(shù)的危險程度進行劃分。
以上這三點是對人工智能科普觀念的補充內(nèi)容,但是還不夠,我們還要改變在傳統(tǒng)的思維方式下對人工智能理解時產(chǎn)生的偏見。
4人工智能科普觀念的變革
有效進行人工智能科普需要促進兩個方面的觀念變革。
第一, 對人工智能的認識超越工具走向智能體。在傳統(tǒng)技術(shù)觀念中,技術(shù)是解決問題的工具這一觀念深入人心,如杯子可以用來喝水,汽車用于通行。在一般意義上,技術(shù)提高了人的效率,提升了人在生活方面的感受能力,如杯子已經(jīng)呈現(xiàn)出多樣性特征:從材料看,有鋼化杯、玻璃杯、紙杯等;從形狀看,有圓柱狀杯子和非圓柱狀杯子,并且杯壁上出現(xiàn)的兩三個指槽可以讓用戶感到更為舒服。對于技術(shù)物品的多樣性,喬治·巴薩拉(George Bas)從進化論的角度進行了解釋,他認為用戶需求的多樣性導致了杯子的多樣性[13]。這種解釋就是從工具角度進行的,但是對于人工智能而言,其功用已經(jīng)遠遠超出工具范疇,這是進行人工智能科普的時候需要注意的地方。當斯蒂芬·威廉·霍金(Stephen William Hawking)指出,人工智能是一個人類事件的時候,他說明了人工智能具有極大影響力的根本特質(zhì),即它不僅僅是有限身體的延伸[14]。如今辛頓、伊利亞等人已經(jīng)看到了未來人工智能的影響,即一種超級智能的形態(tài)呼之欲出。在這種情況下,控制工具的觀念顯然是無效的,需要新的“共生”觀念來支撐對作為主體的人工智能的理解?!肮采笔俏覀冊谟懻撛鰪娭悄軙r引申出來的重要范疇,它從深層次指出了人類與超級智能體的未來處境。當我們對人工智能的認識超越工具的時候,就能看到人工智能的不同之處。超級智能背后依托的是作為智能體的人工智能,并遠超于人類當下的形態(tài)。主體觀念的存在問題讓我們對人工智能的理解陷入形而上學陷阱,即一個需要對主體—客體作出區(qū)分并探究關(guān)聯(lián)的“泥沼”??梢哉f,智能體是一個很有利的范疇。科學界對智能體的理解以普爾為典型,這位加拿大學者對智能體作出了解釋,“在具體的環(huán)境中具有動作能力的對象,如一個人、一個機器、一只狗和一段程序等”[10]。從這個定義中我們可以分析得出兩個關(guān)鍵要素。其一,智能體的關(guān)鍵特性是與環(huán)境對應,即能夠在具體的環(huán)境中做出應對的存在者。其二,人類、動物和機器都屬于智能體,但是存在差異。對這種差異可以作出其能力不同的理解,如人類可以對環(huán)境做出改變,動物則只能做出微小改變,而機器等只能被動地構(gòu)成環(huán)境,從中可以看出他們的能動性呈現(xiàn)遞減的情況。此外,馬丁·海德格爾(Martin Heidegger)對這三者作出的解釋值得我們借鑒,在他看來,三者的世界性存在差異,人類能夠主動構(gòu)建符號、世界,能夠擁有世界;動物構(gòu)建世界的能力微弱,無法構(gòu)建符號和擁有世界;機器不存在構(gòu)建世界的可能性[15]。所以從這個角度來看,把Sora看成世界模型是存在問題的,Sora無法構(gòu)建世界。
第二, 超越對象走向環(huán)境。在進行人工智能科普時,需要確立一個新的觀念,即人工智能正在構(gòu)建智能環(huán)境。當下人工智能界研制、生產(chǎn)了諸多產(chǎn)品,也就是對象,這些對象最終會融入智能環(huán)境。在這個融合過程中,會產(chǎn)生什么結(jié)果是需要人類追問的事情。筆者認為,此種融合會最終使人類消失,因為在這個過程中人類的主體地位會消失。這個設(shè)想存在一定的合理性,也顯示了未來智能世界潛在的危險性,它不再是以一種怪物的形式出現(xiàn)在世界面前來把人類消滅,這種科幻敘事深深影響了我們對人工智能的理解。而從現(xiàn)實敘事來說,人工智能構(gòu)成智能環(huán)境才是最大的危險,當智能環(huán)境封閉的時候,這種危險會真正來臨。有些學者從人類的角度推斷人類會深度智能化、深度數(shù)據(jù)化,這還是從實體角度來作出的判斷。事實上,從關(guān)系角度來看,人融入智能環(huán)境才是真實發(fā)生的事情。未來的家庭、現(xiàn)實的醫(yī)院都在構(gòu)建智能環(huán)境,這些環(huán)境能夠?qū)崿F(xiàn)對人的實時掌控,讓專業(yè)人員獲取用戶的實時狀況。但是人工可調(diào)控性卻是智能環(huán)境一個必要的可選項。對于這個智能環(huán)境,人文學者早已批判過。馬克斯·韋伯(Max Weber)曾經(jīng)提出“鐵籠”的比喻,指出工業(yè)技術(shù)發(fā)展構(gòu)建起束縛人類自身的籠子[16]。如果借用這個比喻來看智能時代人類的處境,“數(shù)籠”是一個新的狀態(tài),人類處在這個籠子中。但是在科學家看來,并非完全如此。李飛飛等曾指出,深度學習和無接觸傳感器已經(jīng)使環(huán)繞智能產(chǎn)生,這是一種對于人類在場極其敏感的物理空間,能夠幫助我們理解比喻意義上的“黑暗”空間,理解未被觀察到的健康護理空間[17]。Nature刊載了一種對于未來家庭的設(shè)想,未來以家庭為中心的老年護理將由數(shù)字技術(shù)和設(shè)備驅(qū)動,將連接互聯(lián)網(wǎng)的傳感器設(shè)備安裝在人體上,并將其分布在家中各處,以監(jiān)測老年人的健康狀況,同時將豐富的動態(tài)數(shù)據(jù)傳輸?shù)皆贫朔掌?。然后,機器學習算法對數(shù)據(jù)進行分析,以協(xié)調(diào)遠程護理人員,使患者可自主可穿戴治療設(shè)備,實現(xiàn)最佳的醫(yī)療保健。這種護理模式可以通過患者與醫(yī)生間的虛擬訪問、私人助理的語音控制以及社交、輔助機器人來實現(xiàn)[18]。
5結(jié)語
要保障我國人工智能的健康發(fā)展,除了在政策、技術(shù)、治理等方面的努力外,還需要重視科學普及這個維度。這個維度并不能作為第四個維度,而是要作為滲透各個方面的一個要素,換句話說,除了人工智能技術(shù)、知識普及,還要做到人工智能政策、人工智能倫理和人工智能治理普及。在科普時,要從對人工智能的準確理解出發(fā),把人工智能作為智能體、智能環(huán)境的意義揭示出來,要兼顧人工智能對環(huán)境造成的影響,更要看到人工智能對于人類未來產(chǎn)生的可能性風險。歐洲議會最近出臺的《人工智能法案》就很好地對風險作出了細致劃分,讓我們能夠看到何種技術(shù)有何種風險,只是目前這個風險清單還需要更進一步的精準化,只有這樣,才能讓人工智能健康發(fā)展,并且服務于人類社會。
參考文獻
Millière R. Are Video Generation Models World Simulators?[EB/OL].(2024-03-01)[2024-03-15]. https://artificialcognition.net/posts/video-generation-world-simulators/.
恩斯特·卡西爾.符號形式哲學:第二卷神話思維[M].李彬彬,譯.北京:中國人民大學出版社,2022.
帕梅拉·麥考黛克.人工智能往事[M].虞晶怡,楊麗鳳,譯.上海:格致出版社,2023.
楊慶峰.從人工智能難題反思AI倫理原則[J].哲學分析,2020,11(2):137-150.
Microsoft. 2022 Environmental Sustainability Report[EB/OL]. [2023-03-10]. https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RW15mgm.
Anthony W L,Kanding B,Selvan R. Carbontracker:Tracking and Predicting the Carbon Footprint of Training Deep Learning Models[EB/OL].(2020-07-06)[2024-03-17]. https://arxiv.org/abs/2007.03051.
Lacoste A,Luccioni A,Schmidt V,et al. Quantifying the Carbon Emissions of Machine Learning[EB/OL].(2019-10-21)[2024-03-17]. https://arxiv.org/abs/1910.09700.
楊慶峰.增強智能的雙重含義及其影響[J].上海大學學報(社會科學版),2023,40(6):51-62.
新浪網(wǎng).百年后超級智能將“毀滅人類”——辛頓、馬庫斯預測人工智能未來[EB/OL].(2024-03-15)[2024-03-17]. https://k.sina.com.cn/article_6080368657_16a6b10110190182ru.html.
Poole D L,Mackworth A K.人工智能:計算Agent基礎(chǔ)[M]. 董紅斌,董興業(yè),汪延華,譯. 北京:機械工業(yè)出版社,2015.
習近平.論科技自立自強[M].北京:中央文獻出版社,2023.
European Parliament. Artificial Intelligence Act[EB/OL]. [2023-03-10]. https://www.europarl.europa.eu/RegData/etudes/BRIE/2021/698792/EPRS_BRI(2021)698792_EN.pdf.
喬治·巴薩拉.技術(shù)發(fā)展簡史[M].周光發(fā),譯.上海:復旦大學出版社,2001.
Rohr H. Web Summit Opening Night Highlight:Stephen Hawking’s Keynote Speech[EB/OL].(2017-11-08)[2024-03-17].https://nspirement.com/2017/11/08/web-summit-opening-night-highlight-stephen-hawkings-keynote-speech.html.
Heidegger M. The Fundamental Concepts of Metaphysics:World,F(xiàn)initude,Solitude[M]. Terre Haute:Indiana University Press,1995.
Weber M,Kalberg S. The Protestant Ethic and the Spirit of Capitalism[M]. New York:Routledge,2001.
Haque A,Milstein A,F(xiàn)ei-Fei L. Illuminating the Dark Spaces of Healthcare with Ambient Intelligence[J]. Nature,2020,585(7824):193-202.
Chen C,Ding S,Wang J. Digital Health For Aging Populations[J]. Nat Med,2023(29):1623-1630.
(編輯 "顏 " "燕 " "荊祎瀾)