[德]安德里亞斯·蘇德曼
機(jī)器和程序都不是黑箱;它們是經(jīng)過(guò)設(shè)計(jì)的人工制品,包括硬件和軟件,我們可以打開(kāi)它們,看看里面的情況。②Allan Newell and Herbert A.Simon,“Computer Science as Empirical Inquiry.Symbols and Search”,Mind Design II:Philosophy,Psychology,Artificial Intelligence,John Haugeland,ed.,Cambridge,MA:MIT P.,1997[1976],p.82.
批判性探索現(xiàn)代人工智能(AI)技術(shù)的媒介政治維度意味著什么?這篇文章的主要焦點(diǎn),不是研究由人工智能驅(qū)動(dòng)的特定應(yīng)用如圖像或語(yǔ)音識(shí)別系統(tǒng)的政治層面,而是人工智能技術(shù)基礎(chǔ)設(shè)施本身的政治含義,特別是關(guān)于自2006年起被稱為“深度學(xué)習(xí)”(簡(jiǎn)稱DL,也被稱為“模擬神經(jīng)網(wǎng)絡(luò)”或“人工神經(jīng)網(wǎng)絡(luò)”——ANN)的機(jī)器學(xué)習(xí)方法。首先,這篇文章探討了在多大程度上人工神經(jīng)網(wǎng)絡(luò)/深度學(xué)習(xí)必須被看作一種根本不透明的黑箱技術(shù),這種技術(shù)或許不能或者只能被人類(lèi)部分地理解。其次,關(guān)于第一個(gè)問(wèn)題,我們的目標(biāo)是針對(duì)一家名為OpenAI的研究公司,對(duì)其議程和活動(dòng)進(jìn)行批判性審視,據(jù)稱該公司促進(jìn)了人工智能的民主化,并試圖使類(lèi)似于深度學(xué)習(xí)技術(shù)變得更易獲得和透明。顯然,這種理想主義的主張不應(yīng)被簡(jiǎn)單地視為理所當(dāng)然,特別是考慮到OpenAI這樣的公司涉及大量資金。例如,開(kāi)源人工智能之類(lèi)的策略似乎更能展示這些公司的技術(shù)潛力,可以比同行更勝一籌,或者吸引稀缺人才。但是,比起質(zhì)疑這種說(shuō)法的真實(shí)性或意識(shí)形態(tài)含義,更重要的也許是,我們必須解決更多的基本問(wèn)題:如何才能促進(jìn)一個(gè)可能根本無(wú)法打開(kāi)的黑箱的透明度和可及性?如果沒(méi)有數(shù)據(jù)的民主化,還能實(shí)現(xiàn)人工智能的民主化嗎?
在解決這些問(wèn)題之前,有必要回顧一下深度學(xué)習(xí)最近是如何成為人工智能主導(dǎo)范式的。相關(guān)的一個(gè)重要事件發(fā)生于2012年。當(dāng)時(shí),多倫多大學(xué)的三位學(xué)者亞歷克斯·克里澤夫斯基(Alex Krizhevsky)、伊利亞·蘇茨克維爾(Ilya Sutskever)和杰弗里·辛頓(Geoffrey Hinton)首次有效訓(xùn)練了一個(gè)所謂的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network)。這是傳統(tǒng)人工神經(jīng)網(wǎng)絡(luò)(ANN)的一種特殊變體,它基于現(xiàn)在著名的ImageNet數(shù)據(jù)庫(kù)以及快速并行組織的圖形處理器(GPU),能對(duì)圖像和物體識(shí)別進(jìn)行優(yōu)化。①Jensen Huang,“Accelerating AI with GPUs:A New Computing Model”,Nvidia.Online:https://blogs.nvidia.com/blog/2016/01/12/accelerating-ai-artificial-intelligence-gpus/.特別是GPU的大量使用使一切變得不同:多倫多團(tuán)隊(duì)能夠?qū)⒁酝鶊D像識(shí)別方法的錯(cuò)誤率降低一半以上。②在短短七年時(shí)間里,對(duì)數(shù)據(jù)集中的物體進(jìn)行分類(lèi)的準(zhǔn)確率從71.8%上升到97.3%,不僅僅是由于高價(jià)值,2017年是這個(gè)著名比賽的最后一年。表面來(lái)看,這一增長(zhǎng)聽(tīng)起來(lái)可能并不令人印象深刻,但它足以吸引谷歌和臉書(shū)等領(lǐng)先IT公司的注意,它們迅速雇用了楊樂(lè)昆(Yann LeCun)和杰弗里·辛頓(Geoffrey Hinton)這樣的領(lǐng)軍科學(xué)家,還收購(gòu)了DNNResearch和DeepMind這樣的人工智能創(chuàng)業(yè)公司。這些公司對(duì)深度學(xué)習(xí)技術(shù)抱有強(qiáng)烈興趣并不奇怪,因?yàn)樗麄冊(cè)缇鸵呀?jīng)利用大數(shù)據(jù)了,現(xiàn)在他們獲得了一種強(qiáng)大技術(shù)能夠智能地處理和利用數(shù)據(jù)。③Ramón Reichert,ed,“Big Data”,Analysen zum digitalen Wandel von Wissen,Macht und ?konomie,Bielefeld:transcript,2014.例如,有了深度學(xué)習(xí)的幫助,就有可能自動(dòng)標(biāo)記用戶在社交媒體平臺(tái)上傳的圖片,或分析消費(fèi)者行為以生成個(gè)性化的廣告,或進(jìn)行個(gè)性化的推薦。當(dāng)然,目前還有許多其他應(yīng)用領(lǐng)域也在使用深度學(xué)習(xí)/人工神經(jīng)網(wǎng)絡(luò)技術(shù),如處理自動(dòng)駕駛汽車(chē)的傳感數(shù)據(jù),分析預(yù)測(cè)股票市場(chǎng)的數(shù)據(jù),或優(yōu)化機(jī)器翻譯等。一般來(lái)說(shuō),深度學(xué)習(xí)算法是模式識(shí)別和預(yù)測(cè)任務(wù)的通用工具,是處理數(shù)據(jù)內(nèi)容不確定性和模糊性的有效工具。④Goodfellow,Ian,Yoshua Bengio,Aaron Courville,Deep Learning,Cambridge,MA;London:MIT P,2016.
然而,現(xiàn)代機(jī)器學(xué)習(xí)算法能夠展開(kāi)其潛力還需要一段時(shí)間。深度學(xué)習(xí)/人工神經(jīng)網(wǎng)絡(luò)的一些技術(shù)要領(lǐng)在20世紀(jì)四五十年代已經(jīng)開(kāi)發(fā)出來(lái)了。⑤Andreas Sudmann,“Wenn die Maschinen mit der Sprache spielen”,F(xiàn)rankfurter Allgemeine Zeitung Nr.256,2.11.,N2,2016.早在那時(shí),這種人工智能范式的基本想法是開(kāi)發(fā)一個(gè)計(jì)算機(jī)系統(tǒng),這個(gè)系統(tǒng)可以通過(guò)觀察和經(jīng)驗(yàn)學(xué)習(xí),從而解決特定的問(wèn)題或完成某些學(xué)習(xí)任務(wù),過(guò)程中沒(méi)有具體的規(guī)則或理論做指導(dǎo)。⑥Thomas Mitchell,Machine Learning,New York:McGraw-Hill,1997.基本上,這是每個(gè)現(xiàn)有機(jī)器學(xué)習(xí)系統(tǒng)的方法,而不是所謂的符號(hào)化、基于規(guī)則的人工智能系統(tǒng)形式,其智能行為通常是事先手工編碼的。⑦M(jìn)argaret A.Boden,“GOFAI”,The Cambridge Handbook of Artificial Intelligence,Keith Frankish and William M.Ramsey,eds.,Cambridge,UK:Cambridige UP,2014,pp.89-107.盡管存在很多機(jī)器學(xué)習(xí)(ML)方法,但最近發(fā)現(xiàn)深度學(xué)習(xí)方法是最有效的,至少在語(yǔ)音或圖像識(shí)別這樣的人工智能研究的關(guān)鍵領(lǐng)域。
非常廣泛地說(shuō),深度學(xué)習(xí)的一個(gè)關(guān)鍵特征是,它是一類(lèi)松散地受到生物神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和學(xué)習(xí)過(guò)程啟發(fā)的技術(shù)。⑧Ethem Alpaydin,“Machine Learning”,The New AI,Cambridge,MA:MIT P.,2016.與其他機(jī)器學(xué)習(xí)任務(wù)一樣,深度學(xué)習(xí)算法通過(guò)分析數(shù)以千計(jì)甚至數(shù)以百萬(wàn)計(jì)的訓(xùn)練數(shù)據(jù),在數(shù)千甚至百萬(wàn)次迭代的基礎(chǔ)上進(jìn)行學(xué)習(xí),直到系統(tǒng)也能夠正確預(yù)測(cè)未見(jiàn)過(guò)的數(shù)據(jù)。然而,深度學(xué)習(xí)與其他機(jī)器學(xué)習(xí)方法的不同之處在于學(xué)習(xí)過(guò)程的分層分布(Hierarchical Distribution)。深度學(xué)習(xí)技術(shù)模擬的網(wǎng)絡(luò)通常由數(shù)以百萬(wàn)計(jì)的人工神經(jīng)元組成,這些神經(jīng)元被組織在不同的層上——一個(gè)輸入層、一個(gè)輸出層和一個(gè)靈活數(shù)量的中間隱藏層。⑨Trask Andrew,David Gilmore,Matthew Russell,“Modeling order in neural word embeddings at scale”,Proceedings of the 32nd International Conference on Machine Learning(ICML-15);Lille,F(xiàn)rance,2015,July 6-11.如果一個(gè)網(wǎng)絡(luò)被稱為深度,它至少有一個(gè)以上的中間層,通過(guò)網(wǎng)絡(luò)處理信息。在最底層,網(wǎng)絡(luò)只是分析非常簡(jiǎn)單的輸入形式(例如視覺(jué)數(shù)據(jù)情況下的線條和邊緣),并將這些信息轉(zhuǎn)發(fā)到下一層,處理更復(fù)雜的形式(物體的部分如臉或腿),并再次將這些信息轉(zhuǎn)發(fā)到下一個(gè)最高層,一直到最后一層輸出層,它可以預(yù)測(cè)某個(gè)未知的輸入是否與某個(gè)輸出正確匹配(圖像是否顯示某個(gè)物體)。
同樣不足為奇的是,目前人工智能熱潮迅速吸引了人文學(xué)科和文化科學(xué)的注意,而在2016年前后,自然科學(xué)以外的許多學(xué)科或多或少都忽略了機(jī)器學(xué)習(xí)技術(shù)或深度學(xué)習(xí)/人工神經(jīng)網(wǎng)絡(luò)。當(dāng)然,關(guān)于人工智能潛力和局限性的跨學(xué)科辯論傳統(tǒng)由來(lái)已久,①Joseph Weizenbaum,Computer Power and Human Reason,F(xiàn)rom Judgment to Calculation,New York:W.H.Freeman,John R.Searle,“Minds,brains,and programs”,Behavioral and Brain Sciences,Vol.3,No.3(1980),pp.417-457.但這些討論通常并不涉及人工神經(jīng)網(wǎng)絡(luò)技術(shù)的任何細(xì)節(jié)。也有一些重要例外,特別是心靈哲學(xué)和認(rèn)知心理學(xué),它們很早就對(duì)人工智能的符號(hào)和連接模式產(chǎn)生興趣。②Horgan,Terence und John Tienson,Connectionism and the Philosophy of Psychology,Cambridge,MA:MIT P.,1996.此外,在媒介研究領(lǐng)域也可以找到一些學(xué)者討論人工神經(jīng)網(wǎng)絡(luò)技術(shù)的案例,③當(dāng)然,還有一些從媒介研究角度出發(fā)的出版物,涉及AI技術(shù)的總體狀況,參見(jiàn)Dotzler,Bernhard,“Diskurs und Medium”,Zur Arch?ologie der Computerkultur,Bd.1,München:Fink,2006。其中一個(gè)是《計(jì)算機(jī)也是媒介》(Computer als Medium,1994),這是一本由弗里德里?!せ乩眨‵riedrich Kittler)、喬治·克里斯托弗·索倫(Georg Christoph Tholen)和諾伯特·博爾茨(Norbert Bolz)共同編輯的文集。有趣的是,該文本(僅由博爾茨撰寫(xiě))以某種方式抓住了人工智能連接主義范式在認(rèn)識(shí)論上的相關(guān)性,但卻沒(méi)有探索其媒介理論或歷史影響的細(xì)節(jié)。
在過(guò)去兩年左右的時(shí)間里(大概在DeepMind的AlphaGo成功之后),情況發(fā)生了重大變化。在社會(huì)和文化研究領(lǐng)域,越來(lái)越多的書(shū)籍和文章被出版,這些書(shū)籍和文章涉及對(duì)人工智能的一般研究和對(duì)深度學(xué)習(xí)技術(shù)的特別研究(Sudmann,2016;Pasquinelli,2017;Finn,2017;McKenzie,2017;Engemann/Sudmann,2018;當(dāng)然還有特刊)。例如,帕斯奎內(nèi)利(Pasquinelli,2017)最近從歷史和哲學(xué)角度寫(xiě)了一篇關(guān)于人工神經(jīng)網(wǎng)絡(luò)的短文,認(rèn)為該技術(shù)只能處理歸納推理,而沒(méi)有能力啟用皮爾斯(Peirce)所說(shuō)的歸納推理的形式。④Matteo Pasquinelli,“Machines that Morph Logic:Neural Networks and the Distorted Automation of Intelligence as Statistical Inference”,Glass Bead journal,Site 1,Logic Gate:The Politics of the Artifactual Mind,2017.此外,還有尼克·博斯特羅姆(Nick Bostrom,2014)、埃德·芬恩(Ed Finn,2017)或盧西亞諾·弗洛里迪(Luciano Floridi,2017),他們積極參與了當(dāng)前人工智能技術(shù)政治和倫理問(wèn)題的討論。尼克·博斯特羅姆最近的書(shū)(2014)引起公眾的廣泛關(guān)注,部分原因是其危言聳聽(tīng)的論點(diǎn),即超級(jí)機(jī)器智能的技術(shù)發(fā)展是人類(lèi)最大的威脅,這一點(diǎn)后來(lái)得到埃隆·馬斯克(Elon Musk)在推特上的回應(yīng)。然而,并非所有關(guān)注人工智能政治和倫理方面的人都贊同這些世界末日的觀點(diǎn)。如盧西亞諾·弗洛里迪(Luciano Floridi)相信,只要社會(huì)建立一個(gè)“由人類(lèi)監(jiān)督的設(shè)計(jì)、控制、透明和問(wèn)責(zé)系統(tǒng)”,⑤Luciano Floridi,“The rise of the algorithm need not be bad news for humans”,F(xiàn)inancial Times,May 4.Online:https://www.ft.com/content/ac9e10ce-30b2-11e7-9555-23ef563ecf9a[Last access:2018/03/06].人類(lèi)就能夠處理人工智能驅(qū)動(dòng)的社會(huì)。
在知識(shí)界的辯論中仍然普遍缺失的是,從明確的媒介政治視角來(lái)探討人工智能/深度學(xué)習(xí)。但是,這種關(guān)注涉及什么?以及我們?yōu)槭裁葱枰渴紫?,?dāng)然有許多不同的方式來(lái)思考通用人工智能,特別是深度學(xué)習(xí)的媒介政治層面。例如,一種可行的路徑是聲稱“媒介政治”作為一種分析角度,關(guān)涉政治的調(diào)解或者媒介與政治的歷史關(guān)系?;谶@樣的描述,我們可以問(wèn),人工智能/深度學(xué)習(xí)技術(shù)如何在媒介和政治的關(guān)系中銘刻自己?或者它如何參與政治調(diào)解?在這兩種情況下,我們可以假設(shè)a)媒介/中介和政治基本上是不同的概念,并且b)可能的分析視角在很大程度上是由我們對(duì)這些術(shù)語(yǔ)的基本理解所決定和引導(dǎo)的(包括將人工智能技術(shù)本身視為一種媒介)。
另一種可能性方法是宣稱媒介具有內(nèi)在的政治維度(人們同樣可以聲稱,在媒體或某些媒介之外不存在政治性的東西)。然而問(wèn)題是,是否對(duì)每一個(gè)媒體或媒介的概念都是如此,還是僅僅一些特定概念如此。這是一個(gè)相當(dāng)理論化的討論,因?yàn)榇蠖鄶?shù)媒介政治的概念幾乎都是基于媒介作為大眾或流行媒體的傳統(tǒng)理解。⑥John Zaller,A Theory of Media Politics.How the Interests of Politicians,Journalists,and Citizens Shape the News,Chicago IL,Chicago UP,1999.Dahlberg,Lincoln and Sean Phelan,eds.,Discourse Theory and Critical Media Politics,Basingstoke:Palgrave Macmillan,2011.因此,處理人工智能和深度學(xué)習(xí)的媒介政治,一種可能的路徑是,研究不同人工智能技術(shù)在電影和電視等流行媒體中代表性的政治表現(xiàn)。
在這篇文章的語(yǔ)境下,我對(duì)媒介政治問(wèn)題的理解是更廣泛、從某種程度上說(shuō)也是更基礎(chǔ)的。正如我喜歡將其概念化,這樣一種理論視角并不太關(guān)注人工智能的表征或可見(jiàn)界面,而是對(duì)產(chǎn)生和塑造該技術(shù)的媒體/媒介基礎(chǔ)設(shè)施和實(shí)體的政治影響及效果更感興趣(也不考慮特定的“使用案例”)。①關(guān)于類(lèi)似敘述,使用“媒介基礎(chǔ)設(shè)施”一詞作為一個(gè)關(guān)鍵概念參見(jiàn)Parks,Lisa and Nicole Starosielski,eds.,“Signal Traffic”,Critical Studies of Media Infrastructures,Chicago:U of Illinois,2015。換句話說(shuō),我感興趣的是——我喜歡稱之為——現(xiàn)代人工智能技術(shù)的基礎(chǔ)設(shè)施——媒體條件及其政治維度。②這樣的視角并不直接涉及具體理論框架。一般來(lái)說(shuō),這種關(guān)注與許多分析方法兼容,如媒介考古學(xué)、歷史認(rèn)識(shí)論或行為者網(wǎng)絡(luò)理論。對(duì)我來(lái)說(shuō),參與產(chǎn)生和塑造人工智能技術(shù)過(guò)程的每一個(gè)實(shí)體,一般都可以被看作這種技術(shù)的中介物。③Bruno Latour,Reassembling the Social.An Introduction to Actor-Network Theory,Oxford:Oxford UP,2005.一般來(lái)說(shuō),每一個(gè)技術(shù)的中介物在政治層面都很重要。然而,并不是每一個(gè)中介物都可以被平等地概念化為媒介,至少如果我們對(duì)這個(gè)詞采用更狹義的理解,如將媒介視為能夠?qū)崿F(xiàn)溝通或存儲(chǔ)、處理或傳輸信息的實(shí)體或裝置,就不是這樣。④這是參照拉圖爾對(duì)“中介物”(mediators)和“中間人”(intermediaries)的區(qū)分,對(duì)媒體如何被概念化的不同說(shuō)法。對(duì)拉圖爾來(lái)說(shuō),“中介物是在沒(méi)有轉(zhuǎn)換的情況下運(yùn)輸意義或力量的東西”,而“中介物”則是“轉(zhuǎn)換、翻譯、扭曲和修改它們所反對(duì)攜帶的意義或元素”(2005:39)。中介物在某種意義上起到黑箱的作用,因?yàn)樗麄兊妮斎肟梢宰屇泐A(yù)測(cè)相應(yīng)的輸出(在不了解對(duì)象內(nèi)部運(yùn)作的情況下)。與此相反,在中介物的情況下,盡管某種輸入有其特定的性質(zhì),但要預(yù)測(cè)相應(yīng)的輸出卻絕非易事。同上也參考,Tristian Thielmann,“Jedes Medium braucht ein Modicum”,ZMK Zeitschrift für Medien-und Kulturforschung 4/2:“ANT und die Medien”,2013,pp.111-127。正是由于這個(gè)原因,區(qū)分中介物和媒介/媒體這兩個(gè)概念通常是有意義的。
雖然我認(rèn)為需要這樣的區(qū)分,但我對(duì)使用“媒介”或“媒體”這一穩(wěn)定的概念持相當(dāng)懷疑的態(tài)度(盡管這將使區(qū)分這兩個(gè)術(shù)語(yǔ)的任務(wù)更加容易)。在我看來(lái),為了使我們的經(jīng)驗(yàn)世界的實(shí)體(包括我們思想的非物質(zhì)世界)有意義,如果我們把媒體和/或媒介視為靈活的認(rèn)識(shí)論——啟發(fā)式的,而不是固定的類(lèi)別,那么在分析方面就會(huì)更有成效。⑤也許有很多方法可以證明這樣一個(gè)媒介思維的概念。很明顯,我們可以再次參考拉圖爾的“中介物”類(lèi)別。在這種情況下,一個(gè)類(lèi)似的理論參考也是 Vogl的術(shù)語(yǔ)“成為媒介”,參見(jiàn) Joseph Vogl,“Becoming-media:Galileo’s Telescope”,Grey Room 29(Winter),2008,pp.14-25。因此,我所倡導(dǎo)的媒介理論,可以被理解為探索世界以何種不同方式可被感知為媒介或媒體(具有某些特征、功能)的一般任務(wù),而不是簡(jiǎn)單地承認(rèn)世界上的一切都在某種本體論的穩(wěn)定意義上依賴于媒介/介質(zhì)(作為實(shí)體可見(jiàn)、可被感知或具有某種形式等的前提條件)。所以,盡管我選擇了一個(gè)專注于中介物(更具體地說(shuō)是特定媒介)構(gòu)成性作用的媒介政治概念,我仍然主張一個(gè)相當(dāng)開(kāi)放的分析重點(diǎn),并為不同的觀點(diǎn)留下空間。
就媒介政治的政治維度而言,后一種立場(chǎng)似乎也是一種有指導(dǎo)意義的方法。例如,我們可以很容易聲稱,幾乎所有關(guān)于人工智能的事情都是政治性的,特別是如果人們相信人工智能/深度學(xué)習(xí)技術(shù)影響到我們社會(huì)和文化存在的各個(gè)方面。同時(shí),人工智能和深度學(xué)習(xí)技術(shù)給我們帶來(lái)的政治挑戰(zhàn)在性質(zhì)上是非常不同的(人工智能驅(qū)動(dòng)武器系統(tǒng)的生存威脅,人工智能對(duì)未來(lái)工作的影響等),這就是為何不能簡(jiǎn)單參考適合于每一個(gè)問(wèn)題的政治理論綜論。
就如何處理人工智能/深度學(xué)習(xí)的政治問(wèn)題而言,這樣的懇求并不意味著“什么都可以”。相反,我認(rèn)為人們應(yīng)該首先嘗試探索當(dāng)代人工智能技術(shù)是如何作為政治現(xiàn)象出現(xiàn)的(在我們對(duì)人工智能應(yīng)用某種政治理論之前)。這一重點(diǎn)包含許多相關(guān)的方面,包括分析計(jì)算機(jī)科學(xué)家自己如何將人工智能技術(shù)概念化為一個(gè)政治主體。
在這種情況下,我們還應(yīng)該記住,對(duì)大多數(shù)從事人文、社會(huì)或文化科學(xué)工作的學(xué)者而言,即使他們已經(jīng)研究過(guò)人工智能,一般的機(jī)器學(xué)習(xí)特別是人工神經(jīng)網(wǎng)絡(luò)/深度學(xué)習(xí)仍然是一個(gè)未知領(lǐng)域。這基本意味著,在媒介或文化研究等學(xué)科,真正能夠評(píng)估深度學(xué)習(xí)技術(shù)和基礎(chǔ)設(shè)施的相關(guān)政治和/或倫理方面可能還需要一段時(shí)間。顯然,這個(gè)問(wèn)題也是討論人工智能/深度學(xué)習(xí)作為一個(gè)黑箱和評(píng)估OpenAI類(lèi)似項(xiàng)目的核心因素。對(duì)該領(lǐng)域的許多學(xué)者來(lái)說(shuō),關(guān)注知識(shí)轉(zhuǎn)換或轉(zhuǎn)化的過(guò)程,并從一種元視角分析一門(mén)學(xué)科的知識(shí)如何被另一門(mén)學(xué)科使用、調(diào)整和重構(gòu),是媒介研究的核心任務(wù)之一。①Bergermann,Ulrike and Christine Hanke,“Boundary Objects,Boundary Media.Von Grenzobjekten und Medien bei Susan Leigh Star und James R.Griesemer”,Sebastian Gie?mann and Nadine Taha,Eds.,Grenzobjekte und Medienforschung,Bielefeld:transcript,2017,p.127.但是,如果連計(jì)算機(jī)或數(shù)據(jù)科學(xué)家都在處理人工智能/深度學(xué)習(xí)黑箱問(wèn)題上遇到諸多困難,那么,媒介研究如何能夠?yàn)槠涮峁┫嚓P(guān)的見(jiàn)解?顯然,媒介研究對(duì)技術(shù)上打開(kāi)黑箱沒(méi)有或幾乎沒(méi)有貢獻(xiàn),然而它也許能夠在不同方面有所啟示:如探索這個(gè)問(wèn)題的社會(huì)文化條件、影響和效果的復(fù)雜網(wǎng)絡(luò)。此外,媒介研究可以批判性調(diào)查數(shù)據(jù)科學(xué)家如何將人工智能及其黑箱問(wèn)題作為一個(gè)政治關(guān)注點(diǎn)。但為了做到這一點(diǎn),讓我們概括一下這意味著什么——或者更好地說(shuō)——將我們經(jīng)驗(yàn)世界中的某些實(shí)體感知為黑箱意味著什么。
關(guān)于“黑箱”一詞的確切起源,有一些爭(zhēng)論正在進(jìn)行。菲利普·馮·希爾杰斯(Philipp von Hilgers)探討了這個(gè)概念的歷史,并將其追溯到二戰(zhàn),更準(zhǔn)確地說(shuō)是追溯到磁控管技術(shù)。②Philip von Hilgers,“Ursprünge der Black Box”,Rekursionen,Von Faltungen des Wissens,Ana Ofak and Philipp von Hilgers eds.,München:Fink,2009,pp.281-324.從那時(shí)起,這個(gè)概念就被應(yīng)用于不同背景,并被指定為相反的含義。一方面,它可以指飛機(jī)或汽車(chē)中的數(shù)據(jù)監(jiān)測(cè)系統(tǒng);另一方面,它包括那些內(nèi)部運(yùn)作不透明或無(wú)法進(jìn)入的系統(tǒng),因此只能通過(guò)其輸入和輸出來(lái)觀察。③Frank Pasquale,“The Black Box Society”,The Secret Algorithms That Control Money and Information,Cambridge,MA:Harvard UP,2015,p.3.諾伯特·維納(Norbert Wiener)在其名著《控制論》(Cybernetics,1948)1961年版的序言腳注中提供了“黑箱”一詞的早期定義:“我對(duì)黑箱的理解是,它是一件執(zhí)行明確操作的設(shè)備,但對(duì)于它,我們不一定有關(guān)于執(zhí)行這一操作的結(jié)構(gòu)的任何信息。”④Norbert Wiener,Cybernetics:or the Control and Communication in the Animal and the Machine,Cambridge,Mass:MIT P.,1961,p.xi.最后但并非最不重要的是,正如拉圖爾所解釋的,我們必須考慮到科學(xué)和技術(shù)的操作總是有一種黑箱效應(yīng):“當(dāng)一臺(tái)機(jī)器有效地運(yùn)行時(shí),當(dāng)一個(gè)事實(shí)問(wèn)題被解決時(shí),我們只需要關(guān)注它的輸入和輸出,而不是它的內(nèi)部復(fù)雜性。因此,矛盾的是,科學(xué)和技術(shù)越是成功,它們就越不透明和晦澀?!雹軧runo Latour,Pandora’s Hope,Essays on the Reality of Science Studies,Cambridge,MA:Harvard UP,1999,p.99.乍一看,深度學(xué)習(xí)也是如此。然而,與其他形式的技術(shù)相比,深度學(xué)習(xí)技術(shù)的情況似乎有所不同。
通常情況下,不同于剛才提到的黑箱效應(yīng),在實(shí)踐中使用的許多(如果不是大多數(shù))技術(shù)操作都能以諸多方式被人類(lèi)理解和解釋。相比之下,深度學(xué)習(xí)算法似乎是一個(gè)無(wú)法打開(kāi)的黑箱,至少目前一些專家認(rèn)為這是人工智能存在的最大問(wèn)題之一。但是,深度學(xué)習(xí)是否真的是一個(gè)基本的不透明技術(shù)?如果是的話,不透明程度如何?而且,即使是這樣,只要能順利地工作,我們難道不能接受人工神經(jīng)網(wǎng)絡(luò)是一種不透明的技術(shù)嗎?后一個(gè)問(wèn)題的答案可能沒(méi)有第一個(gè)問(wèn)題那么復(fù)雜。事實(shí)上,許多科學(xué)家、政治家和領(lǐng)先的IT公司之間似乎已經(jīng)有了很大的共識(shí),要開(kāi)發(fā)一種負(fù)責(zé)任的或有道德的人工智能,而使這項(xiàng)技術(shù)更負(fù)責(zé)任是努力的一個(gè)重要部分。
當(dāng)然,這種廣泛共識(shí)并不令人驚訝。人工智能/深度學(xué)習(xí)系統(tǒng)提出一個(gè)令人失望的電影推薦是一碼事,但如果用人工智能機(jī)器處理有關(guān)生命或死亡這種更嚴(yán)肅的事情,那情況就完全不同了。正如麻省理工學(xué)院計(jì)算機(jī)科學(xué)家湯姆米·賈科拉(Tommi Jaakkola)最近指出的:“無(wú)論是投資決策、醫(yī)療決策,還是軍事決策,你都不希望僅僅依靠一個(gè)‘黑箱’的方法?!雹轜ill Knight,“The Dark Secret at the Heart of AI”,MIT Technology Review,No.4(April 2017).https://www.technologyreview.com/s/604087/the-dark-secretat-the-heart-of-ai/[Last access:2018/03/06].
出于這個(gè)原因,僅僅知道人工智能/深度學(xué)習(xí)系統(tǒng)的預(yù)測(cè)足夠準(zhǔn)確還不夠,你還想了解系統(tǒng)為什么會(huì)得出某種預(yù)測(cè)。這兩個(gè)方面似乎都與確保能高度信任人工智能的驅(qū)動(dòng)決策相關(guān)。然而,要掌握人工智能預(yù)測(cè)模型的含義相當(dāng)具有挑戰(zhàn)性。為了說(shuō)明這最后一點(diǎn),西奈山伊坎醫(yī)學(xué)院(Icahn School of Medicine at Mount Sinai)的研究人員最近開(kāi)發(fā)了一個(gè)名為“深度病人”(Deep Patient)的人工智能程序。該系統(tǒng)能夠識(shí)別不同形式的疾病,甚至能識(shí)別精神分裂癥此類(lèi)精神疾病的早期跡象。但令人吃驚的是,他們?nèi)匀粵](méi)有找到線索,并不知道這是如何做到的。當(dāng)然,“深度病人”對(duì)醫(yī)生有很大幫助,但他們需要該系統(tǒng)為其預(yù)測(cè)提供理由,以便在對(duì)病人進(jìn)行醫(yī)療時(shí)有堅(jiān)實(shí)的參考。“我們可以建立這些模型”,西奈山伊坎醫(yī)學(xué)院生物醫(yī)學(xué)信息學(xué)主任喬爾·杜德利(Joel Dudley)解釋說(shuō),“但我們不知道它們是如何工作的”。①Will Knight,“The Dark Secret at the Heart of AI”.
在下文中,我將討論這個(gè)經(jīng)常出現(xiàn)在當(dāng)前人工智能討論中的假設(shè)在多大程度上具有誤導(dǎo)性,并需要進(jìn)行一些澄清。首先,我們應(yīng)該記住,當(dāng)前深度學(xué)習(xí)技術(shù)背后的數(shù)學(xué)是非常直接的。②Goodfellow,Ian,Yoshua Bengio and Aaron Courville,Deep Learning,Cambridge,MA;London:MIT P.,2016.歸根結(jié)底,這是一個(gè)統(tǒng)計(jì)學(xué)問(wèn)題,盡管是以一個(gè)高級(jí)的形式。強(qiáng)調(diào)這一點(diǎn)很重要,因?yàn)槲覀冇^察到一種將深度學(xué)習(xí)神秘化的普遍趨勢(shì),而這種趨勢(shì)是適得其反的,需要得到遏制。其次,許多專家強(qiáng)調(diào),事實(shí)上人工神經(jīng)網(wǎng)絡(luò)是一種易獲得的技術(shù),特別是將其與生物神經(jīng)網(wǎng)絡(luò)相比較。例如,總部設(shè)在多倫多—柏林的深度學(xué)習(xí)公司TwentyBN的首席科學(xué)家羅蘭·梅米塞維奇(Roland Memisevic)指出:“深度學(xué)習(xí)算法至少比人腦更容易理解,因?yàn)槿四X的神經(jīng)元活動(dòng)模式以及學(xué)習(xí)所產(chǎn)生的轉(zhuǎn)變,即使在今天仍然很不透明?!雹跼oland Memisevic,“Wunderwerke der Parallelisierung”,Sudmann/Engemann,a.a.O.,o.S.(Pre-publication version),2018.相比之下,如果人們觀看一個(gè)人工神經(jīng)網(wǎng)絡(luò)模型,你可以記錄、觀察和測(cè)量一切甚至最小的細(xì)節(jié)。例如,很容易發(fā)現(xiàn)哪些特征錯(cuò)誤地導(dǎo)致一只狗被標(biāo)記為貓,因?yàn)槟承┒涞男螤羁赡芤辉賹?dǎo)致某些錯(cuò)誤分類(lèi)。然而,人工神經(jīng)元的相互作用確實(shí)難以理解,正如梅米塞維奇所同意的,“由于有如此多的神經(jīng)元平行活動(dòng),我們面臨著突發(fā)現(xiàn)象,即整體包含的內(nèi)容多于其部分的總和”。④Roland Memisevic,“Wunderwerke der Parallelisierung”.
因此,雖然計(jì)算機(jī)科學(xué)家確實(shí)必須處理深度學(xué)習(xí)的可解釋性問(wèn)題,但它并不像當(dāng)前討論中經(jīng)常描述的那樣具有根本意義。⑤Will Knight,“The Dark Secret at the Heart of AI”.而且,毫不奇怪,科技行業(yè)內(nèi)外的計(jì)算機(jī)科學(xué)家目前正忙于解決這個(gè)可解釋性問(wèn)題。事實(shí)上,研究人員已經(jīng)開(kāi)發(fā)了一些方法來(lái)更好地理解和逆向設(shè)計(jì)深度學(xué)習(xí)的預(yù)測(cè)模型。
一個(gè)不僅使人工神經(jīng)網(wǎng)絡(luò)而且使一般的機(jī)器學(xué)習(xí)技術(shù)更容易理解的例子,是由馬可·圖利奧·瑞貝里奧(Marco Tulio Riberio)、薩米爾·辛格(Sameer Singh)和卡洛斯·蓋斯特林(Carlos Guestrin)開(kāi)發(fā)的程序Local Interpretable Model-Agnostic Explanations(縮寫(xiě)LIME)。開(kāi)發(fā)者將這一技術(shù)描述為:“可以解釋對(duì)任何機(jī)器學(xué)習(xí)分類(lèi)器的預(yù)測(cè),并評(píng)估其在與信任有關(guān)的各種任務(wù)中的效用?!雹轗ibeiro,Marco Tulio,Sameer Singh and Carlos Guestrin,“Introduction to Local Interpretable Model-Agnostic Explanations(LIME)A technique to explain the predictions of any machine learning classifier”,O’Reilly.August 12.Online:https://www.oreilly.com/learning/introduction-to-local-interpretable-modelagnostic-explanations-lime[Last access:2018/03/06].LIME的基本思想是改變?nèi)斯ぶ悄芟到y(tǒng)不同形式的輸入(如文本或圖像),這樣就可以觀察到這些輸入的變化是否以及如何對(duì)輸出產(chǎn)生影響。最近《科學(xué)》雜志上的一篇文章解釋了LIME在實(shí)踐中是如何工作的,并提到一個(gè)以電影評(píng)論為內(nèi)容的人工神經(jīng)網(wǎng)絡(luò):
[一個(gè)神經(jīng)網(wǎng)絡(luò)]攝取電影評(píng)論的文字,并標(biāo)記出其中積極的內(nèi)容。瑞貝里奧(Riberio)的程序被稱為“局部可理解性模型—不可知論解釋(LIME)”,它將會(huì)標(biāo)記正面評(píng)論,并通過(guò)刪除或替換詞語(yǔ)來(lái)創(chuàng)造微妙的變化。然后,這些變體將通過(guò)黑箱運(yùn)行,看看它是否仍然被認(rèn)為是積極的。在數(shù)千次測(cè)試的基礎(chǔ)上,LIME可以識(shí)別出人工智能原始判斷中最重要的詞或圖像或分子結(jié)構(gòu)的一部分,或任何其他類(lèi)型的數(shù)據(jù)。這些測(cè)試可能會(huì)發(fā)現(xiàn),“可怕”這個(gè)詞對(duì)搖拍鏡頭至關(guān)重要,或者“丹尼爾·戴·劉易斯”會(huì)帶來(lái)一個(gè)正面評(píng)論。⑦Paul Voosen,“How AI detectives are cracking open the black box of deep learning”,Science Mag.July 6.Online:http://www.sciencemag.org/news/2017/07/how-ai-detectives-are-cracking-open-black-box-deep-learning[Last access:2018/03/06].
正如人們可以從這個(gè)簡(jiǎn)短的描述中推斷出,聲稱這個(gè)模型確實(shí)提供了什么深刻意義的解釋似乎是一種夸張。基本上,它是一個(gè)“實(shí)驗(yàn)系統(tǒng)”,只突出那些在系統(tǒng)決策過(guò)程中起重要作用的元素,而沒(méi)有真正揭示這個(gè)預(yù)測(cè)模型中隱含的推理。
另一個(gè)有趣的工具在某種程度上可以使人工神經(jīng)網(wǎng)絡(luò)工作原理可視化,就是當(dāng)今著名的程序DeepDream,2015年由谷歌的工程師和科學(xué)家推出。DeepDream是一種基于深度學(xué)習(xí)的特殊圖像識(shí)別算法,但它的操作與典型的卷積神經(jīng)網(wǎng)絡(luò)(CNN)有點(diǎn)不同。首先,該算法用數(shù)百萬(wàn)張顯示特定物體(如一只貓)的圖像進(jìn)行訓(xùn)練,這樣在某些時(shí)候神經(jīng)網(wǎng)絡(luò)能預(yù)測(cè)或?qū)D像中的物體分類(lèi)為貓,盡管它沒(méi)接受過(guò)這方面的訓(xùn)練。在初始訓(xùn)練之后,網(wǎng)絡(luò)可以反向操作。與其說(shuō)調(diào)整網(wǎng)絡(luò)的權(quán)重,不如說(shuō)調(diào)整Backprop算法的標(biāo)準(zhǔn)程序,權(quán)重保持不變,只對(duì)輸入(貓的原始圖像)進(jìn)行最小的調(diào)整。如果你將這種技術(shù)應(yīng)用于不包含任何貓的圖像但被標(biāo)記為包含貓的圖像,這種技術(shù)會(huì)產(chǎn)生非常有趣的結(jié)果。在這種情況下,軟件開(kāi)始修改和加強(qiáng)圖像的某些模式,使它們開(kāi)始越來(lái)越像一只貓,但不像我們經(jīng)驗(yàn)世界中存在的任何特定的貓,而是一只神經(jīng)網(wǎng)絡(luò)感知的貓,或者說(shuō):夢(mèng)見(jiàn)的。作為這一過(guò)程的結(jié)果,該系統(tǒng)產(chǎn)生的圖像具有超現(xiàn)實(shí)和怪誕的質(zhì)量:如一張比薩餅的照片可以包含許多小狗臉,或者你也可以把蒙娜麗莎變成一個(gè)類(lèi)似LSD的幻覺(jué)噩夢(mèng)。①關(guān)于從媒介理論和精神分析角度對(duì)DeepDream的批評(píng)觀點(diǎn),參見(jiàn)Clemens Apprich,“Daten,Wahn,Sinn”,Zeitschrift für Medienwissenschaft,17(2017),pp.54-62。一方面,它們表明深度學(xué)習(xí)并不是一種完全神秘的技術(shù),因?yàn)樵撍惴梢栽鰪?qiáng)人們熟悉的視覺(jué)特征。另一方面,這些圖像說(shuō)明了算法的工作方式與人類(lèi)感知不同,換句話說(shuō),它可能會(huì)關(guān)注我們作為人類(lèi)通常不會(huì)關(guān)注的圖像的各個(gè)方面。
第三種揭示深度學(xué)習(xí)系統(tǒng)工作機(jī)制的潛在方法是加州大學(xué)伯克利分校和馬克斯·普朗克(Max Planck)信息學(xué)研究所開(kāi)發(fā)的“指向和論證(Pointing and Justification)(PJ-X)模型”。②Park,Dong Huk et al.,“Attentive Explanations:Justifying Decisions and Pointing to the Evidence”,Online:https://arxiv.org/pdf/1612.04757v1.pdf[Last access:2018/03/06].該模型能夠證明其預(yù)測(cè)或分類(lèi)任務(wù)的合理性,通過(guò)使用注意力機(jī)制結(jié)合自然語(yǔ)言解釋來(lái)突出和記錄算法決策的證據(jù)。該系統(tǒng)的一個(gè)關(guān)鍵因素是,它是用兩個(gè)不同的數(shù)據(jù)集訓(xùn)練的。第一個(gè)數(shù)據(jù)集是為了確定圖像所顯示的內(nèi)容,而第二個(gè)數(shù)據(jù)集的功能是揭示為什么某些東西(某個(gè)人類(lèi)活動(dòng)或物體)會(huì)出現(xiàn)在特定圖像中。因此,我們的想法是將顯示物體或人類(lèi)活動(dòng)的圖像不僅與它們的描述(通過(guò)標(biāo)記它們)相關(guān)聯(lián),而且還與它們各自的解釋相關(guān)聯(lián)。為了達(dá)到后者的目的,訓(xùn)練數(shù)據(jù)中的每張圖片都與三個(gè)問(wèn)題以及每個(gè)問(wèn)題的十個(gè)答案有關(guān)。在此基礎(chǔ)上,系統(tǒng)可以回答諸如“圖像中的人在飛嗎”這樣的問(wèn)題,而答案可能是:“不是,因?yàn)檫@個(gè)人的腳還站在地面上?!雹跠ave Gershgorn,“We don’t understand how AI make most decisions,so now algorithms are explainingthemselves”,Quartz.December 20.Online:https://qz.com/865357/we-dont-understand-how-ai-make-most-decisions-sonow-algorithms-are-explaining-themselves/[Last access:2018/03/06].
同樣,這個(gè)模型——像上述所有模型一樣——離能夠解釋自己的內(nèi)部運(yùn)作或不同機(jī)器(或另一個(gè)人工神經(jīng)網(wǎng)絡(luò),如果你愿意的話)的內(nèi)部運(yùn)作還很遠(yuǎn)。也許,這種特定的能力將需要機(jī)器發(fā)展出某種自我意識(shí),甚至是元意識(shí)。而在這發(fā)生之前(如果這真的發(fā)生的話),深度學(xué)習(xí)技術(shù)需要理解推理、計(jì)劃、因果關(guān)系,等等。目前,深度學(xué)習(xí)或人工神經(jīng)網(wǎng)絡(luò)的技術(shù)只提供相關(guān)性,但沒(méi)有深刻的因果解釋。在這方面,深度學(xué)習(xí)仍處于起步階段。因此,人們可以說(shuō)——在某種意義上——“可解釋的人工智能”標(biāo)簽是誤導(dǎo)性的,或者至少是夸大的。
正如前面所指出的,提供可解釋的和——更普遍的——負(fù)責(zé)任的人工智能模型有一些明顯的動(dòng)機(jī)和原因。首先,目前那些深度學(xué)習(xí)系統(tǒng)開(kāi)發(fā)者有強(qiáng)烈的經(jīng)濟(jì)興趣,這可以對(duì)抗與不透明人工智能技術(shù)相關(guān)的社會(huì)恐懼和懷疑。然而,許多科學(xué)家和工業(yè)界人士著重強(qiáng)調(diào),開(kāi)發(fā)一個(gè)可解釋的人工智能,其政治和倫理的重要性,超越了上述可解釋問(wèn)題相關(guān)的商業(yè)層面。在強(qiáng)調(diào)這一議程的行動(dòng)者中,最引人注意和最強(qiáng)大的是OpenAI——一個(gè)“非營(yíng)利性研究公司”(自我描述),也專門(mén)從事深度學(xué)習(xí)技術(shù)研究。2015年10月成立后不久,該公司概述其任務(wù)目標(biāo)(《OpenAI介紹》):
我們的目標(biāo)是以最有可能造福全人類(lèi)的方式推進(jìn)數(shù)字智能,不受需要產(chǎn)生經(jīng)濟(jì)回報(bào)的限制。由于我們的研究沒(méi)有財(cái)政負(fù)擔(dān),我們可以更好地專注于對(duì)人類(lèi)的積極影響。我們相信人工智能應(yīng)該是人類(lèi)個(gè)人意志的延伸,并且本著自由精神,盡可能廣泛和平均地分配。這項(xiàng)事業(yè)的結(jié)果是不確定的,工作是困難的,但我們相信目標(biāo)和結(jié)構(gòu)是正確的。我們希望對(duì)該領(lǐng)域的精英來(lái)說(shuō)這是最重要的。
為了確保OpenAI“不受需要產(chǎn)生經(jīng)濟(jì)回報(bào)的限制”,該公司創(chuàng)始人,其中最突出的是埃隆·馬斯克和薩姆·奧特曼(Sam Altman),他們投資了超過(guò)10億美元。有趣的是,這個(gè)啟動(dòng)公告并沒(méi)有明確或直接提到馬斯克最初投資OpenAI的關(guān)鍵動(dòng)機(jī)之一,即他認(rèn)為(通用)人工智能是人類(lèi)最大的生存威脅。①2018年2月,馬斯克宣布由于與他(未來(lái))在特斯拉的工作有潛在利益沖突,他將離開(kāi)OpenAI董事會(huì)。這種世界末日的觀點(diǎn)從人工智能研究一開(kāi)始甚至之前就已經(jīng)存在了。事實(shí)上,正如媒介研究學(xué)者伯恩哈德·多茨勒(Bernhard Dotzler)在20世紀(jì)80年代末指出的,你可以在阿蘭·圖靈(Alan Turing)的作品中找到所有關(guān)于人工智能未來(lái)的成熟預(yù)測(cè)。②Bernhard Dotzler,“Know/Ledge:Versuch über die Verortung der Künstlichen Intelligenz”,MaschinenMenschen,Katalog zur Ausstellung des Neuen Berliner Kunstvereins,Berlin:NBK,1989,pp.127-132.然而,從最近開(kāi)始,人工智能的發(fā)展,已經(jīng)讓我們不再那么期待任何反烏托邦“終結(jié)者”現(xiàn)實(shí)的即將來(lái)臨。
在人類(lèi)歷史上第一次面對(duì)當(dāng)前深度學(xué)習(xí)技術(shù)不可否認(rèn)的快速進(jìn)步,目前可能確實(shí)是一種不同的狀況。至少這是馬斯克之外許多專家所認(rèn)為的。OpenAI的議程(《關(guān)于OpenAI》)承認(rèn)了這種新?tīng)顩r,但是以一種更細(xì)微又不那么戲劇化的方式:
今天的人工智能系統(tǒng)擁有令人印象深刻但又有限的能力。似乎我們會(huì)不斷削減它們的限制,在極端情況下,它們幾乎將在所有智力任務(wù)上達(dá)到人類(lèi)的水準(zhǔn)。很難想象人類(lèi)水平的人工智能能給社會(huì)帶來(lái)多大的好處,同樣也很難想象,如果建構(gòu)或使用不當(dāng),人工智能會(huì)給社會(huì)帶來(lái)多大的危害。
事實(shí)上,沒(méi)有人能夠預(yù)見(jiàn)人工智能的未來(lái),或者評(píng)估它是否更有可能對(duì)社會(huì)和文化產(chǎn)生積極抑或消極的影響。我們也可能會(huì)告訴自己,技術(shù)本質(zhì)上從未有好壞之分,重要的只是其具體用途。然而,這個(gè)論點(diǎn)一直有相當(dāng)大的問(wèn)題。比如說(shuō)我們處理核技術(shù)或者說(shuō)風(fēng)力發(fā)電,這就有很大的區(qū)別。此外,盡管未來(lái)是不確定的,這是一個(gè)不爭(zhēng)的事實(shí),但我們也不能忘記,我們永遠(yuǎn)無(wú)法確定在哪一個(gè)具體點(diǎn)上可能會(huì)走上錯(cuò)誤道路。
特別是后一種論點(diǎn),似乎能與《關(guān)于OpenAI》中OpenAI如何將其當(dāng)前任務(wù)與不可預(yù)見(jiàn)的未來(lái)問(wèn)題相聯(lián)系起來(lái):
由于人工智能驚人的發(fā)展歷史,很難預(yù)測(cè)人類(lèi)水平的人工智能何時(shí)會(huì)出現(xiàn)在我們面前。當(dāng)它出現(xiàn)時(shí),擁有一個(gè)領(lǐng)先的研究機(jī)構(gòu)是非常重要的,它可以將所有人的良好結(jié)果置于其自身利益之上。
這段話的有趣之處在于其隱含的假設(shè),即關(guān)于人工智能的巨大負(fù)面或正面影響,整個(gè)問(wèn)題仍然相當(dāng)具有預(yù)測(cè)性,而且不涉及當(dāng)前技術(shù)現(xiàn)狀(“……當(dāng)人類(lèi)水平的人工智能觸手可及時(shí)”)。雖然OpenAI避免任何關(guān)于預(yù)測(cè)性的討論是正確的,但似乎必須認(rèn)識(shí)到深度學(xué)習(xí)已經(jīng)有正面和負(fù)面影響。這項(xiàng)技術(shù)可以做很多驚人的好事,因?yàn)樗呀?jīng)成為一種非常強(qiáng)大的而且危險(xiǎn)的監(jiān)控技術(shù),它不僅擴(kuò)大了(半自動(dòng)地)觀察世界的可能性(在被訓(xùn)練過(guò)后),而且能夠?qū)ζ溥M(jìn)行理解。
最近,事實(shí)證明人工神經(jīng)網(wǎng)絡(luò)/深度學(xué)習(xí)不僅能夠識(shí)別物體、人、風(fēng)景和動(dòng)物(在經(jīng)過(guò)訓(xùn)練后),而且它們已經(jīng)開(kāi)始理解相當(dāng)復(fù)雜的行動(dòng)和手勢(shì)。換句話說(shuō),深度學(xué)習(xí)系統(tǒng)已經(jīng)開(kāi)始理解世界常識(shí)性知識(shí)的基本形式。有趣的方面是:為了實(shí)現(xiàn)這一點(diǎn),人工神經(jīng)網(wǎng)絡(luò)已經(jīng)受過(guò)數(shù)十萬(wàn)個(gè)短視頻片段的訓(xùn)練(顯示某些活動(dòng)和手勢(shì))。因此,媒介的特殊性對(duì)開(kāi)發(fā)先進(jìn)形式的人工智能至關(guān)重要。在寫(xiě)這篇文章的時(shí)候,這個(gè)特殊的深度學(xué)習(xí)系統(tǒng)還沒(méi)有在工業(yè)應(yīng)用中實(shí)施。但該技術(shù)已經(jīng)存在并準(zhǔn)備好被使用。③Andreas Sudmann,“Wenn die Maschinen mit der Sprache spielen”,F(xiàn)rankfurter Allgemeine Zeitung Nr.
埃德·芬恩(Ed Finn)最近認(rèn)為,今天的算法文化比以往任何時(shí)候都受到“使世界有效可計(jì)算的愿望”④Ed Finn,What Algorithms Want,Imagination in the Age of Computing,Cambridge,MA.MIT P.,2017,pp.26,54,23.的驅(qū)動(dòng)。他沒(méi)有特別將其與學(xué)習(xí)算法區(qū)分開(kāi)來(lái),而是將通用算法視為“文化機(jī)器”,其操作在很大程度上由“普遍計(jì)算的意識(shí)形態(tài)”決定。的確,我們可以說(shuō),特別是現(xiàn)代深度學(xué)習(xí)技術(shù)助長(zhǎng)了工具理性的幻象版本,恰恰是因?yàn)樗匦聠酒鹆巳R布尼茨的舊夢(mèng),即一個(gè)能夠完美理解我們世界每個(gè)方面的“普遍科學(xué)”。但更重要的是,深度學(xué)習(xí)的偉大承諾不僅是讓機(jī)器理解世界,而且使它在許多方面讓世界可以被預(yù)測(cè):股票市場(chǎng)如何發(fā)展,人們想買(mǎi)什么,一個(gè)人是否會(huì)死,等等。在這個(gè)特定的歷史時(shí)刻,我們可以將深度學(xué)習(xí)視為這樣一種技術(shù),能夠處理人類(lèi)無(wú)法應(yīng)對(duì)的復(fù)雜問(wèn)題。深度學(xué)習(xí)的算法能力在于它的潛力,能通過(guò)學(xué)習(xí)過(guò)去以評(píng)估現(xiàn)在,從而掌握不確定的未來(lái),而這一切都以越來(lái)越快的方式發(fā)生。DeepMind最近展示了其圍棋程序AlphaGo Zero的一個(gè)新版本,它能夠在短短三天內(nèi)從頭學(xué)習(xí)這個(gè)古老的棋盤(pán)游戲(沒(méi)有執(zhí)行任何游戲如何運(yùn)作或如何成功下棋的規(guī)則),并成功以100比0戰(zhàn)勝了2015/2016年的舊系統(tǒng)(擊敗了人類(lèi)世界冠軍李世石)。①Carlos E Perez,“Why AlphaGo Zero is a Quantum Leap Forward in Deep Learning”,Medium.com.Online:https://medium.com/intuitionmachine/thestrange-loop-in-alphago-zeros-self-play-6e3274fcdd9f[Last access:2018/03/06].
深度學(xué)習(xí)領(lǐng)域的創(chuàng)新速度之快也提醒我們應(yīng)當(dāng)小心,不要迅速對(duì)人工智能技術(shù)是否能實(shí)現(xiàn)這一目標(biāo)下結(jié)論。因此,我們不僅應(yīng)該停止猜測(cè)人工智能遙遠(yuǎn)的未來(lái),而且還應(yīng)該謹(jǐn)慎對(duì)待人工智能系統(tǒng)能夠或不能做什么的懷疑性觀點(diǎn)??偟膩?lái)說(shuō),應(yīng)該承認(rèn),如果試圖接受目前人工智能和機(jī)器學(xué)習(xí)技術(shù)的發(fā)展,我們還有很多工作要做。也許像OpenAI這樣的公司成功使人工智能技術(shù)更容易獲得,但究竟如何證明他們的核心主張——人工智能的民主化?如果再看一下該公司的官方網(wǎng)站,會(huì)發(fā)現(xiàn)它提供的信息非常少:“我們?cè)陧敿?jí)機(jī)器學(xué)習(xí)會(huì)議上發(fā)表文章,為加速人工智能研究而開(kāi)發(fā)開(kāi)源軟件工具,并發(fā)布博文來(lái)交流我們的研究”(《關(guān)于OpenAI》)。這基本是該公司關(guān)于其民主化人工智能議程的全部?jī)?nèi)容,至少如果只考慮網(wǎng)站的官方使命聲明。這段話非常引人注目的一點(diǎn)是,它并無(wú)特別之處,臉書(shū)、微軟和其他許多IT公司基本上都有相同的議程。②Eric Boyd,“Microsoft and Facebook create open ecosystem for AI model interoperability”,Microsoft.com.September 7.Online:https://www.microsoft.com/en-us/cognitive-toolkit/blog/2017/09/microsoft-facebook-create-openecosystem-ai-model-interoperability/[Last access:2018/03/06].
當(dāng)然,人們可以說(shuō)OpenAI至少開(kāi)啟了當(dāng)前開(kāi)發(fā)負(fù)責(zé)任和安全人工智能的浪潮。然而,更重要的一點(diǎn)是,當(dāng)OpenAI基本做了人工智能游戲中所有其他大玩家正在做的事情時(shí),它如何能夠合法地獲得其作為非營(yíng)利研究公司的特殊地位:改進(jìn)現(xiàn)有技術(shù)和/或找到開(kāi)發(fā)AGI——通用人工智能的正確路徑?關(guān)于這個(gè)問(wèn)題,OpenAI與Deep-Mind的情況非常相似,OpenAI的研究集中在與模擬(如游戲)有關(guān)的強(qiáng)化學(xué)習(xí)策略上,而不是使用常見(jiàn)的監(jiān)督學(xué)習(xí)方法,該方法依賴于來(lái)自經(jīng)驗(yàn)世界的正確標(biāo)簽數(shù)據(jù)。③Jesus Rodriguez,“Technology Fridays:OpenAI Gym Makes Reinforcement Learning Real”,Medium.com.Online:https://medium.com/@jrodthoughts/.在其方法特定限制內(nèi),OpenAI和DeepMind的議程都相當(dāng)成功。然而,到目前為止,模擬仍然不是經(jīng)驗(yàn)學(xué)習(xí)數(shù)據(jù)的合適替代品。如果這被證明是一個(gè)永久性的問(wèn)題,它將對(duì)我們?nèi)绾螛?gòu)想模擬的認(rèn)識(shí)論地位(在許多數(shù)字和視覺(jué)文化的理論和歷史中)產(chǎn)生巨大的影響,但這還有待觀察。我強(qiáng)調(diào)這一點(diǎn)的原因是另一個(gè)問(wèn)題,正如我們剛剛看到的,深度學(xué)習(xí)的黑箱問(wèn)題有很多方面。目的不是深入了解目前領(lǐng)先的IT公司如何在某個(gè)時(shí)間點(diǎn)嘗試開(kāi)發(fā)高效通用人工智能系統(tǒng)的每個(gè)細(xì)節(jié)。相反,通過(guò)仔細(xì)觀察這些不同的研究議程,我們了解到一個(gè)簡(jiǎn)單的事實(shí),即深度學(xué)習(xí)不是一個(gè)同質(zhì)的方法,而是一個(gè)對(duì)不同說(shuō)法的總稱。
此外,提及深度學(xué)習(xí)的異質(zhì)性,不僅對(duì)我們?nèi)绾谓鉀Q人工智能的黑箱問(wèn)題很重要,而且對(duì)開(kāi)發(fā)智能機(jī)器的批判性觀點(diǎn)也很重要。僅舉一例:幾年前,亞歷山大·蓋洛維(Alexander Galloway)寫(xiě)了一篇非常有趣的文章,他在文章中以某種方式將黑箱政治化,認(rèn)為它不再像二戰(zhàn)期間的磁控管技術(shù)那樣是一種密碼,而是變成了一種差不多完全由其輸入和輸出定義的功能。④Alexander R.Galloway,“Black Box,Schwarzer Block”,Die technologische Bedingung,Erich,H?rl,Ed.Frankfurt/M.:Suhrkamp,2011,p.273.通過(guò)使用這個(gè)術(shù)語(yǔ),他并不完全是指技術(shù)設(shè)備,而是指人類(lèi)、物體等所有可能相互作用的網(wǎng)絡(luò)和基礎(chǔ)設(shè)施,因此,只闡明了它們的外部語(yǔ)法。顯然,蓋洛維的黑箱概念與行為者網(wǎng)絡(luò)理論對(duì)該術(shù)語(yǔ)的使用方式有些相似之處,不過(guò)有一個(gè)重要的區(qū)別:根據(jù)蓋洛維的說(shuō)法,構(gòu)成黑箱的網(wǎng)絡(luò)元素,不能透露關(guān)于自己的任何信息。換言之,這些網(wǎng)絡(luò)已經(jīng)成為一個(gè)無(wú)法打開(kāi)的黑箱(這也是郝杰斯[Hilgers]對(duì)黑箱的定義——作為一個(gè)系統(tǒng),其內(nèi)部過(guò)程一直無(wú)法進(jìn)入)①Philip von Hilgers,“Ursprünge der Black Box”,Rekursionen Von Faltungen des Wissens,Ana Ofak and Philipp von Hilgers,eds.,München:Fink,2009,pp.281-324.。與此相反,米歇爾·卡倫(Michel Callon)認(rèn)為,任何黑箱,如果其行為者網(wǎng)絡(luò)的運(yùn)作不能充分模擬一個(gè)系統(tǒng)的工作,那么它不僅可以而且必須被打開(kāi),從而產(chǎn)生一群“新的參與者”。②Michel Callon,“The Sociology of an Actor-Network:The Case of the Electric Vehicle”,Mapping the Dynamics of Science and Technology:Sociology of Science in the Real World,Michel Callon,John Law,John and Arie Rip,eds.,Sheridan House Inc,1986,pp.29-30.乍一看,蓋洛維的黑箱概念似乎可以用來(lái)描述由現(xiàn)代深度學(xué)習(xí)/人工神經(jīng)網(wǎng)絡(luò)算法中介的基礎(chǔ)設(shè)施和技術(shù)網(wǎng)絡(luò),但這并不像看起來(lái)那么容易。蓋洛維的模型基于給定輸入和輸出的存在,然而,人工神經(jīng)網(wǎng)絡(luò)技術(shù)并不總是在輸入和輸出都可用的情況下運(yùn)行。例如,所謂的無(wú)監(jiān)督機(jī)器學(xué)習(xí),算法就是在沒(méi)有給定輸出的情況下被訓(xùn)練。因此,正如這個(gè)例子所示,如果我們想了解深度學(xué)習(xí)/機(jī)器學(xué)習(xí)基礎(chǔ)設(shè)施作為一個(gè)黑箱的細(xì)微差別,蓋洛維的理論可能用處有限。同時(shí),這也是行為者網(wǎng)絡(luò)理論再次發(fā)揮作用的方面——我們不能簡(jiǎn)單地臆想黑箱問(wèn)題作為一個(gè)只涉及算法的政治(或倫理)問(wèn)題。相反,這個(gè)問(wèn)題包含了許多不同的因素:法律方面、機(jī)構(gòu)程序、環(huán)境問(wèn)題、現(xiàn)有的政治以及法律規(guī)定,等等。
討論深度學(xué)習(xí)程序如何表現(xiàn)出種族或性別偏見(jiàn),這些因素也很重要。當(dāng)微軟聊天機(jī)器人Tay被推特用戶訓(xùn)練學(xué)習(xí)種族主義、性別歧視以及反猶主義的言論時(shí),引起了巨大的動(dòng)蕩。③James Vincent,“Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day”,The Verge.March 24.https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist[Last access:2018/03/06].這個(gè)丑聞非常有洞察力,因?yàn)樗砻鲗W(xué)習(xí)算法的操作在很大程度上其實(shí)依賴于數(shù)據(jù),更依賴于給數(shù)據(jù)打標(biāo)簽的人,至少監(jiān)督學(xué)習(xí)任務(wù)的情況下是這樣的。換句話說(shuō),產(chǎn)生偏見(jiàn)或政治問(wèn)題結(jié)果的不是算法,實(shí)際上是設(shè)計(jì)和產(chǎn)生學(xué)習(xí)數(shù)據(jù)的人類(lèi)行為者,其中包括通過(guò)亞馬遜Mechanical Turk或Crowd-Flower等平臺(tái)雇傭和組織的成百上千的群眾工作者。因此,如果我們想談?wù)撊斯ぶ悄艿钠?jiàn)問(wèn)題,也應(yīng)當(dāng)解決偏見(jiàn)和意識(shí)形態(tài)的一般結(jié)構(gòu),這些結(jié)構(gòu)仍然影響著我們的社會(huì),從而影響了設(shè)計(jì)人工智能系統(tǒng)的專家和工人。此外,這個(gè)例子清楚地表明,為什么我們要仔細(xì)研究某些形式的媒體/媒介,它們是現(xiàn)代人工智能技術(shù)的主要中介。
毫無(wú)疑問(wèn),到目前為止,關(guān)于人工智能是黑箱的討論幾乎只集中在狹義的技術(shù)方面,多少有些短視,這也涉及對(duì)“民主人工智能”的批評(píng)。例如,哲學(xué)家尼克·博斯特羅姆最近質(zhì)疑了通過(guò)讓人工智能更透明來(lái)使其更安全的整個(gè)邏輯:“如果你有一個(gè)可能對(duì)世界做壞事的按鈕,你不會(huì)想把它交給每個(gè)人?!雹蹸ade Metz,“Inside OpenAI,Elon Musk’s Wild Plan to Set Artificial Intelligence Free”,Wired.April 28.Online:https://www.wired.com/2016/04/open ai-elon-musk-sam-altman-plan-to-set-artificial-intelligence-free/.[Last access:2018/03/06].乍一看,這個(gè)論點(diǎn)很有說(shuō)服力,但同時(shí)也有點(diǎn)奇怪。例如,如果考慮到核武器,人們可以很容易地觀察到,只為自己保留一個(gè)可能的“危險(xiǎn)按鈕”是多么復(fù)雜(我們也可以指出近期在這里關(guān)于美國(guó)總統(tǒng)有權(quán)決定是否使用核武器作為第一次打擊的討論)。我不想爭(zhēng)論冷戰(zhàn)期間威懾平衡的概念實(shí)際有保障和平的作用,我也不想把核武器的具體技術(shù)放在與人工智能相同的水平。我只想說(shuō)明,為什么負(fù)責(zé)任的或透明的人工智能,其全部實(shí)踐和話語(yǔ)也許比博斯特羅姆的說(shuō)法更復(fù)雜。透明人工智能理念的唯一替代方案是將所有關(guān)于人工智能的相關(guān)知識(shí)保密,這也不是正確的。至少,后一種策略不可能是OpenAI的選擇,因?yàn)檫@將破壞公司的身份。
此外,必須強(qiáng)調(diào)的是,就像黑箱問(wèn)題不僅涉及技術(shù)本身一樣,我們也必須承認(rèn),任何使人工智能民主化的嘗試,不能僅僅局限于圍繞其技術(shù)工具和知識(shí)的開(kāi)源活動(dòng)(參見(jiàn)馬茨納[Matzner]進(jìn)一步批判性地看待人工智能是一個(gè)超越透明度和問(wèn)責(zé)制問(wèn)題的黑箱⑤Tobias Matzner,“Opening Black Boxes Is Not Enough-Data-based Surveillance In Discipline and Punish And Today”,F(xiàn)oucault Studies 23,2017,pp.27-45.)。我們已經(jīng)生活在一個(gè)后隱私時(shí)代,人們對(duì)與個(gè)人生活和活動(dòng)相關(guān)的數(shù)據(jù)收集、存儲(chǔ)、處理及傳輸?shù)倪^(guò)程幾乎沒(méi)有控制權(quán),這并不是一種反烏托邦的立場(chǎng),特別是當(dāng)愛(ài)德華·斯諾登(Edward Snowden)披露證實(shí)了關(guān)于監(jiān)控的糟糕陰謀論是真實(shí)的。①Florian Sprenger,The Politics of Micro-Decisions:Edward Snowden,Net Neutrality,and the Architectures of the Internet,Lüneburg:Meson P.,2015.這里的問(wèn)題不僅是公司,或者通常而言的政府,違背我們的意愿收集和分析私人數(shù)據(jù)。很多時(shí)候,許多人根本不關(guān)心他們?cè)谏暇W(wǎng)使用應(yīng)用程序時(shí)產(chǎn)生和傳播的數(shù)據(jù)。即使他們努力保護(hù)私人信息,也不能保證他們的朋友、家人或同事都會(huì)這樣做。這些方面早在當(dāng)前人工智能熱潮興起之前就已成為文化批判的主題。因此,我們不應(yīng)該僅僅討論如何使人工智能民主化,而應(yīng)該繼續(xù)努力,為我們這個(gè)由數(shù)據(jù)驅(qū)動(dòng)的世界確保普遍的民主標(biāo)準(zhǔn)。為了實(shí)現(xiàn)這一目標(biāo),將人工智能的政治分析與更廣泛的數(shù)據(jù)化討論聯(lián)系起來(lái),這只不過(guò)是第一步,但卻是非常重要的一步。
目前,我們很難想到有什么機(jī)構(gòu)或法律,無(wú)論是全球的還是地區(qū)的,可以防止我們?cè)馐苋斯ぶ悄艿奈kU(xiǎn)及大數(shù)據(jù)的濫用。我們也沒(méi)有任何深刻的理由相信像OpenAI、臉書(shū)或谷歌這樣的公司會(huì)實(shí)現(xiàn)這一目標(biāo)。同時(shí),把這些科技公司視為民主數(shù)字文化的敵人也許是短視的,因?yàn)樗鼈儞碛屑瓤刂茢?shù)據(jù)又控制智能算法的霸權(quán)力量。顯然,有一些危險(xiǎn)是更緊迫的。例如,如果非民主國(guó)家利用人工智能或深度學(xué)習(xí)技術(shù)壓迫其政治反對(duì)派或恐怖分子的非法活動(dòng),這種威脅并不是大數(shù)據(jù)妄想癥的臆想情景。正如專家們最近所證明的那樣,只需訪問(wèn)一個(gè)所謂的應(yīng)用程序接口(API),就能對(duì)機(jī)器學(xué)習(xí)算法進(jìn)行逆向設(shè)計(jì),準(zhǔn)確率接近100%。黑客能夠從IBM或微軟等IT公司竊取人工智能技術(shù),用于可能的具體目標(biāo)(技術(shù)細(xì)節(jié)可參考克拉布恩[Claburn]②Thomas Claburn,“How to steal the mind of an AI:Machine-learning models vulnerable to reverse engineering”,The Register.Online:https://www.theregister.co.uk/2016/10/01/steal_this_brain/[Last access:2018/03/06].)。當(dāng)然,擁有一個(gè)真正開(kāi)放的人工智能可能會(huì)首先解決這個(gè)特殊問(wèn)題。但是,人們又要問(wèn),我們?nèi)绾未_保開(kāi)放的人工智能不會(huì)被用于有害的目的?
截至目前,OpenAI似乎不太關(guān)心任何具體的人工智能政治愿景,而更熱衷于參與到開(kāi)發(fā)通用人工智能的競(jìng)爭(zhēng)中。因此,這很容易讓人相信OpenAI的政治或倫理議程基本是一個(gè)公關(guān)噱頭。但是,與其質(zhì)疑OpenAI的具體做法是否符合他們的議程,對(duì)于媒介政治問(wèn)題來(lái)說(shuō),不如在一個(gè)更廣泛的焦點(diǎn)背景下,探討透明或負(fù)責(zé)任的人工智能的政治含義和效果可能會(huì)更有成效:學(xué)習(xí)算法技術(shù)如何重塑工具理性的條件,這與數(shù)字文化和社會(huì)的每個(gè)方面都深刻相關(guān)。而這個(gè)重要的項(xiàng)目才剛剛開(kāi)始。