皮特·科爾施拉格(Peter G. Kirchschl?ger)
皮特·科爾施拉格,瑞士盧塞恩大學(xué)倫理學(xué)教授兼社會(huì)倫理學(xué)研究所所長(zhǎng),蘇黎世聯(lián)邦理工學(xué)院客座教授。本文已獲Project Syndicate授權(quán)。
去年10月,歐盟委員會(huì)通過了一份打擊販毒和有組織犯罪的新路線圖。出于某些顯而易見的原因,歐盟政策制定者并未邀請(qǐng)那些大型犯罪團(tuán)伙的成員去協(xié)助設(shè)計(jì)和制定這一戰(zhàn)略,因?yàn)橐蠓缸锞W(wǎng)絡(luò)提供意見只會(huì)讓他們更容易繼續(xù)逍遙法外。
然而,在對(duì)可能帶來無數(shù)風(fēng)險(xiǎn)的數(shù)字化轉(zhuǎn)型和人工智能進(jìn)行監(jiān)管之時(shí),政策制定者的做法卻恰恰相反。他們正在與臉書、谷歌、亞馬遜、蘋果和微軟等大型科技企業(yè)合作,哪怕這些公司的高管都已經(jīng)表現(xiàn)出了公然制造危險(xiǎn)工具和傷害用戶以獲取最大利潤(rùn)的意愿。
比如,好些包括大科技企業(yè)代表在內(nèi)的所謂“工作組”“專家組”“咨詢委員會(huì)”,正在“準(zhǔn)備”監(jiān)管數(shù)字化轉(zhuǎn)型和人工智能的提案。除此之外,一些有關(guān)這一主題的倡議和會(huì)議,還得到了那些它們致力于監(jiān)管的對(duì)象的資助。
數(shù)字系統(tǒng)帶來的威脅復(fù)雜而深遠(yuǎn)。新技術(shù)正在急劇擴(kuò)大全球不平等,科技巨頭也已經(jīng)成為對(duì)氣候變化和環(huán)境造成嚴(yán)重影響的耗能大戶。或許最令人擔(dān)憂的是,由于缺乏數(shù)據(jù)安全或針對(duì)監(jiān)控的保護(hù)措施,隱私權(quán)幾乎不斷在受到侵犯。收集大量數(shù)據(jù)并將其出售給出價(jià)最高者,是行業(yè)的標(biāo)準(zhǔn)做法。因此,數(shù)字平臺(tái)似乎比我們更了解我們自己,網(wǎng)絡(luò)生活充斥著經(jīng)濟(jì)和政治操縱。
此外,算法操縱和虛假信息已被證明威脅到了民主的正常運(yùn)作。比如在2016年美國(guó)總統(tǒng)大選之前,政治咨詢公司“劍橋分析”就試圖利用從多達(dá)8700萬臉書用戶那里收割的信息去左右選民,而該公司及其附屬公司同樣也曾濫用數(shù)據(jù)去嘗試影響英國(guó)的脫歐投票。
最近,大型語言模型的快速發(fā)展又為欺詐開辟了新的途徑,包括通過可以損害人們聲譽(yù)的音頻變聲和視頻換臉。大型語言模型也讓假新聞的傳播變得更加便利,而各個(gè)民主國(guó)家都深深感受到了這一禍害:人工智能生成的大量?jī)?nèi)容,可以淹沒高質(zhì)量的新聞報(bào)道,并在幾小時(shí)內(nèi)破壞整個(gè)國(guó)家的穩(wěn)定(比如英國(guó)發(fā)生的極右騷亂)。此外,同樣的策略也可以用來蒙蔽消費(fèi)者。
但這些還不是問題的全部:社交媒體的使用,與對(duì)青少年心理健康的嚴(yán)重危害相關(guān)。許多業(yè)內(nèi)人士對(duì)人工智能支持下的網(wǎng)絡(luò)攻擊和自主行動(dòng)武器可能對(duì)國(guó)際和平與安全造成的破壞性影響表示擔(dān)憂,更不用說這類武器給人類帶來的存續(xù)性風(fēng)險(xiǎn)了。
大型科技企業(yè)一貫對(duì)傷害人類和侵犯其權(quán)利表現(xiàn)得漠不關(guān)心。社交媒體公司尤其如此,因?yàn)橛脩粼谄淦脚_(tái)上停留的時(shí)間越長(zhǎng),這些公司的廣告收入也就越高。2021年一名告密者提供的文件顯示,臉書明知其算法和平臺(tái)推廣了有害內(nèi)容,卻并未采取有意義的應(yīng)對(duì)措施。這可不足為奇:研究發(fā)現(xiàn),用戶會(huì)花費(fèi)更多時(shí)間在網(wǎng)上表達(dá)仇恨、生氣和暴怒。
雖然不愿自律,但大型科技企業(yè)卻希望協(xié)助制定數(shù)字領(lǐng)域和人工智能的法規(guī)。讓這些公司在會(huì)議桌前占有一席之地,是件既諷刺又可悲的事。各國(guó)政府和國(guó)際社會(huì)正放任這些巨頭去主導(dǎo)建立新全球監(jiān)管框架和監(jiān)督機(jī)制的進(jìn)程。而委托那些從該行業(yè)的根本問題中獲利的人,是一個(gè)危險(xiǎn)的錯(cuò)誤。
好消息是,還有很多獨(dú)立專家和學(xué)者可以就如何最好地監(jiān)管人工智能和其他數(shù)字技術(shù)的開發(fā)和使用提供寶貴意見。當(dāng)然,私營(yíng)部門必須參與此類政策制定過程,但其參與程度不能超過包括公民社會(huì)組織在內(nèi)的其他利益相關(guān)者。技術(shù)創(chuàng)新不應(yīng)再只為少數(shù)跨國(guó)公司的利益服務(wù)。為了確保讓每個(gè)人都能過上有尊嚴(yán)的富足生活的可持續(xù)未來,政策制定者絕不能讓科技巨頭去主導(dǎo)數(shù)字平臺(tái)和新興人工智能應(yīng)用的監(jiān)管。