段晨
近日Google發(fā)布了公司在使用人工智能的十一條準(zhǔn)則。
其中包括Google進(jìn)行AI研發(fā)的七個(gè)目標(biāo),和GoogleAI絕不會(huì)進(jìn)入的四種應(yīng)用場(chǎng)景,堪稱AI道德規(guī)范的“谷11條”。
CEO頌達(dá)爾皮柴(SundarPichai)在發(fā)布準(zhǔn)則的公開信里,也對(duì)國(guó)防部項(xiàng)目爭(zhēng)議做出了直接回應(yīng),表示今后不會(huì)讓AI涉及武器化的應(yīng)用,但并未“一刀切”,和政府、軍方劃清界限。
作為AI界的帶頭大哥,Google并未對(duì)多如牛毛的AI應(yīng)用領(lǐng)域一一作出指引,但這么多年經(jīng)歷了這么多“坑”之后,這本“谷11條”所體現(xiàn)出的智慧,也許會(huì)對(duì)所有關(guān)心AI道德問題的人有很大的幫助。
下面,就帶大家來捋一捋“谷11條”背后的思路。
Google眼中“好AI”的標(biāo)準(zhǔn)
首先,設(shè)計(jì)產(chǎn)品之初,價(jià)值觀就要正。
Google AI(原Google Research)研究院克里斯汀·羅伯森曾闡釋,公司研發(fā)AI的領(lǐng)導(dǎo)思想是:按照對(duì)社會(huì)有益的原則進(jìn)行設(shè)計(jì),創(chuàng)造世界最棒的產(chǎn)品,讓這些產(chǎn)品實(shí)現(xiàn)商業(yè)化,在競(jìng)爭(zhēng)中保持領(lǐng)先,同時(shí),讓這些產(chǎn)品為世界做出貢獻(xiàn)。
Google一向強(qiáng)調(diào)不作惡(dont be evil)的價(jià)值觀,但它從來不是一家慈善機(jī)構(gòu)。和所有科技公司一樣,它需要靠好產(chǎn)品賺錢,只不過,在對(duì)“好”產(chǎn)品的定義上,Google和許多公司明顯不同。
“谷11條”一上來就告訴員工,AI產(chǎn)品一要對(duì)社會(huì)有益,二不能加重現(xiàn)實(shí)社會(huì)已有的問題:
1.要對(duì)社會(huì)有益
當(dāng)我們思考AI潛在的應(yīng)用場(chǎng)景時(shí),我們將會(huì)把一系列社會(huì)和經(jīng)濟(jì)因素考慮進(jìn)內(nèi),在那些整體收益遠(yuǎn)遠(yuǎn)超過可預(yù)見風(fēng)險(xiǎn)和弊端的領(lǐng)域,進(jìn)行推進(jìn)。
2.要避免制造或加強(qiáng)不平等的偏見
AI算法和數(shù)據(jù)集可以反映、加強(qiáng)或減少不平等的偏見。我們將努力避免人們受到不公正的影響,尤其是與種族、民族、性別、國(guó)籍、收入、性取向、殘疾以及政治或宗教信仰等敏感特征相關(guān)的人群。
確保方向正確后,接下來Google要保證自己的產(chǎn)品是業(yè)界最棒的。準(zhǔn)則的第三到七條列出了好產(chǎn)品需要滿足的標(biāo)準(zhǔn)。字里行間繼續(xù)體現(xiàn)著以人為本的理念。
3.要保證安全性
4.要對(duì)人負(fù)責(zé)。我們的AI產(chǎn)品將易于接受合適的人類指導(dǎo)和控制
5.要結(jié)合隱私設(shè)計(jì)原則
6.要維持科學(xué)卓越的高規(guī)格
7.要可以用于符合原則的使用場(chǎng)景
仔細(xì)閱讀這些準(zhǔn)則,你甚至可以找到對(duì)應(yīng)的具體產(chǎn)品。
比如準(zhǔn)則中Google提到,“AI加強(qiáng)了我們理解大規(guī)模內(nèi)容含義的能力,我們將努力利用AI提供高質(zhì)量和準(zhǔn)確的信息”。這說的不就是最近上線的新版Google News嘛。
此外可以看到,在這些對(duì)產(chǎn)品標(biāo)準(zhǔn)的要求中,Google還加入了對(duì)最近科技界激辯的話題的思考:比如數(shù)據(jù)隱私,比如AI發(fā)展對(duì)人類本身可能帶來的威脅。
對(duì)國(guó)防部合作風(fēng)波的回應(yīng)
“谷11條”的結(jié)構(gòu)是“七要四絕不”。
舉了七個(gè)目標(biāo)后,Google提出了四個(gè)絕對(duì)不碰的領(lǐng)域。首先我們不會(huì)將AI應(yīng)用于:
1.帶來或可能帶來傷害的技術(shù)
2.武器或其他旨在給人們?cè)斐蓚Φ募夹g(shù)
做出這段表述的背景:今年3月時(shí),有媒體曝光Google的一份內(nèi)部文件,顯示該公司參加了五角大樓的無人機(jī)計(jì)劃Project Maven,幫助開發(fā)應(yīng)用于無人機(jī)的AI系統(tǒng)。
與此同時(shí),又有媒體曝出Google在內(nèi)部行為準(zhǔn)則里刪掉了有三處“不作惡”的文案。
和恨不得公司“再壞一點(diǎn)”的Facebook不同,大批Google員工對(duì)這個(gè)事實(shí)感到憤怒不滿。內(nèi)網(wǎng)激烈的討論后,超過三千名員工聯(lián)名上書CEO,要求退出項(xiàng)目。
最終,公司向員工和外界妥協(xié),宣布2019年國(guó)防部合同到期后不再與續(xù)約。
正是這件事,推動(dòng)了“谷11條”的誕生。據(jù)報(bào)道,Google創(chuàng)始人拉里佩奇、謝爾蓋布林、CEO皮柴和其他高管一起花了數(shù)月,最終制定了這版新的AI準(zhǔn)則。
不過,在這兩條表述里,Google并沒有表達(dá)以后完全跟政府及國(guó)防部門徹底交割。
顯然在強(qiáng)大的合作關(guān)系面前,Google是糾結(jié)的,而這并沒有錯(cuò)誤。比如在云計(jì)算上,國(guó)防軍事是個(gè)潛力巨大的領(lǐng)域。Google的競(jìng)爭(zhēng)對(duì)手亞馬遜、微軟都在積極競(jìng)標(biāo)國(guó)防部的云計(jì)算及存儲(chǔ)業(yè)務(wù),Google不可能因噎廢食。
不過既然做了決定就要承擔(dān)后果,Google的糾結(jié)之后肯定還會(huì)引發(fā)新的爭(zhēng)議和討論,Google只好表示準(zhǔn)則會(huì)根據(jù)公司新的理解而不斷改進(jìn)。
自己不作惡,也不讓別人作惡
更具體來說,堅(jiān)決不允許別人利用自己的技術(shù)作惡,這是不能跨過的底線。
“四絕不“的后兩條:
AI不會(huì)用于:
3.收集或使用信息用于監(jiān)控并違反國(guó)際規(guī)范的科技
4.技術(shù)的目的違反了廣泛接受的國(guó)際法與人權(quán)原則的科技
從這兩個(gè)條款可以明顯看到,“谷11條”再次穩(wěn)固了不作惡三個(gè)字的地位,而且還更進(jìn)了一步:不僅自己不作惡,還要防止別人利用Google的技術(shù)作惡。
這在上面第七條的AI目標(biāo)中也有體現(xiàn):
許多技術(shù)同時(shí)擁有很多用途。我們會(huì)努力進(jìn)行識(shí)別,限制可能有害或被濫用的應(yīng)用。我們會(huì)評(píng)估以下因素:
首要目的和用途……以及與有害的用途有多接近;
本質(zhì)和獨(dú)特性:我們的技術(shù)是普世的還是有獨(dú)特應(yīng)用場(chǎng)景的;
規(guī)模:這項(xiàng)技術(shù)的使用是否會(huì)帶來重大影響?
Google在其中參與的性質(zhì):我們是在提供普通的工具,還是為用戶做集成的工具,還是在開發(fā)定制解決方案?
Google希望借保證自己的AI技術(shù)不被濫用,這么做勢(shì)必意味著跟更多可能得到的利益說再見。一個(gè)直接影響可能是Google重返某些市場(chǎng)的難度會(huì)變得更大。
但沒有人會(huì)因?yàn)镚oogle堅(jiān)持它的真誠(chéng)和正義而怪罪它。有些事情必須做出取舍。
博客文章中,皮柴再次提到2004年Google上市時(shí)提到的兩個(gè)原則:“讓世界變得更好”和“不作惡”。
“我們當(dāng)時(shí)就表明了我們要用更長(zhǎng)遠(yuǎn)目光看問題的愿望,即使這意味著需要作出短期的犧牲。我們當(dāng)時(shí)這樣說,我們現(xiàn)在還是這樣相信?!?/p>
Google的準(zhǔn)則體現(xiàn)著一家已經(jīng)20歲高齡的新技術(shù)公司,對(duì)可能是未來最關(guān)鍵技術(shù)和道德的思考。它給出了一個(gè)寬泛,但又方向明確的指引,讓一些事情不再停留在想法和概念。
這本“谷11條”,或許也能推動(dòng)其他公司,扔掉“技術(shù)中立”的保護(hù)傘,更誠(chéng)實(shí)地參與到這個(gè)話題的討論中。