周曉
在新冠疫情肆虐人類社會、給人類的日常生活領(lǐng)域帶來巨大的直接影響的同時,人工智能算法也受到疫情的間接影響,且影響巨大。但是人工智能算法并不屬于生物、經(jīng)濟或政治,那么它是怎么被新冠疫情沖擊的?
2020年結(jié)束時,新冠病毒依然在世界各地肆虐,英國也不例外。由于疫情嚴(yán)重,英國也不得不關(guān)閉學(xué)校,到了期末,依然沒有開學(xué)。但是,在沒有上課和考試的情況下,英國政府依然要求各個學(xué)校為學(xué)生打分。
然而,老師也封閉在家,已經(jīng)好幾個月沒看見學(xué)生了,無法給學(xué)生打分。于是,英國政府這次就用人工智能算法來給學(xué)生打分。算法會預(yù)測,如果學(xué)生來參加了考試,他們的成績會是什么樣的。
人工智能算法的結(jié)果出來了。40%的學(xué)生的成績低于老師的預(yù)期。其中一些學(xué)生的成績直接低了好幾個等級,這就相當(dāng)于一位原本可以考90分(滿分100分)的學(xué)生,被人工智能算法預(yù)測只能考60分。一些學(xué)生甚至因此失去了考入名校的機會。
更糟糕的是,在這40%的學(xué)生當(dāng)中,更多的是公立學(xué)校的學(xué)生,而非私立學(xué)校的學(xué)生。換句話說,人工智能算法預(yù)測,公立學(xué)校的學(xué)生無論過往學(xué)習(xí)有多認(rèn)真、成績有多好,“一定”是比不上私立學(xué)校的學(xué)生的。
人工智能算法給出的成績直接導(dǎo)致了大規(guī)模質(zhì)疑與抗議,那么它為何給出如此不合理且矛盾的成績?
人工智能的算法是基于現(xiàn)實的數(shù)據(jù)所建立的?,F(xiàn)實的數(shù)據(jù)跟數(shù)學(xué)數(shù)字一個很大的區(qū)別就是,現(xiàn)實數(shù)據(jù)帶有時間的屬性,而單純的數(shù)字則沒有時間屬性。在數(shù)學(xué)里,“90”就是單純的90,而“一個學(xué)生的成績是90分”里的“90分”指的是過去的分?jǐn)?shù)(英語語法里會直接提示90分是過去的)。這也就導(dǎo)致了人工智能算法的構(gòu)建,是基于過去的數(shù)據(jù),而非未來的數(shù)據(jù)。因此,目前的智能算法只能很好地“描述”過去,而無法“預(yù)測”未來。
就拿這次人工智能算法預(yù)測英國學(xué)生成績的案例來說。基于過去的數(shù)據(jù),因為教育資源遠(yuǎn)比不上私立學(xué)校的,公立學(xué)校學(xué)生的成績總體上確實比私立學(xué)校的低。但是,由于這次疫情,幾乎所有學(xué)校都關(guān)閉了,那么教育資源造成的成績差距理應(yīng)縮小,而非依舊那么大。只不過,算法的數(shù)據(jù)庫里可沒有新冠疫情,因為“過去”沒有新冠疫情,所以它就只能依據(jù)以往的情況進行預(yù)測。
造成人工智能算法預(yù)測結(jié)果不靠譜的因素當(dāng)中還有“人”。這次英國的成績預(yù)測如此離譜的原因還有,英國政府為了避免由于考試試題變得簡單導(dǎo)致的“成績膨脹”,讓算法一定要把某一等級的成績維持在某一特定的比例之內(nèi)。
舉個例子,得90分的學(xué)生只能占1%,那么一些本應(yīng)處于這個分段的學(xué)生,由于人數(shù)已滿,分?jǐn)?shù)只能向下調(diào)。隨后再加上私立學(xué)校學(xué)生的成績大概率好于公立學(xué)校的判定,那么這些90分的學(xué)生當(dāng)中,大多是私立學(xué)校的,隨后的成績也按相同的邏輯安排,最后的結(jié)果就是獲得好成績的學(xué)生當(dāng)中,更多的是私立學(xué)校的;而在成績較差的學(xué)生里,更多是公立學(xué)校的。
除了人工智能算法的操控者之外,被預(yù)測者也會使算法不具有預(yù)測性。人是有主觀能動性的。一位成績原本不好的公立學(xué)校學(xué)生,可能因為突然有了目標(biāo),奮發(fā)圖強,在下一次考試中取得難以置信的好成績;公立學(xué)校為了提高學(xué)生成績,在下次的考試之前,痛下血本,聘請更好的老師……然而,人工智能算法可不會知道這些未來將要發(fā)生的事情,它只能認(rèn)為,成績不好的群體以后的成績只能一直差下去。
早在這次英國預(yù)測成績事件之前,智能算法已經(jīng)用于對人類進行一些預(yù)測。
智能算法預(yù)測犯罪已在美國應(yīng)用于司法實踐。美國一位教授于2010年至2012年之間,制作出了一款名為Prepol的犯罪預(yù)測軟件。這款軟件的預(yù)測模型直接取自地震余震的預(yù)測模型。它根據(jù)以前的犯罪數(shù)據(jù),預(yù)測未來的犯罪會發(fā)生在哪個區(qū)域,從而指導(dǎo)警局把警力集中在目標(biāo)區(qū)域,進行巡邏,以達到打斷犯罪計劃,以及預(yù)防犯罪的目的。由于這地震余震的預(yù)測模型的準(zhǔn)確率非常之高,以致于不少人對Prepol非常有信心,當(dāng)時超過半數(shù)的警局裝備了它。
但是,一段時間后,奇怪的狀況發(fā)生了。裝備了Prepol的警局,往往被引導(dǎo)把警力集中在某一以前犯罪率較高的社區(qū)。然而,這些社區(qū)的犯罪率依然居高不下,換句話說,Prepol沒有任何的預(yù)測和預(yù)防效果。乍一看,這款犯罪預(yù)測軟件似乎至少成功預(yù)測了高犯罪率的社區(qū)??茖W(xué)家調(diào)查發(fā)現(xiàn),這是警察的“自我實現(xiàn)預(yù)言”所導(dǎo)致的。
由于一些警察對軟件的“預(yù)言”深信不疑,一些看似可疑的人員就直接被當(dāng)成罪犯。但沒有證據(jù),于是警察就對可疑人員進行語言、肢體或行為挑釁,當(dāng)引起對方的反抗后,警察就會趁機反擊或拔槍。于是,一件件由警察自己制造的案件就此產(chǎn)生。
除了P re p o l,還有一款名叫“替代制裁罪犯管理剖析”(簡稱COMPAS)的軟件應(yīng)用于司法實踐。這款軟件于2016年投入使用,它主要用于預(yù)測假釋或出獄人員再次犯罪的可能性。有意思的是,無論是Prepol ,還是COMPAS,它們所使用的建構(gòu)數(shù)據(jù)里完全不涉及膚色,但是前者預(yù)測黑人的犯罪率是白人的兩倍,而后者預(yù)測黑人的再犯率是白人的兩倍。
為什么Prepol和COMPAS會出現(xiàn)歧視黑人的情況?科學(xué)家對此的解釋是“基于不公平的數(shù)據(jù)做出的預(yù)測也是不公平的”。如今這兩款犯罪預(yù)測軟件已逐漸停止使用。
在商業(yè)領(lǐng)域,也有人工智能算法產(chǎn)生離譜預(yù)測的情況。例如,亞馬遜公司的招聘算法不久前被披露,它認(rèn)為男性的工作能力更強,因此在招聘過程中,更青睞男性。亞馬遜的招聘算法之所以得出這種性別歧視般的預(yù)測,原因是它的數(shù)據(jù)來自于現(xiàn)任成功員工與男性之間的關(guān)聯(lián):現(xiàn)任成功的員工大多是男性。招聘算法忽視了現(xiàn)代社會依然存在的“男人工作,女人養(yǎng)家”的刻板印象要求。
這一個個案例告訴我們,人工智能算法想要預(yù)測人類,還有很長的一段路要走。