據(jù)英國(guó)《每日郵報(bào)》報(bào)道,來(lái)自英國(guó)卡迪夫大學(xué)和美國(guó)麻省理工學(xué)院的計(jì)算機(jī)科學(xué)和心理學(xué)專家發(fā)現(xiàn),自主機(jī)器人可以通過(guò)識(shí)別、復(fù)制、學(xué)習(xí)其他機(jī)器人的行為產(chǎn)生偏見(jiàn),某些種類的算法已經(jīng)產(chǎn)生性別歧視和種族歧視。
為證實(shí)人工智能可以自己產(chǎn)生偏見(jiàn),科學(xué)家用計(jì)算機(jī)模擬博弈。博弈中,每個(gè)個(gè)體都可以將錢(qián)送給自己所在的群體或其他群體,以測(cè)試每個(gè)個(gè)體的給予策略,觀察其是否對(duì)其他群體有偏見(jiàn)。參與研究的卡迪夫大學(xué)計(jì)算機(jī)科學(xué)與信息學(xué)教授Roger Whitaker表示:“通過(guò)成千上萬(wàn)次模擬,我們發(fā)現(xiàn)了偏見(jiàn)是如何演化的、哪些情況可以激化偏見(jiàn)、哪些情況可以減弱偏見(jiàn)。我們的研究表明,偏見(jiàn)是自然產(chǎn)生的、影響非常大的,它很容易被激勵(lì)、損害大范圍的連通性。來(lái)自同一偏見(jiàn)群體的保護(hù)可以非主觀地引起更進(jìn)一步的偏見(jiàn),使整個(gè)群體四分五裂。這種廣泛傳播的偏見(jiàn)很難逆轉(zhuǎn)?!边@些個(gè)體是通過(guò)復(fù)制那些有更高短期效益的個(gè)體使得偏見(jiàn)升級(jí)的,可見(jiàn)偏見(jiàn)并不需要高級(jí)認(rèn)知能力。
在另一項(xiàng)關(guān)于性別的研究中,研究人員發(fā)現(xiàn),微軟、IBM和Face++等的人臉識(shí)別服務(wù)中存在性別歧視和種族歧視。這些服務(wù)對(duì)于男性白人更加友好,而對(duì)于男性黑人和女性黑人錯(cuò)誤率最高。