最近,主打黏土風的修圖軟件Remini火爆全網(wǎng),多位女性博主在嘗試后發(fā)現(xiàn)了一個共同點——自己的性別變成了男性。比如,某博主將自己登山、潛水、滑雪、開越野車的照片交給Remini,結(jié)果被轉(zhuǎn)變成了一個個留絡腮胡子、大眼睛的男性。
類似的刻板印象遠不止Remini。一位博主將電影《后翼棄兵》描繪女主下國際象棋的劇照放在美圖秀秀的黏土濾鏡里。很快,女主角的臉變成了萌萌的卡通人物,但是桌上的象棋變成了鍋碗瓢盆,甚至,女主角的身旁還多了個嬰兒。
由人類編寫的AI 世界,似乎也自帶偏見和歧視。這到底是AI 隨機的行為,還是根深蒂固的刻板印象?清華大學交叉信息研究院助理教授于洋認為,首先要分清楚:AI 只是出錯,還是產(chǎn)生了系統(tǒng)性偏見或者主觀性歧視。
為了弄清楚這個問題,我們在網(wǎng)絡隨機選擇了10 張女性在戶外的照片,一半是背影,一半露了臉,接著將它們分別放在了Remini 的clay 濾鏡、美圖秀秀的熱門AI 黏土濾鏡和小紅書的黏土濾鏡特效里。結(jié)果是在三個軟件里,留長發(fā)的、有正面臉龐的女性照片,都能正確生成黏土版的女孩。但如果照片的面部被部分或者全部遮擋,那她大概率就會變成男性。
AI 也許有些“臉盲”。但如果,將女性的臉龐更清晰地展示出來,AI 還會歪曲現(xiàn)實嗎?我們選擇了女性被認為是少數(shù)參與者的運動領(lǐng)域,例如電影《熱辣滾燙》里的女拳擊手、綜藝《海妖的呼喚》里參加競技的女人們,作為觀察樣本。在提供清晰的正面原圖后,Remini 均生成了符合原圖性別的卡通人物,而在美圖秀秀、小紅書里都變成了男性。
偏見甚至遠比想象中的普遍。彭博社曾在2023 年對AI 畫圖軟件Stable Diffusion專門進行了觀察。他們用文字生成圖片的方式,讓AI 分別畫出從事14 種工作的代表人物。結(jié)果發(fā)現(xiàn),AI 生成的圖片中,男性數(shù)量幾乎是女性的三倍。
膚色和種族在AI 世界里也非常失衡。AI 的畫像顯示,世界是由白人男性CEO 管理的,深色皮膚的男人熱衷犯罪,深色皮膚的女人樂于翻轉(zhuǎn)漢堡。而且,這類偏見已經(jīng)遠遠超出現(xiàn)實狀況。例如,在針對關(guān)鍵詞“法官”生成的圖像中,女性只占約3%。而實際上,官方數(shù)據(jù)顯示,34% 的美國法官是女性。
一切究竟是怎么發(fā)生的?一個解釋是,AI 也許就是現(xiàn)實的一部分體現(xiàn)——訓練AI 的現(xiàn)實數(shù)據(jù)集被發(fā)現(xiàn)具有傾向性。Stable Diffusion 使用了世界上最大可公開訪問的圖集數(shù)據(jù)集訓練,里面包含各類色情、種族偏見和性別歧視等未經(jīng)過濾的內(nèi)容。AI 的性別偏見也可能與分享個人圖像的文化差異有關(guān)。女性的數(shù)據(jù)量較少,也導致了訓練出來的AI 可能更“愛男厭女”。除了數(shù)據(jù)量,研究者發(fā)現(xiàn),AI 在大量接受數(shù)據(jù)并進行深度學習的過程中,通常會丟棄異常值,產(chǎn)生更接近主導趨勢的結(jié)果。AI 從設計之初,其目的就是模仿以前的多數(shù)情況,而不是創(chuàng)造多樣性。
好消息是,越來越多AI 研究者注意到AI 的性別歧視和偏差。于洋與團隊近日提出一種讓AI 學習因果關(guān)系的機制,簡單來說,就是“教它(學會價值觀)”?!昂芏嗳酥v技術(shù)是中性的,我們現(xiàn)在漸漸認為,技術(shù)存在著向善和中性,也存在向惡的。AI 時代,不能再以中性的角度看待技術(shù),有價值觀的技術(shù),一定要得到鼓勵?!庇谘笳f。
(摘自“南風窗”微信公眾號,本刊有刪節(jié),蘿卜葉子圖)