不久前,發(fā)表了一篇關(guān)于研究人員開發(fā)了新工具的文章,可以讓人們自己體驗(yàn)到人工智能模型對(duì)不同性別和種族的固有偏見。
雖然新聞報(bào)道中寫了很多關(guān)于我們的偏見是如何反映在人工智能模型中的,但看到人工智能生成的人類如此的白人化、男性化和老派,仍然感到不舒服,DALL-E2尤其如此, 當(dāng)?shù)玫健?首席執(zhí)行官” 或“ 董事( 總監(jiān))”這樣的提示時(shí),它在97%的情況下會(huì)生成白人男性。
在人工智能創(chuàng)造的更廣闊的世界中,偏見問題比你想象的更根深蒂固。斯坦福大學(xué)研究員費(fèi)德里科·比安奇表示,因?yàn)檫@些模型是由美國公司創(chuàng)建的,大多數(shù)訓(xùn)練數(shù)據(jù)來自北美,所以當(dāng)它們被要求生成再普通不過的日常用品時(shí),比如門和房屋,它們會(huì)創(chuàng)造出看起來很“北美”的物體。
隨著人工智能生成的圖像不斷涌現(xiàn),我們將看到大量反映美國偏見、文化和價(jià)值觀的圖像。誰知道人工智能會(huì)不會(huì)最終成為美國軟實(shí)力的主要工具呢?
那么,我們?cè)撊绾谓鉀Q這些問題呢?想解決人工智能模型訓(xùn)練數(shù)據(jù)集中的偏差,肯定有很多的工作要做,不過最近的兩篇論文提出了一些有趣的新方法。
如果你可以直接告訴模型,讓它給你偏見更少的答案呢?
德國達(dá)姆施塔特技術(shù)大學(xué)的研究人員和人工智能初創(chuàng)公司Hugging Face開發(fā)了一種名為FairDiffusion的工具,可以更容易地調(diào)整人工智能模型來生成你想要的圖像類型。例如,你可以在不同的設(shè)置下生成首席執(zhí)行官的照片,然后使用Fair Diffusion技術(shù)將圖像中的白人男性交換為女性或不同種族的人。
正如Hugging Face工具所展示的那樣,由于訓(xùn)練數(shù)據(jù)中存在偏見,許多文本到圖像的人工智能模型對(duì)職業(yè)、性別和種族自帶非常強(qiáng)烈的偏見。德國研究人員的Fair Diffusion工具是基于他們開發(fā)的一種名為語義指導(dǎo)的技術(shù),該技術(shù)允許用戶指導(dǎo)人工智能系統(tǒng)如何生成人類圖像并編輯結(jié)果。
參與這項(xiàng)工作的德國計(jì)算機(jī)科學(xué)教授克里斯蒂安·克爾斯汀表示,人工智能系統(tǒng)生成的圖像與原始圖像非常接近。
達(dá)姆施塔特大學(xué)的博士生費(fèi)利克斯·弗里德里希說,這種方法允許人們創(chuàng)建他們想要的圖像,而不需要完成繁瑣且耗時(shí)的額外工作,即嘗試改進(jìn)用于訓(xùn)練人工智能模型的有偏見的數(shù)據(jù)集。
然而,這個(gè)工具并不完美。改變一些職業(yè)的圖片, 比如“ 洗碗工”,效果并不好,因?yàn)檫@個(gè)詞在英文中既可以表示洗碗機(jī),也可以表示洗碗的人。最終,該模型所能產(chǎn)生的人的多樣性仍然受到人工智能系統(tǒng)訓(xùn)練數(shù)據(jù)集限制。不過,即便這項(xiàng)工作還需要更多的改進(jìn),但它可能是減輕偏見的重要一步。
類似的技術(shù)似乎也適用于語言模型。正如最近報(bào)道的那樣,人工智能實(shí)驗(yàn)室Anthropic的研究表明,只需簡單的指令,就可以引導(dǎo)大型語言模型產(chǎn)生更少的有害內(nèi)容。Anthropic的研究人員測試了不同大小的語言模型,他們發(fā)現(xiàn),如果這些模型足夠大,就會(huì)在用戶的要求下自我糾正一些偏見。
研究人員不知道為什么生成文本和圖像的人工智能模型會(huì)這樣做。Anthropic團(tuán)隊(duì)認(rèn)為,這可能是因?yàn)楦蟮哪P陀懈蟮挠?xùn)練數(shù)據(jù)集,其中既包括許多有偏見或刻板印象的例子,也包括人們抵制和糾正這些偏見的例子。
人工智能工具在生成圖像方面越來越受歡迎??怂雇≌f,像FairDiffusion這樣的工具可能對(duì)那些希望其宣傳圖片反映社會(huì)多樣性的公司很有用。
這些對(duì)抗人工智能偏見的方法是受歡迎的,由此也衍生出一個(gè)明顯的問題,即它們是否從一開始就應(yīng)該被納入模型中。目前,我們最好的生成式人工智能工具正在大規(guī)模放大有害的刻板印象。
值得注意的是,僅靠巧妙的工程手段并不能完全消滅偏見。正如美國國家標(biāo)準(zhǔn)與技術(shù)研究所(NIS)的研究人員在2023年的一份報(bào)告中指出的那樣,除了數(shù)據(jù)和算法,偏見還存在于更多地方。我們需要調(diào)查人類使用人工智能工具的方式,以及使用這些工具的更廣泛的社會(huì)背景,所有這些都可能導(dǎo)致偏見問題。
NIST表示,有效地緩解偏差將需要對(duì)人工智能模型如何構(gòu)建,以及納入其中的數(shù)據(jù),進(jìn)行更多的審計(jì)和評(píng)估,還要提高透明度。