進三
政治傾向量表中占據(jù)頂部和底部四分位數(shù)的參與者的平均面部輪廓(左圖)和平均面孔(右圖)平均面部輪廓(左欄)表明自由主義者的下臉較小。這在平均面孔上也可見(右欄):請注意,自由主義者的嘴唇和鼻子向下移動,下巴更小。除此之外,平均輪廓和面孔實際上是相同的,自由派和保守派之間沒有其他明顯的差異,包括面部表情、儀容儀表、膚色或頭部方向。
熱圖表示因屏蔽給定圖像區(qū)域而導(dǎo)致的標準化預(yù)測分數(shù)的平均絕對變化。顯示模型使用的面部區(qū)域包括人中、眉毛和眼睛、鼻梁和嘴角。重要的是,背景和頭發(fā)在預(yù)測中幾乎沒有發(fā)揮任何作用,這證實了這些因素已被成功控制。
最近的一項研究引起了廣泛的關(guān)注,因為它聲稱人工智能技術(shù)可以通過一個人的一張照片來預(yù)測他的政治觀點。這項研究由斯坦福大學(xué)商學(xué)院組織行為學(xué)副教授米哈爾·科辛斯基博士主導(dǎo),他們開發(fā)了一種人工智能算法,可以僅根據(jù)個人的照片準確預(yù)測其政治觀點。
在這項研究中,591 名參與者被拍到表情相同、穿著相同的黑色 T 恤。為了拍照,他們還被要求把頭發(fā)向后梳,摘掉珠寶和化妝品,并剃掉面部毛發(fā)。盡管如此,當(dāng)一個人在照片中間無表情地擺姿勢時,人工智能技術(shù)能夠發(fā)現(xiàn)一個人面部特征的細微差別,這些細微差別與他們的政治學(xué)習(xí)相關(guān)。
研究人員在研究中發(fā)現(xiàn),自由派人士的下臉往往較小,下巴較小,嘴唇和鼻子朝下,而保守派人士的下半臉特征更大、更寬。這一發(fā)現(xiàn)引發(fā)了關(guān)于人工智能技術(shù)對個人隱私的潛在風(fēng)險的討論。
科辛斯基博士在接受采訪時表示:“我認為,人們并沒有意識到僅僅把照片放在那里就暴露了多少信息?!彼赋?,盡管人們可能從未見過你,也從未讓你看他們的照片,也永遠不會分享他們的政治傾向,但是,通過查看他們的照片,我們的研究表明,這在相當(dāng)于某種程度上告訴你,他們的政治傾向是什么。
2017 年創(chuàng)建的人工智能面部識別軟件“VGGFace2”用于檢查圖像,并通過將圖像與數(shù)據(jù)庫中存儲的其他圖像交叉引用來確定參與者的面部特征。然后,人工智能捕獲了科辛斯基所說的參與者面部的數(shù)字“指紋”,并將其與他們的反應(yīng)數(shù)據(jù)庫進行比較,以預(yù)測他們的觀點。
除了保守派與自由派面孔的預(yù)測輪廓外,研究還發(fā)現(xiàn)所有其他“輪廓和面孔實際上都是相同的,表明自由派和保守派之間沒有其他明顯的差異,包括面部表情、儀容儀表、膚色或頭部方向”。
研究結(jié)果加入了參與者的年齡、性別和種族等其他因素,但研究人員發(fā)現(xiàn),人的政治傾向之間的聯(lián)系完全取決于他們的面部特征。
這項研究的結(jié)果引發(fā)了關(guān)于人工智能技術(shù)對個人隱私的潛在風(fēng)險的討論。
科辛斯基博士表示:“你的自拍照是‘保守還是‘自由?”這個問題揭示了一個事實,那就是我們的照片可能會暴露出我們的政治傾向,這是我們大多數(shù)人從未意識到的。
這項研究揭示了人工智能技術(shù)的潛力,同時也提出了關(guān)于隱私和數(shù)據(jù)安全的重要問題。我們需要認識到個人信息的價值。在人工智能驅(qū)動的世界中,數(shù)據(jù)被視為新的石油。這意味著我們的個人信息,如購物習(xí)慣、位置信息、社交媒體活動等,都可能成為有價值的資源。因此,我們需要更加警惕地保護這些信息,防止它們被不法分子濫用。