推文照片預覽有種族偏見?Twitter回應:將開源算法

推文照片預覽有種族偏見?Twitter回應:將開源算法

智東西(公眾號:zhidxcom)

編| 張之珮

智東西9月22日消息,針對多名用户稱推文預覽存在種族歧視的問題,Twitter回應,將展開更多調查並公開算法源代碼,歡迎用户查看算法、提出意見。

先前,多名用户發現,在有不同人種的照片中,Twitter的自動圖像裁剪算法會在選擇預覽推文呈現的縮略圖區域時,更加突出膚色更淺的人像區域。

推文照片預覽有種族偏見?Twitter回應:將開源算法
一、多個實驗表明,圖像剪裁算法更難識別深色人種

在滑動手機時,人們通常不會注意到附在推文預覽上的縮略圖,但在上週,研究人員卻發現用於提取縮略圖的裁剪算法可能更“偏心”白種人。

在多名用户發佈的不同人種的照片中,Twitter傾向於在縮略圖中突出淺色人種的圖像,而如果你點擊這些原始圖片,可以看到其中包含更多其他膚色的人羣,但即使改變了原圖中深色人種和淺色人種出現的位置,預覽結果也不會改變。

密碼及基礎架構工程師Tony Arcieri也在推特上進行了一項實驗,展示了美國前總統巴拉克·奧巴馬(Barack Obama)和參議員米奇·麥康奈爾(Mitch McConnell)的面孔。而無論二人位置如何,或者改變其他潛在干擾因素,例如領帶的顏色等,算法都傾向於在預覽的縮略圖中展示Mitch McConnell的臉。

也有網友認為,出現這一情況是因為算法更傾向於提取圖像中的亮度高和色彩密度大的區域,並不是“偏見”。

推文照片預覽有種族偏見?Twitter回應:將開源算法
二、Twitter最新回應:測試中並未發現種族歧視證據

針對該實驗,Twitter發言人利茲·凱利(Liz Kelley)回應稱,在算法正式使用前的測試中並沒有發現種族或性別歧視的證據,但仍需進一步分析,並補充,公司將公開機器學習算法的源代碼,以便“其他人可以查看和複製” Arcieri實驗的結果,並深入探討問題的根源。

推文照片預覽有種族偏見?Twitter回應:將開源算法

德國的開發人員比安卡·卡斯特(Bianca Kastl)就其中一個線程中解釋道,Twitter的算法可能是基於顯著性,也就是人們視覺搜索的順序,來裁剪圖像的。

Twitter在2018年的博客文章中支持了他的理論,並解釋了其用於圖像裁剪的神經網絡算法。先前,Twitter將面部檢測功能納入裁剪圖像的部分,但這種方法並不適用於沒有面孔的圖像,所以社交網絡轉而採用了基於顯著性的算法。

但即使Twitter算法並沒有有意地產生“種族偏見”,但也有足夠多證據證明,其在研發過程中的缺陷導致“種族歧視”出現。 NVIDIA的AI研究總監Anima Anandkumar指出,顯著性算法採用的訓練集,是異性戀男性的眼球追蹤的數據,而這顯然會將受試者的種族偏見轉移給算法。

三、錯誤識別引起烏龍,算法“偏見”並非個例

基於性別膚色的面部識別準確率差異早已不是新鮮事了。早在2018年,微軟在識別膚色較淺的男性時,準確性就已達到了100%,但在識別深色皮膚女性時,準確率僅為79.2%。

在推特“偏見”事件發生前,今年六月初,微軟也同樣因為面部識別涉及種族歧視引起了一場烏龍。英國知名女團Little Mix成員Jade Thirlwall發文,猛烈抨擊微軟新聞網站MSN在關於自己的報道中混淆使用了團內另一位成員的照片,隨後,該篇報道證實是由AI抓取並生成,卻在尋找配圖時把黑皮膚的Leigh和阿拉伯裔的Jade弄混了。

隨着越來越多的新聞網站和社交媒體採用AI識別、提取圖片,人們開始注意到許多算法,尤其是面部識別中存在的種族偏見。

結語:算法偏見問題正引起重視

越來越多的用户投訴網站中潛在的種族偏見,再加上“黑人的命也是命”的抗議活動升級後,許多科技公司被迫反思系統,尤其是面部識別技術中存在的偏見,包括IBM和Amazon在內的一大批公司緊急暫停或中止面部識別系統的工作。

Twitter也承諾將其圖像裁剪的機器學習算法開源,接受更多用户的審查和建議,其首席技術官Parag Agarwal表示,該算法需要不斷改進,團隊也渴望從經驗中學習。

來源:thenextweb,itpro

版權聲明:本文源自 網絡, 於,由 楠木軒 整理發佈,共 1607 字。

轉載請註明: 推文照片預覽有種族偏見?Twitter回應:將開源算法 - 楠木軒