美國當地時間5月25日,明尼阿波利斯市警方逮捕美國黑人男子喬治·弗洛伊德時,警察肖萬將膝蓋壓在弗洛伊德頸部長達5分鐘,弗洛伊德被送往醫院後因搶救無效最終死亡。
但是根據檢察官的説法,官方屍檢的初步結果顯示,弗洛伊德體內的潛在毒品和潛在健康問題,包括心臟病,很有可能是導致他死亡的原因。
刑事起訴書上,屍檢結果顯示,“沒有在身體上發現任何傷口支持外傷性窒息或扼殺的診斷”。
6月1日事件迎來反轉,根據美國媒體報道,弗洛伊德的家屬律師表示,獨立屍檢發現,弗洛伊德是由於“頸部和背部受壓,引起的腦部血液不流通,進而導致的窒息性死亡”。
該事件迅速從明尼阿波利斯市蔓延到了美國全國,不少地區開始舉行大規模抗議遊行,局勢混亂不堪,眾多城市淪陷。這也是近兩年發酵最大的一次事關種族主義的事件。從歷史角度上看,現在的美國正在經歷一個非同尋常的時期,美國國內的種族主義的弊端正得到充分展現。
雖然技術一直標榜着客觀公正,但是在相面識別等涉及到膚色、外貌等眾多領域,技術往往在煽動種族主義中發揮了一定的作用。
如何在研究中消除種族偏見也是不少學者投身一生的研究課題。
以本次事件為由,我們特意收集整理了一些種族主義和技術偏見相結合的資源,特別是在AI領域,包括一些研究、文章和書籍等,包括從主流語音識別到面部識別的種豬性探究,希望這些資源能夠成為培養負責任公民、尤其是技術從業者的起點。
這是MIT媒體實驗室的一個重要作品:Joy Buolamwini,Timnit Gebru博士,Helen Raynham博士和Deborah Raji共同完成。
在這個項目中,研究者們探究了IBM、微軟和曠視的面部識別系統如何在不同性別和種族下的表現。
作品鏈接:
http://gendershades.org/
由艾莉森·科內克(Allison Koenecke)領導,這項研究展示了語音識別中的種族歧視問題,並研究了對非裔美國白話英語使用者的影響最大的五種流行的語音識別系統,。
研究鏈接:
https://www.pnas.org/content/117/14/7684
這是一份來自AI Now研究所的報告,研究者在報告中探索了政府使用的算法系統,包括移民、醫療、司法、人力等主要政府部門,主要探索算法規則和是否存在偏見。
報告鏈接:
https://ainowinstitute.org/aap-toolkit.pdf
這是美國國家商會標準與技術研究所(NIST)的一份報告。NIST的一項新研究研究了面部識別軟件工具如何準確識別性別,年齡和種族背景不同的人。報告旨在為政策制定者提供信息,並幫助軟件開發人員更好地瞭解其算法的性能。
研究鏈接:
https://www.nist.gov/news-events/news/2019/12/nist-study-evaluates-effects-race-age-sex-face-recognition-software
StereoSet是一個數據集,用於測量語言模型中的原型偏見。StereoSet包含17,000個句子,用於衡量跨性別,種族,宗教和職業的模型偏好。
MIT的一項研究表示,“度量模型中的種族主義,性別歧視和其他歧視性行為,同時還要確保基礎語言模型的性能保持強勁。為了在StereoSet中表現出色,研究人員必須創建一個公平,公正的語言模型,同時還要對自然語言有深刻的理解。”
研究鏈接:
https://stereoset.mit.edu/
這是一項來自AI Now Institute的研究,研究人員指出,AI存在跨性別和跨種族危機,如今的AI系統亟需改變當前在處理人種和性別多樣性上的方法。
研究鏈接:
https://ainowinstitute.org/discriminatingsystems.pdf
這是McKinsey公司做的一份報告,該報告着眼於自動化技術在擴大美國黑人家庭與白人家庭的貧富差距上起到了怎樣的作用。在報告中他們指出,非裔美國人在所有人種中受到自動化影響最大,他們預測到,直到2030年,受到自動化技術的影響,非裔美國人流離失所的概率為23.1%也就是説,這個趨勢甚至到2030年都將保持不變。
報告鏈接:
https://www.mckinsey.com/featured-insights/future-of-work/the-future-of-work-in-black-america
Jessie Daniels、Mutale Nkonde和Darakshan Mir在數據與社會項目中的一項工作,解釋了為什麼“道德,招聘多樣性和隱性偏見培訓還不足以建立科技界真正的種族素養。
他們將種族素養定義為一種解決技術上種族差異的新方法。
他們認為這是一種可以發展的技能,可以擴展的能力。要提高技術中的種族素養,需要三個基礎:
研究鏈接:
https://racialliteracy.tech/
Pro Publica上的一篇超長特寫報道,揭示了刑事司法系統中的預測算法如何針對黑人。
文章鏈接:
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
首先是Safiya Noble和Sarah Roberts合著的Technological Elites, the Meritocracy, and Postracial Myths in Silicon Valley,在這本書中,兩人探索了“硅谷技術官僚的話語,以及在後種族主義時代下的投資權利,以此作為資本整合的藉口,這也是反對終結歧視性勞工做法的公共政策承諾的某些方式”。
資源鏈接:
https://escholarship.org/uc/item/7z3629nh
除此之外,還有一些書籍在探討種族和技術方面取得了不錯的反響:
Algorithms of Oppression,作者Safiya Noble
資源鏈接:
https://nyupress.org/9781479837243/algorithms-of-oppression/