谷歌翻譯困境破局 AI不是人,為什麼也會有性別偏見

這些年來,Google Translate(谷歌翻譯服務)一直被人詬病存在性別偏見現象,例如Google Translate會默認將某些“中性”職業和特定的性別聯繫起來,“醫生”一定是男性,而“護士”則往往是女性。

從2018年開始,Google就嘗試解決土耳其語和英語互相翻譯時的性別偏見問題,為與性別有關的詞條提供兩種版本的翻譯(和漢語不同,土耳其語是“中性”語言。漢語中有“他”和“她”兩種人稱代詞來區分性別,而土耳其語種僅存在“o”一種人稱代詞,不區分性別),分別展示指代男性和女性對應的語境。但此種解決方案可擴展性和準確度都較低,在推廣到其它語言的翻譯時困難重重。

今年4月22日,Google AI Blog(Google AI業務新聞博客)發表了最新的文章,宣佈Google Translate使用了優化升級的AI技術,進一步減少了翻譯中出現的性別偏見現象,且拓展性較原方案更強,目前已經可以支持英語與西班牙語、芬蘭語、匈牙利語以及波斯語的翻譯場景。

為何“沒有感情”的機器翻譯模型也會自帶性別偏見屬性?Google Translate究竟使用了何種AI技術來改善文本中的性別偏見現象?本期全媒派編譯VentureBeat文章,帶你通過Google Translate在解決性別偏見方面的努力,瞭解AI行業探索“性別平等”之路。

1

-THE FIRST-

不只是一個沒有感情的機器

AI或機器學習技術自然沒有性別可談,可性別偏見和其它社會偏見(如對年齡、職業、宗教、種族、甚至是地域的偏見和歧視)卻常出現在AI產品之中,這也是目前AI行業極為關注的問題之一。

Google Translate的負責人Macduff Hughes在接受採訪時解釋了AI技術“自帶”偏見的原因,AI和機器學習技術是通過訓練數據來實現對產品和服務的支持的,而這些訓練數據都是來自真實的社會場景,也就難免帶有社會中既有的各種偏見或歧視,接受了這些數據的AI模型則會“繼承”這些觀念。

用户在使用產品時又會受到這些偏見的影響,長此以往形成惡性循環,導致以性別偏見為代表的種種社會歧視越來越根深蒂固,而此種“偏見”的文本數據越多,AI模型會變得越來越“社會化”,和人一樣對事物產生固有的認知偏見。

除去產生“性別偏見”的翻譯文本外,Google Translate還曾因將胡亂輸入的原文本翻譯成恐怖的宗教預言而備受關注,這與Macduff Hughes解釋的AI及機器學習的底層運作機制有直接的關係,因為Google Translate用來打造AI產品時使用的訓練數據往往都是宗教文本。

在2018年,很多使用Google Translate的用户發現了一個可怖的現象。Google Translate會將本來毫無意義胡亂輸入的原語言,翻譯成末日預言,種種陰謀論也一時間甚囂塵上。

對於當時熱議的“陰謀論”事件,Macduff Hughes也做了相應的解釋,這還是同Google的訓練數據有關的。雖然有很多人把這件事歸咎於神秘的宗教主義或者外星人攻擊等原因上,但其實這是機器學習模型十分常見的問題。當用户的輸入超出了機器學習模型的預期後,返回的數據也將是不合常規的。

BBN科技公司研究機器翻譯的專家Sean Colbath,在當時曾對此事件發表同樣的看法,“如果他們(Google Translate)使用宗教文本作為訓練數據來構建機器學習模型,那最後產出的文本就很有可能是帶有宗教意味的”。

在此次事件後,Google Translate也加大了對於AI去偏見化的力度,首先就是在男女性別平等方面的努力。正如Macduff Hughes所説的,“Google作為業內的先行者,會帶領整個行業解決這些問題,首先就要解決在文本翻譯服務中出現的性別歧視的問題”。

如果現實的語言文本中就存在性別偏見,那麼翻譯模型就會學習到這些偏見,甚至強化它們。例如,當一種職業在60%-70%的情況下都是由男性承擔的,那麼翻譯系統就會學習到這一特徵,而在產出翻譯時,把這種職業100%地歸屬於男性,這一點就是Google Translate需要解決的問題。

有關這一問題最典型的例子就是“醫生”和“護士”,在最早的Google Translate中,機器翻譯都會將原本應是性別中性的詞語轉換成男性屬性的詞語,重現現實社會中已有的偏見,時任Google Translate產品經理的James Kuczmarski在博客中寫到,“像‘強壯’‘醫生’等詞語都會和男性掛鈎,而‘護士’‘美麗’等詞語則會和女性掛鈎”。

而使用Google Translate的很多用户常常都抱有學習語言的目的,這些用户需要知道不同場景中語言文本的細微差別。這也是Google Translate決定啓動“性別項目”的初衷。

2

-THE SECOND-

性別特定的翻譯功能

Google Translate解決偏見初嘗試

其實早在2016年,Google Translate作為機器翻譯行業技術探索的先行者就一直在應用最新的技術。2016年,Google Translate首次使用了“神經機器翻譯”(Neural Machine Translation),而摒棄了經典的“統計機器翻譯”(Statistical Machine Translation)。“統計機器翻譯”其實是對文本進行逐字翻譯,但是無法考慮到詞性、時態、語序等語法因素,常導致最後的譯文錯誤百出。而“神經機器翻譯”則是逐句翻譯,會將上述因素進行更好的處理。

使用了“神經機器翻譯”技術的Google Translate可以產出更加自然、順暢的譯文,也具備了產出不同風格文本的潛力(如正式場合使用的語言風格或者生活中使用的俗語俚語風格)。

到了2018年12月,Google Translate為了解決性別偏見問題,又推出了“性別特定的翻譯功能”(Gender-specific Translation)。土耳其語作為一種中性語言(即沒有區分性別的人稱代詞)首先開始支持該功能。

在此新功能的支持下,用户輸入一條無明顯性別信息的原文,會被轉換為“男性”和“女性”兩種場景的翻譯。兩種翻譯都會展示在翻譯結果中,由用户自行選擇。

Google Translate研發團隊採用了特殊的處理模型,通過三個步驟將原文本轉換為兩種性別格式的翻譯文本。首先,機器模型需要判斷原文是否為“中性”語言文本,即未明確指出人稱性別的文本;然後,Google Translate將產出男女兩種人稱的獨立譯文;最後再進行準確度檢查。

此種處理模式首先被應用在將土耳其語翻譯為英語的場景中,可支持短語和短句的翻譯。隨後又被拓展到將英語翻譯為西班牙語的場景中,西班牙語和土耳其語與英語的互譯是Google Translate中用户需求最大的兩種語言對。這一功能最早支持用户在Chrome或者Firefox瀏覽器上使用,後續又計劃在移動端及其它平台推出。但是當Google Translate準備將這一模式應用在更多語言的翻譯中時,發現此方案的可擴展性有很大問題。具體來説,在使用“神經機器翻譯”技術產出兩種“性別”的文本時,整個機器翻譯系統的查全率較低。比如,當出現10條需要進行“性別特定翻譯功能”處理的文本時,系統只能夠辨認其中的4條。此外,如果要為每一種像土耳其語一樣的“中性語言”配置可進行性別判定的分類識別器,將需要龐大的數據量來訓練機器模型,可拓展性極低,短期之內無法將此種功能應用到更多語言上。

3

-THE THIRD-

優化翻譯模型進一步減少性別偏見

今年4月22日,Google Translate宣佈解決了原先方案可拓展性較低的問題,並將“性別特定翻譯功能”拓展到英語與西班牙語、芬蘭語、匈牙利語以及波斯語的翻譯場景中。這種拓展性更強的解決方案優化了原先的處理模型,採用“重寫”(Rewriting)加“譯後編輯”(Post-editing)的方法,取代了原先的“判斷”加“分別翻譯”的處理模式,不再依賴於需要大量數據進行訓練的性別識別器。

“我們此次的AI技術方案實現了顯著的性能提升,不僅提高了性別判定的質量,而且將功能拓展到了另外4種語言上,”Google高級軟件研發工程師Melvin Johnson這樣寫到,“我們將繼續沿着這個方向探索下去,下一步準備解決長文本翻譯中的性別偏見問題。”

在新的處理模式下,系統不需要在第一步對原文進行判別,而是直接產出默認的翻譯文本;在第二步則由“重寫”功能,產出與默認翻譯文本對立性別的本文。比如説,默認翻譯文本是“他是一名醫生”,則重寫功能會產出對應的文本“她是一名醫生”。最後再對兩則翻譯文本進行準確度檢查,保證只有性別因素不同,其它因素保持一致。

要實現優化模式中的“重寫”功能也絕非易事,Google為了實現該功能使用了百萬級的訓練語例,這些訓練文本中包含了區分兩種性別的雙語詞組。由於這樣規模的雙語文本數據在短期之內很難獲得,Google Translate團隊還利用算法對現有的單語數據進行了處理,為其生成了包含對應性別的語例文本。

獲得足夠的訓練數據後,Google Translate也加入了標點和格的變化(指主格、賓格、所有格等變化),增強模型的穩定性。利用此種模型可實現高達99%的性別判定準確度。

Google Translate此次使用的優化版AI技術,將4種語言與英語的文本互譯中的“性別偏見”減少了90%以上,而用使用原方案的土耳其語-英語翻譯場景中,對“性別偏見”的解決度也從60%上升到了95%。系統判別是否需要展示兩種性別文本的準確度穩定在97%。

Google Translate雖然稱不上完美,也遠遠無法代替專業的人類譯者,但其在減少性別偏見的道路上的每一次進步,都體現了Google對於減少AI性別偏見的努力。AI技術是由人類創造的並塑造的,技術從業者需要像Google Translate一樣,打造更公正平等的AI產品反哺社會,幫助人類向更文明的方向發展。

版權聲明:本文源自 網絡, 於,由 楠木軒 整理發佈,共 4089 字。

轉載請註明: 谷歌翻譯困境破局 AI不是人,為什麼也會有性別偏見 - 楠木軒