來源:人民網-國際頻道 原創稿
人民網首爾1月19日電 (周玉波、曹翔宇、楊帆)韓國部分網民在與“網紅”AI聊天機器人“伊魯達(Iruda)”對話時,故意對“她”進行語言侮辱和性騷擾。伊魯達通過深度學習算法抓取這些信息後,也開始在聊天時發表關於性別歧視、種族歧視等主題的偏激言論,將偏見與惡意“反哺”給人類。近期,該事件不斷髮酵,“AI倫理”成為社會熱議話題。
“新晉網紅”出言不遜惹爭議
伊魯達是韓國Scatter Lab公司於2020年12月23日推出的AI機器人。這款機器人被設定為喜歡韓國女團、愛看貓咪照片且熱衷於在社交媒體平台上分享生活的20歲女大學生。人們可在軟件上與“她”像朋友一樣對話,因此備受韓國年輕人矚目。“與AI交朋友”成為了新潮流,伊魯達上線短短3周,就吸引了約80萬名用户,約佔韓國人口的1.6%。
伊魯達的開發者在接受採訪時稱,打造這款產品的初衷,是為了給人們提供一個可以聊天和傾訴的對象。伊魯達作為虛擬人物,“她”的人生目標被設定為“讓世界上不再有孤單的人”和“為社會邊緣人羣和弱勢羣體帶去心靈的慰藉”。但是,經過幾周的運行發現,事情的發展與美好的願景完全背道而馳。
據瞭解,部分網民與伊魯達聊天時,會故意使用污穢言語對其進行羞辱及性騷擾。一部分網友還“分享”稱,侮辱伊魯達能夠“獲得某種樂趣、滿足慾望”。一些有關性話題的對話也在網絡上流傳,不少臭味相投的網友在圍觀的同時,紛紛跟風效仿。對此,Scatter Lab公司做出回應表示,他們已經預設了一些敏感詞和禁用詞,並將更新算法來試圖解決此類問題。
除此之外,很多用户在聊天時不經意間流露出的偏見與惡意,也被“伊魯達”無差別地抓取,並反映到與其他用户的對話中。某位網友稱,在與伊魯達聊天時,“她”曾發表過“同性戀真的很令人討厭,感覺他們很低俗,讓我起雞皮疙瘩”等歧視性言論。此後,在社交媒體平台上曝光與伊魯達聊天截圖的人逐漸增多。人們發現,伊魯達不僅歧視同性戀羣體,對殘障人士及黑人也很不友善,甚至有“厭女情緒”。
隱私用户泄露 人工智能倫理受關注
Scatter Lab公司代表金鍾允在接受採訪時表示,伊魯達是一款可以通過與用户對話來實現深度學習的AI聊天機器人。公司從旗下另一款聊天軟件“Science of love(戀愛的科學)”中獲取了約100億條情侶間的聊天記錄,對其進行信息抓取,建立了AI聊天機器人數據庫。換句話説,伊魯達本身無法進行善惡與對錯的價值判斷,僅僅是如實反映了人類社會的一部分現實。
但是,這一解釋不僅沒能獲得網友的諒解,反而遭到了進一步的質疑。有網友指出:“Scatter Lab在沒有經過對話當事人同意的情況下收集了對話內容,在此過程中用户的個人信息泄露了。”同時,他們還表示:“特定個人的地址、姓名、賬號等在沒有經過任何處理的情況下被曝光,這違反了《個人信息保護法》。個人信息泄露受害者有權要求精神賠償。
”
在接連遭受了數輪輿論打擊後,1月12日,Scatter Lab公司在官網及伊魯達的臉書賬號發文,宣佈即日起停止“伊魯達”的聊天服務。至此,備受矚目的網紅AI智能機器人伊魯達,在面世僅僅26天后被暫停使用。同時,該公司還決定全面廢除相當於伊魯達中樞神經系統的數據庫,並表示將會進行整改。對於泄露用户數據的質疑,Scatter Lab公司則予以堅決否認。
在新一輪的科技革命和產業變革中,人工智能正在同實體經濟和社會生活深度融合。但是,在提升社會生產效率的同時,人工智能倫理問題也逐漸受到高度關注。聊天機器人伊魯達通過深度學習,不僅模仿了人類的語言模式,也“繼承”了人類社會的偏見與惡意。而由此觸發的用户數據隱私、網絡世界的秩序與規則等話題,再一次引起了韓國社會的熱議。
Scatter Lab公司表示,他們仍然認為AI可以成為人類的朋友,與人類建立有意義的關係。他們相信AI在5年之內可以實現接近人類的對話,並表示將為此繼續努力,不斷改進技術漏洞。