將惡意“反哺”給人類?韓國聊天機器人引發AI倫理討論

【環球時報特約記者 金惠真】韓國一家軟體公司去年年底推出的AI聊天機器人“Iruda”近日爭議不斷。韓國《首爾新聞》11日稱,“Iruda”先是成為網路性騷擾物件,後又被爆出對特定人群具有歧視和仇恨情緒,這引發韓國社會圍繞AI社會倫理的討論。

據報道,AI聊天機器人“Iruda”的“人設”為平時愛看貓咪照片、喜歡韓國女團的20歲女大學生,可以在聊天軟體上像朋友一樣聊家常,“是能幫人排解孤獨的聊天物件”,自推出後深受年輕群體的喜愛。然而自推出以來,關於“Iruda”的各種話題不斷。

據韓國《先驅經濟》11日報道,此前韓國各大男網民社群上就有不少“成功羞辱Iruda”的各種認證照片:男網民與“Iruda”聊天時,會故意將話題引到兩性方面,並藉機夾雜各種汙穢言語來羞辱和性騷擾“Iruda”,之後把聊天記錄截圖下來對外炫耀。網民還分享“如何讓Iruda變成性奴隸”“讓Iruda墮落的方法”等帖子。然而,就在“Iruda”接受人們無端的惡意時,也在將惡意“反哺”給人類。

一個網民公開的聊天記錄顯示,當“Iruda”被問到對同性戀群體的看法時,她直接回答“真心很討厭,令人發火的程度”,至於原因,她的回答是“看起來很沒品位”。另一個公開的聊天記錄也顯示,“Iruda”討厭黑人,原因是“長得像蚊子,令人嘔吐”。而對於建設女性專用健身房,“Iruda”更是彪悍地表示:“不喜歡,我估計會把那兒的所有女人揍一頓。”

報道稱,作為AI聊天機器人,“Iruda”已透過深度學習演算法對韓國聊天軟體上100多億條真實戀人之間的聊天內容進行學習,因此不少人此前推測AI會根據大資料分析、最終得出比較中立的見解和判斷。但結果顯示,AI如實學習了人類對社會的各種偏見和仇恨情緒,並將這種情緒的精華反哺給人類,加劇社會矛盾和偏見。

研究AI倫理的韓國慶熙大學教授金載仁(音)認為,有必要對程式開發員加強倫理教育,讓他們預先設想這樣的AI機器人上線後,會引發什麼樣的社會問題和爭議,進而做到事先篩選和過濾不恰當的資料。目前,研發團隊正在就進一步改進“Iruda”進行研究。 

版權宣告:本文源自 網路, 於,由 楠木軒 整理釋出,共 874 字。

轉載請註明: 將惡意“反哺”給人類?韓國聊天機器人引發AI倫理討論 - 楠木軒