我們常常説,謠言止於智者,現在好了,謠言起於“智”者——“智”是人工智能。
2月16日,一則杭州市政府3月1日取消機動車依尾號限行的“新聞稿”在網上瘋傳。這則新聞稿的來源是杭州某小區業主羣討論ChatGPT時,一位業主開玩笑説嘗試用它寫篇杭州取消限行的新聞稿,隨後在羣裏直播了使用ChatGPT的寫作過程,還把文章發在羣裏。其他業主不明就裏,截圖轉發,導致錯誤信息傳播。據報道,經杭州警方證實,該消息不實,警方已介入調查。
有人説,這則假新聞及其引發的後續效應,可以載入人工智能發展史了。雖然只是一個小小的漣漪,整個杜撰過程也是在小區羣這個半公開的場域中進行的,當事人及時承認錯誤讓事件並未造成實質性的破壞,但是這件事,確實第一次印證了大家關於人工智能的“超能力”是否會被用來作惡的聯想。
因為作為一種深度學習型人工智能技術,ChatGPT可以説是“天生造假者”。它已經在各行各業展示出用武之地,寫代碼、譯文獻、寫小説、寫文案、編菜譜、寫情詩……大家的探索熱情,不斷開發它的可能性,同時也對其進行着訓練。就像任何工具都有兩面性,ChatGPT也不例外,正因為它太好用了,學生用來代寫論文,求職者用它編造簡歷,好事之徒用它來寫假新聞,這些負面影響已經顯現。而基於ChatGPT的“好用性”,這些假作品,幾可亂真。有人據此提出了人工智能程序的“武器化”風險。
並非危言聳聽,今年1月,新聞可信度評估機構News Guard的分析師指示ChatGPT對虛假信息作出回應,ChatGPT為100條虛假信息中的80條製作了更具細節的新聞報道、文章和電視腳本。對於那些不熟悉樣本信息所涉內容或主題的人來説,ChatGPT製作的這些內容很容易被看作是合法、權威的信息。News Guard聯合執行官格洛維茨稱:“ChatGPT可能成為互聯網有史以來最強大的傳播虛假信息的工具。”
一些實驗表明,ChatGPT等個性化的實時聊天機器人在製造陰謀論方面甚至相比人類陰謀論者更具優勢,它能夠修正糟糕的語法或錯誤的翻譯,並變換表達方式,使陰謀論顯得更具説服力和可信度。
比如這次取消限行的假新聞中,ChatGPT編的稿子有鼻子有眼,措辭、結構、語態跟一般的新聞通告非常像,連身邊的一些媒體老編輯都信以為真。“此次取消限行是市政府為方便市民出行、優化城市交通而作出的重要舉措”這種“官方表態專業用語”,可謂一本正經地胡説八道。真應了那句話——流氓不可怕,就怕流氓有文化。
本身ChatgGPT的一個大缺陷就是非常不擅長事實核查,在此基礎上獲得造假的指令後,內容生產的造假效率便會大大提高,造假成本簡直低到塵埃。防止人工智能生產的虛假信息湧入這一問題,已經“懟”到了大眾面前。
該怎麼做不難想象。首先,人工智能締造者有義務,從技術修正的角度,識別和排除可能會造成風險的造假指令,或者防止人工智能生產的內容,進入某些特定領域。其次,構建人工智能應用的倫理和法律框架,要和技術研發齊頭並進。如果缺少倫理和法律這兩條“繮繩”,那麼人工智能的野馬“狂飆”起來後果難以預料。第三,用户教育要同步進行。大眾對人工智能生產內容(AIGC)新紀元感知是滯後的,並未意識到新技術給信息環境造成的巨大影響,對信源真實性的警覺尚未建立,對不同媒介的內容質量也沒有基本認知。
這一切,並不代表要把人工智能當成洪水猛獸,而是啓發我們,對待人工智能創造性思維和批判性思維並存。就像ChatGPT在接受《時代》專訪時回答的:我還有很多侷限,但人類應準備好應對AI。
(紅星新聞特約評論員 罕山)
(來源:齊魯壹點)