技術安全新風向:下一站,AI聲音安全

【環球網科技綜合報道】北京時間4月16日,全球頂級信息安全峯會CanSecWest 2021召開,騰訊朱雀實驗室在題為《The Risk of AI Abuse: Be Careful with Your Voice(AI被濫用的風險:小心您的聲音安全》的分享中介紹了相關研究成果。

騰訊朱雀實驗室的最新研究成果表明,VoIP電話劫持與AI語音模擬技術的結合將帶來極大潛在風險。實驗室展示了用AI進行聲音克隆並劫持電話的攻擊場景。區別於此前腳本類的電信詐騙,這一新技術可實現從電話號碼到聲音音色的全鏈路偽造,攻擊者可以利用漏洞劫持VoIP電話,實現虛假電話的撥打,並基於深度偽造AI變聲技術生成特定人物的聲音進行詐騙。

技術安全新風向:下一站,AI聲音安全

這裏所説的VoIP是一種語音通話技術,經由IP來進行語音通話和參與多媒體會議,由於其使用便捷、成本低廉的特性,VoIP在全球範圍內被廣泛應用於辦公電話場景中。而VoIP電話劫持是由於早期版本的VoIP存在被網絡嗅探,並實施中間人攻擊的風險,攻擊者可利用漏洞篡改來電方的人名及電話號碼,使得接聽方的電話顯示為預設的任意內容。

騰訊朱雀實驗室研究顯示,通過深度學習技術可實現語音模擬,根據源人物的説話內容合成具有目標人物音色特徵的音頻,輸出偽造特定人物的聲音。其實這項技術並不新鮮,在許多場景中已經應用,比如地圖軟件中的定製語音播報,就可以通過少量自己的聲音來定製與自己音色極為接近的播放聲音。

因此,在VoIP電話劫持中,利用少量被攻擊者的聲音,可以合成與被攻擊者音色相似的任意內容的語音片段,再將虛假語音注入到電話中,就能達到以假亂真的效果,實現完整的電話欺騙鏈路。攻擊者可以輕鬆撥打虛假電話,冒充被攻擊者身份與目標人員對話。

針對這一潛在風險,騰訊朱雀實驗室研究員提出了建議——基於“用AI對抗AI”的思路,使用AI技術提取真實語音和虛假語音的特徵,再根據特徵差異來分辨真實語音和生成語音。同時,企業和個人儘量使用新版本的VoIP協議電話,如SIP、SRTP等,以減少電話被劫持的風險。

實際上,目前涉及語音的攻擊手段也愈加多樣化。騰訊研究員介紹,通過向語音中添加微小擾動,或修改部分頻譜信息,就可以欺騙語音識別系統。此外,通過將喚醒命令隱藏在不易察覺的音樂中,就可能喚醒智能設備進行對應操作。

騰訊雲副總裁、騰訊安全平台部負責人楊勇表示,AI技術與傳統安全攻擊技術的結合,衍生了新的應用場景和與之對應的濫用風險,AI的數據、算法、模型、基礎組件等核心要素更加需要安全的加持。騰訊朱雀實驗室就一直致力於實戰級APT攻擊和AI安全研究,持續深耕現實網絡安全,為AI技術的正向用、放心用保駕護航。

作為全球頂級信息安全峯會,CanSecWest一直以其權威性、熱點性、前沿性而備受行業關注。本屆CanSecWest2021將持續到4月30日,除了騰訊朱雀實驗室,來自百度、Adobe、Macfee、IOActive、加利福尼亞大學河濱分校等全世界的頂級安全專家也悉數到場,並將圍繞AI、雲原生、物聯網、可信計算等安全前沿技術領域展開探討。

版權聲明:本文源自 網絡, 於,由 楠木軒 整理發佈,共 1270 字。

轉載請註明: 技術安全新風向:下一站,AI聲音安全 - 楠木軒