現在騙子可不再是丟錢撿錢這樣的初級模式,他們也與時俱進,用上了AI人工智能。
近日,“中國電信客服”號發了關於AI詐騙的提醒,小編來給你解讀下。
你以為
穿上“人工智能”外衣的騙子
還是這樣的?
so young so simple!
AI人工智能,有着超強的學習能力,不僅能夠模仿他人的聲音、語調,甚至還能模仿帶着口音的英語。
最經典的例子就是阿法狗人機大戰,阿法狗戰勝柯潔!
據《每日郵報》報道,2019年3月,一名詐騙犯利用AI語音模仿軟件冒充公司大老闆,成功讓一家英國能源公司的CEO相信自己正在與德國母公司的老闆通電話。
在電話中,詐騙犯要求這位CEO立即將22萬歐元轉到匈牙利一家供應商的銀行賬户,以避免繳納“滯納金”,並將轉賬信息以郵件形式發送。
這位高管毫不猶豫地照做了,最終,這22萬歐元一去不復返……
據悉,騙子一共打了三次電話。第二通電話是在22萬歐元匯出後,對方打電話告訴這位高管,母公司會轉移資金償還英國公司的費用。當天晚些時候,這位高管接到第三通電話,對方故技重施冒充德國老闆要求第二次付款時,他才意識到不對勁。
由於對方承諾的轉賬償還資金並沒有收到,且這次的電話號碼顯示來自奧地利,出於懷疑,這位高管沒有支付第二筆款項,而是直接致電德國老闆本人,結果發現自己被騙。
此案被認為是全球首例涉及人工智能的詐騙案。
上述這位CEO後來回憶説,“大老闆”的德國口音非常逼真,他覺得自己別無選擇,只能服從。
據《每日郵報》報道,這種AI語音模仿技術的工作原理是將一個人的聲音分解成音節或聲音,然後再進行重新排列,再形成新的句子。
這種AI合成音頻以及AI合成視頻,即“深度偽造(deepfakes)技術”,根據這種深度偽造技術,曾製作出美國前總統奧巴馬的視頻,極其逼真,央視對此也做過報道。
國內的騙子也不甘落後,利用AI技術的案例也已經出現。
2019年11月9日,寧波市寧海警方接到吳某報警,此前一天上午,吳某接到一個陌生電話,電話裏是一個女性的聲音,自稱是360貸款的工作人員,問吳某需不需要辦理貸款業務。
隨後,電話裏的“女子”引導吳某添加360貸款業務經理“小劉“的。加後,“小劉”簡單問了吳某的個人情況,便稱吳某可以低息辦理額度5萬的貸款,但需要交納5%的手續費。吳某信以為真,湊齊5000元匯過去。隨後,“小劉”又讓他再付30%的保證金,吳某這才意識到不妙,要求拿回之前的5000元,卻已被對方拉黑。
吳某報警時説,他第一次接到那個“女子”的電話時,感覺聲音怪怪的,不像是真人的聲音。
寧海警方通過調查,同年12月15日,在武漢某大學城附近的居民樓內抓獲了鄧某等5名犯罪嫌疑人。
民警找到吳某説的那個“女子”,果真如吳某所感覺的那樣,這個“女子”不是真人,而是由犯罪分子通過人工智能技術編寫合成的機器人程序。
鄧某等人交代,他們在大學時學的是電子計算機等相關專業知識,對人工智能等前沿技術有所瞭解,也都有曾在大型科技公司工作的經歷。鄧某等人與藏身境外的詐騙分子合作,運用人工智能技術開發能夠自動撥打電話、自動引導受害人添加詐騙分子的機器人程序,並從詐騙分子處收取佣金,短短兩個月,獲利300多萬元。
辦案民警介紹,鄧某開發的這套程序可以同時向全國各地碼撥號,以極其接近真人的聲音,自動與接電話的人對話交流。只需將詐騙台詞提前編程輸入,並按照尋常問答邏輯設置一些問答策略,機器人程序就可以照着劇本,自動引導對方添加詐騙分子的,進而一步步實施詐騙。
此案中,全國受害人多達3600多人。
AI詐騙,都有哪些手段呢?
第一種:轉發語音
騙子在盜取號後,向該號的好友提出轉賬要求。為取得信任,騙子會轉發之前的語音,進而獲得錢款。雖然目前語音是不能轉發的,但騙子可以通過提取語音文件或安裝插件,實現語音轉發。
第二種:聲音合成
騙子通過騷擾電話等方式,錄音提取某人的聲音,並對素材進行合成,用偽造的聲音實施詐騙,英國高管遇到的屬這種。
第三種:AI換臉
視頻通話的可信度明顯高於語音和電話,但利用AI換臉,騙子可以偽裝成任何人。
第四種:通過AI技術篩選受騙人羣
通過分析公眾發佈在網上的各類信息,騙子會根據所要實施的騙術對人羣進行篩選,從而選出目標人羣。
如實施情感詐騙時,可以篩選出經常發佈感情信息的人羣;實施金融詐騙時,可以篩選出經常蒐集投資信息的人羣。
我們該怎麼防範呢?
來源:全民反詐
責任編輯:月亮
作者/來源:首都網警
聲明:版權歸原創所有,轉載此文是出於傳遞更多信息之目的。若有來源標註錯誤或侵犯了您的合法權益,請與本網聯繫,我們將及時更正、刪除,謝謝。