網上曾流行一句話:這是一個看臉的時代。或許有些人沒想到,這句戲言正在慢慢變成現實。“刷臉”簽到、“刷臉”支付、“刷臉”進站……近年來,人臉識別技術正走進更為廣闊的應用場景,讓人們的生活更便利。凡事都有兩面性。從AI視頻監控進課堂到“人臉識別第一案”,再到一男子“帶頭盔看房”引發熱議,人臉識別技術帶來的安全隱患越來越為公眾所關切。
人們對人臉識別的疑惑和擔憂可以理解,畢竟漏洞是現實存在的。人臉、指紋、虹膜等人類生物特徵具有唯一性和不可更改性,這些特徵可以更為準確地確定人的身份,但這些數據是如何儲存的、儲存在哪裏、會如何被使用,很大程度上都是“未知數”。如果這些信息被提取後放到互聯網上,就不可避免地面臨着被複制、偽造、合成和泄露的風險。更為重要的是,普通人對一項項人臉識別應用是否安全,幾乎沒有任何辨別能力。
“帶頭盔看房”一事之所以引起關注,就在於人臉識別技術在應用過程中出現了較為明顯的越界行為,比如無感抓拍。這意味着,在無人臉識別提醒標識、無工作人員告知、無相關人士授權的情況下,攝像頭可以輕鬆抓取人臉信息。像這樣隱性的、不易察覺的使用方式,更讓人感到“細思恐極”:還有哪些隱藏的“探頭”在暗中收集着我們的個人生物信息?未來某天,它是否會變得無孔不入,以至於我們要活在“楚門的世界”裏?
人臉識別技術當然不能被如此使用。針對生物特徵信息採集儲存,我國已在個人信息安全規範等方面做了具體規定。例如,個人生物特徵信息屬於敏感信息,要求個人生物識別信息要與個人身份信息分開存儲;原則上不應存儲原始個人生物識別信息,可採取的措施包括但不限於僅存儲摘要信息。《信息安全技術個人信息安全規範》也要求,收集個人敏感信息時,應取得個人信息主體的明示同意。
如今科技發展一日千里,讓生活日新月異,而由此帶來的風險與挑戰,也應當高度重視。人臉信息的保護顯然不能只依靠“頭盔”,還需要更健全、更具前瞻性的法律制度。從某種角度來説,只有將公眾知情權和選擇權作為隱私權保護的前提,大面積的侵權行為才有可能被避免。具體到“放心刷臉”這個話題,就是要確保人們在使用人臉識別技術的時候是自願的,並且是知道自己的臉正在被識別的。
其實,不只是人臉識別技術,還有不少現代“黑科技”,都存在着科技倫理問題。一些高科技企業出於營利本能,在市場誘惑與科技倫理之間,明顯更傾向於前者,總是試圖快速地將新技術推向應用。技術本身是中性的,究竟用向何處、怎麼使用,完全取決於人。技術的工具價值,只有在正確的人文理性、目標價值引導下,才能發揮出最佳功效,實現“科技向善”。(經濟日報-中國經濟網評論員 子房先生)
經濟日報-中國經濟網評論理論頻道開放投稿,原創評論、理論文章可發至cepl#ce.cn(#改為@)。詳見經濟日報-中國經濟網評論理論頻道徵稿啓事。