隨着科技的進步,“人臉識別”被越來越多的場景採用,解鎖、購物、打卡、門禁、買房……進公園人臉識別,進售樓處被人臉識別,濫用人臉識別侵犯個人隱私是近期的社會熱議話題,也引起社會廣泛焦慮。近日,南京多家售樓處被責令要求拆除現有的人臉識別系統,這在全國尚屬首例。隨即,天津立法杜絕信用信息場景下濫用人臉識別技術。那麼,在人臉識別時代,我們到底要不要説“不”?
在技術商業化過程中 “不作惡”應是企業基本社會責任所在
人工智能技術的蝴蝶效應,正在從科幻討論變為現實爭議。作為AI技術的最典型應用,人臉識別持續成為爭議的風口。
一面是技術的不斷突飛猛進:作為一項前沿技術,人臉識別被用於安防、交通等領域,效果立竿見影,如今已經在支付轉賬、實名登記、解鎖解密等場景中廣泛應用,人們也確實享受着人臉識別技術進步所帶來的便利。
但另一面,越來越多的攝像頭被安裝在各種場景中,關於技術正在被濫用的質疑越來越多:從售樓處到辦公室,當連考勤打卡也需要通過釘釘之類辦公軟件“人臉識別”的時候,在日常生活場景中如何保護我們的臉,如何保護人臉背後的個人信息和隱私安全,已經成為了技術成熟落地過程中所面臨的最大挑戰所在。
由於人臉識別技術在此前屬於新興技術,在其應用初期擁有一定的探索“真空期”也是情有可原。只是,當人臉識別在當下已經足夠成熟到可以低成本快速複製之時,及時的標準制定和立法規制就顯得迫切起來。
好在立法的進程已經在不斷提速。今年1月,中國支付清算協會還制定了《人臉識別線下支付行業自律公約(試行)》。在公約中,中國支付清算協會表示,會員單位應建立人臉信息全生命週期安全管理機制。今年10月,個人信息保護正式立法,旨在規範平台擅自收集用户數據等行為。近日,天津更是公示率先立法禁止人臉識別的濫用,各個地方也在跟進規範人臉識別的法制步伐。
當前,美國多個州市已經頒佈明確禁令,禁止執法部門、政府機構使用人臉識別和監控技術。歐盟在今年年初就在草擬3到5年內禁止在公共場所使用人臉識別技術的計劃。現在,中國也加入了“限制”人臉識別技術應用的隊列。
可以看到的是,強化對個人信息收集的立法監管已經是大勢所趨。但接下來更為重要的問題是,無論是行政監管還是立法約束,畢竟相對於當下即時變幻的市場風雲來説是滯後的。法律的力量,其實已經是社會風險防範的最後一道防火牆;在這道防火牆之前,作為技術應用的第一道把關人,更需要的是企業在技術面前的人本敬畏和對技術的應用邊界保持警醒。
畢竟,技術本身是中立的,如何使用技術才是技術應用風險的主要來源。在數字時代,人臉識別與驗證指紋、簽名等方式相比更加便捷,但人們為這種便捷所付出的代價,不應是隱私泄露和個人權利被侵犯。
因此,在技術商業化過程之中,除了監管為“不可為”劃清紅線,企業也需明確“不應為”的邊界,“不作惡”本應是企業的基本社會責任所在。事實上,對人臉識別的爭議已在全球多國出現,處於風口浪尖的科技巨頭首當其衝。此前,IBM主動放棄人臉識別業務,宣佈將不再提供、開發或研究任何人臉識別和人臉分析軟件;微軟則在去年刪除了其最大的公開人臉識別數據庫。
據此前央視公佈的數據顯示,2010年-2018年,我國人臉識別行業市場規模年均複合增長率達30.7%,預計到2024年市場規模將突破100億元。毫無疑問,這將是一個天量的市場所在。
沸雪(財經評論人)編輯 陳莉 校對 李銘
科技向善,人臉識別面前倫理思考應高於市場利益
技術發展當然是必要的,但也要看方向,要向正確的方向。這就是科技向善的概念,即要從善的角度,從倫理的角度,去思考技術的影響,而不能僅僅出於市場利益。
繼南京責令拆除售樓處人臉識別系統後,天津的禁令首次從地方立法層面,規範了人臉識別技術的使用。對於規範人臉識別技術的發展,意義重大。
實際上,很大程度上來説,人臉識別並不是一個基於安全考量的技術。我們平常用的密碼,比如支付密碼、銀行卡密碼,都是藏在用户的心裏的,不會有被盜取的可能,所以,高安全場景都是採用的字符密碼。
相比之下,人臉不可能被藏起來,明晃晃的顯示在公共場合之中,可以獲取的手段就太多了,甚至在朋友圈、社交網站上都可以搜到。而且,生物信息與之所以敏感,因為它與一般的自設密碼不同,密碼丟失了,可以再設置,但指紋、人臉、虹膜、聲紋等生物信息丟失了,就會永久失去這一信息的私密性、從而失去保密功能。所以,人臉信息更加敏感。
歐盟地區的數據保護法《通用數據保護條例》(“GDPR”)就規定,面部圖像(facial image)構成特殊類型個人數據下的“生物識別數據”,進而相較於一般個人數據受制於更高的保護要求。
由此可見,人臉識別並不是一個基於安全導向的發明,實際上,推動人臉識別技術在市場上普及應用的,不是安全考慮,而更多的是基於方便和防範對象更廣。
在這兩點之上,又衍生出人臉識別技術的市場利益結構。首先,人臉識別的確可以省人工。比如公園、公司打卡、小區門禁,都可以省事、省監管。其次,人臉識別的購買者、實施者是淨獲益的。第三,很多人臉識別項目,購買者與承擔成本者是分離的,這裏面有回扣空間,比如學校、小區的人臉識別項目。
所以,這種並非以安全為首要考慮的技術,由於其利益結構,幾乎必然導向濫用。那麼,反過來説,我們就更應該思考其過猶不及之處。
行政法有六大基本原則,其中之一就是比例原則。所謂行政比例原則,是指行政主體實施行政行為應兼顧行政目標的實現和相對人權益的保護,如為實現行政目標可能對相對人權益造成某種不利影響時,應使這種不利影響限制在儘可能小的範圍和限度內,保持二者處於適度的比例。
簡單的説,就是當有多種可供選擇的手段可以達到目的,應該儘可能採取損害最小、最温和、風險最小的手段,殺雞不能用牛刀。比如小區門禁、公司打卡,用密碼、IC卡可以解決的問題,為什麼要用人臉、指紋這樣的生物信息來解決呢?這明顯不符合比例原則。
中國人崇尚發展,而這個發展的涵義,更多的偏向技術發展速度,但往往忽略了技術所帶來的社會影響,忽略技術發展的方向。技術發展當然是必要的,但也要看方向,要向正確的方向。這就是科技向善的概念,即要從善的角度,從倫理的角度,去思考技術的影響,而不能僅僅出於市場利益。即便對單個企業來説,很難如此全面,但行業、政府機構、社會,需要有“善“的思考。
不久前,在深圳召開的全球人工智能創業者大會上,多家高校及人工智能企業聯合發起了《新一代人工智能行業自律公約》,旨在增強行業整體自律意識,積極推動人工智能行業的職業道德、倫理等方面的發展,以及科技向善的價值追求。相比行業內部的自律,中國社會對這方面思考得實在太少了。
劉遠舉(財經評論人)編輯 陳莉 校對 李銘