近期,一系列事件引發了公眾對於人臉識別技術濫用的廣泛關注。隨着人工智能技術不斷髮展,人臉識別大規模地應用於安防、支付等日常生活場景中,但這項改變生活的技術當前卻處於爭議中。就此,新京智庫組織舉辦“人臉識別不能被濫用”專題研討會,邀請多位法律學者與專業人士進行深入的探討。
新京智庫:人臉識別被濫用的現象也側面反映了科技倫理問題,目前有哪些手段可以緩解技術與風險之間的張力?未來新技術的出現應如何建立相應的倫理,並重獲公眾的信任呢?
討論人臉識別技術倫理的三個前提
段偉文:討論人臉識別技術倫理、規範的建立,首先要考慮三個層面的問題。第一,人臉識別技術本身存在侷限性和由易獲得性造成的濫用風險。只要不是百分百精準,就意味着技術本身存在風險;同時,人臉識別技術也是非常容易獲得的,但技術水準參差不齊,人臉識別技術因門檻低易濫用而具有很大的風險性。
第二,對於個人信息的保護和數據治理,公共部門既是數據治理的監管者,又是數據的應用者。雖然政府在很多領域具有更強的權威性,推廣起來更高效,但公共使用的邊界是什麼,技術治理的公共倫理又是什麼?
第三,從技術的長遠發展來講,其應用怎樣才能普惠公眾?這可能需要訂立新型社會契約。沒有契約,任何企業、任何人、任何地方只要存在可能就能夠部署人臉識別技術,採集的數據還能夠作為其他用途,這其中的風險非常大。
考慮這三點後,我們可以從三方面着手。一是相關技術的部署方和相關企業的利益相關方、受益人的責任,並且這種責任是要面向不確定性的開放後果的責任,要通過哲學上、倫理上的考量,一定程度上體現在法律裏面。
二是要通過設計來保護一般使用對象、被監測對象的權利。比如對人臉數據的加密技術或者遮蔽技術。
現在,人臉識別技術已經開始打破皮膚表面和表面下的環節,通過熱敏識別,在戴口罩的情況下也可以進行人臉識別,這意味着在技術上已經能夠越過體表識別體內的血液循環,包括靜脈曲張甚至甲亢都有可能識別。因此,需要加入相關的加密技術來保密數據;如果沒有,又沒有相關的法律和倫理規範,技術就不能“跑”這麼快。
第三,我們不要忘記非技術性解決方案。在依靠大量技術手段時,同時要看到更多的人,包括老年人、少年兒童等需要特殊保護和關照的羣體,應該提供一些技術手段之外的非技術手段來滿足這些人的需要。
約束新技術需要一套新社會規制體系
薛軍:高新技術的使用很受關注,需要一些社會規制,包括通過制定標準、法律法規、行業守則等。規制的體系可以很豐富而且多元化。不能把法律當作唯一能夠發揮作用的角色,還需要通過更多靈活、多元化的機制。這是因為技術本身發展很快,法律很難及時制定與修改。
所以,我們一定要發展出適應高科技時代的新社會規制體系。技術準則、安全評估準則或者技術規範等,都是很有效的規制手段,都能夠發揮一定的作用。具體到人臉識別技術,目前雖然有一些規制手段,但是還是欠缺。
比如小區能否使用人臉識別技術,至少得有一個相對比較權威的指導性技術準則來説明,在什麼情況下,有技術保障能力、具備防範風險要求的時候可以使用,而其他情況則不能使用。如果有這樣的科技準則就可以獲得很好的指導,並且標準可以隨着時間的演變不斷髮展。
同時,技術問題可能還是要回歸到技術層面解決。比如像虛擬號碼技術以及條碼化就解決了網約車、快遞件上個人信息泄露的風險;比如在進行算法模型訓練時,模型動而數據不動等方式,也有利於確保不產生數據合併、轉移等風險。
朱巍:對相關技術進行立法,並不是拖了技術、社會發展的後腿,而是為了維持社會更好的平衡。不能因為人臉識別技術提供了更高的效率,就把效率當作新的正義觀。
效率任何時候都不可能成為正義觀,除非有一定的背景制度。這個背景制度就是我們今天討論的,人臉識別技術需要一定的約束。只有在具備約束的背景下,技術產生的效率,才能被認為符合正義觀。
現在很多企業強調科技向善、強調算法倫理等問題,不是在拉效率的後腿,而是要讓整個社會的福祉和個體權益的正義回到很高的位置上。人永遠都是目的,而不是手段。
新京報記者 鄭偉彬 校對:楊許麗