楠木軒

被動“同意”不能真實反映個人自主意願

由 聊素麗 發佈於 經典

近期,一系列事件引發了公眾對於人臉識別技術濫用的廣泛關注。隨着人工智能技術不斷髮展,人臉識別大規模地應用於安防、支付等日常生活場景中,但這項改變生活的技術當前卻處於爭議中。就此,新京智庫組織舉辦“人臉識別不能被濫用”專題研討會,邀請多位法律學者與專業人士進行深入的探討。

新京智庫:《個人信息保護法(草案)》第13條中首次明確了個人信息處理的6項依據。如何才能真正確保對個人信息的處理合理合法?

需進一步把人臉數據當做特殊類型信息

段偉文:目前普通人的權利意識並不是那麼強,在這樣的信息素養環境下,把個人信息權利或個人數據權利當成“絕對”的權利,體現出一定的逆向制衡的智慧。

對人臉、虹膜、步態等信息的採集和使用實際上都走在了立法的前面。但與之對應的現實卻是缺乏有效保護個人信息權利的機制,個人往往也沒有維護自己信息權利的意識和能力。

而且,人臉數據在採集之後完全可以用於其他目的,比如説做情感分析、心理評估等。這就導致了新的信息和認知的不對稱。所以,人臉識別數據是一種具有開放性社會法律倫理影響的敏感的個人信息,在一定程度上賦予個人對其人臉數據的“絕對權利”,有利於應對未來可能爆發的更大的社會法律倫理風險。

但我覺得,還是要更進一步,在認知上把人臉數據當做特殊類型的信息。這就需要更多的研究,並且在概念上有所創新,這些概念可以是對經驗的提煉或由場景觸發,運用它們可以更好地揭示人臉數據的法律與倫理內涵,促進人們對人臉數據濫用的法律與倫理風險的認知。也就是説,人臉識別的法律規制與倫理治理需要更多具有創造性的實踐智慧。

同意只是入口,要重視強制性規則設置

薛軍:《民法典》規定個人信息是可以基於個人信息主體的同意,授權他人進行處理。這個原則沒有問題。除此之外,在其他情況下合理、合法地處理他人的個人信息,必須明確列舉事由,並且範圍要明確,不能開太大口子。

現在比較大的問題在於“個人的同意”。一是“同意”可能淪為一種純粹的形式,二是“同意”可能帶有某種被迫,不是自由、真實地反映個人自主意思的“同意”。所以,怎麼確保“同意”機制不淪為形式,這值得關注。

我曾經與歐盟國家的數據保護專員討論過這一問題,發現他們也面臨同樣的困惑。雖然“同意”規則可以規定得比較細緻,但是企業在獲得用户的同意方面,可以很容易地做到形式上的合規。而如果用户需要利用企業提供的服務,其實就只能同意,否則就沒有辦法獲得服務。

我可以很明確地説,未來能夠真正發揮作用的,是對於正當、合理、必要收集個人信息之類的帶有強制性的規則。“同意”只是一個入口,不一定能夠真正發揮把關的作用。我認為未來的個人信息保護體制應該是以行政為主導的。因為個體太分散,維權意識和能力都比較弱,即使被侵害個人信息權益,也很難證明侵害者以及實際的損失,所以還是要高度重視相關法規中帶有強制性特徵規則的設置是否合適、充分。

個人隱私權多數時候無需讓渡

劉興亮:個人隱私權,包括肖像權,是我們每個人“絕對”的權利。當然,這種權利在某些時候要做一定的讓渡,比如在面對突發公共衞生事件時,會有一些措施需要個人做出讓步,像疫情期間的健康碼就是一種案例。

一些企業和機構可能認為人們應該是不在乎自己的隱私權,或者會為了某些便利而放棄隱私權。這是不對的。個人隱私權一定是在極少數的情況下才做出讓渡。

朱巍:技術的發展不能犧牲個人的權利。“同意”有主動同意和被動同意兩種。《個人信息保護法(草案)》規定的敏感信息處理的“同意”原則是主動同意。被動同意則包括一攬子協議,比如企業彈出的“同意”事項。通常,用户都沒有仔細看,全部點同意。其實,很多隱私條款是需要單獨同意的。

而且,互聯網技術不斷迭代,在迭代過程中會更改網民協議和隱私條款,但並不會覆蓋此前的協議。這意味着,這些應用或平台在迭代技術,甚至變更服務的同時,卻不縮減索權,導致它們的索權範圍非常大,有些甚至已經跟現在的服務沒有任何關係。

新京報記者:王春蕊 校對:楊許麗

來源:新京報