人臉識別無所不在 如何拯救我們的隱私和良知?
原標題 人臉識別無所不在,如何拯救我們的隱私和良知
來源 界面新聞
作者 史宇航(法學博士,注冊信息安全專業人員(CISP))
一張“課堂行為分析圖片”再次引發了人們在人臉監控和識別技術突飛猛進時代,對隱私保?的疑慮和警惕。近日,南京一高校試水教室人臉識別技術,網絡上流傳的一張照片顯示,側田身高在連續十幾小時攝像頭監控下,學生發呆,趴桌子,玩手機,聽講,閱讀甚至出現厭惡表情的次數都被一一記錄了下來。
對此,開發該系統的曠視科技發布聲明稱,該圖片只是為技術場景化概念演示。但據媒體報道,實際上類似的項目已經進駐校園。在人臉識別技術大行其道的當下,我們面臨著什么樣的隱私難題?出路又在哪?
一,突飛猛進的人臉識別
人臉識別信息通常?被直接用于身份鑒別,能夠取代用戶名,密碼的組合來驗證身份,因此面部特征被廣泛運用于核驗身份。?場,火車站開始越來越多地部署人臉識別閘機,很多時候不用刷身份證,刷臉即可完成檢票,手機刷臉即可完成解鎖,支付。銀行開戶時需要在攝像頭前“眨巴”眼睛以確認是本人操作。一些手機游戲也開始啟用人臉識別驗證的功能,作為保?未成年人健康上網的舉措。根據網絡游戲管理的相關規定,對未成年人玩游戲的時間需要進行限制,傳統上是通過輸入身份證號碼的方式驗證年齡,但越來越多的未成年人使用家長的身份證來繞開這一限制,這也就需要網絡游戲企業去核驗真正玩游戲的人的身份。比如《王者榮耀》會將用戶真實面部信息與公安數據平臺數據源進行比對,并按用戶實際年齡段匹配相應的游戲時限。如比對結果不符或用戶拒絕驗證,健康系統將統一將其視作12周歲及以下未成年人,納入相應的防沉迷監管。
人臉識別技術不僅適用于用戶主動配合的核驗場景,也被用于被動識別的場景。比如很多地方都在路口部署了攝像頭以識別闖紅燈的行人,并在旁邊樹立顯示屏實時顯示闖紅燈行人的姓名,身份證號等信息。在商業領域亦然,廣告屏收集用戶的面部表情的技術已經出現并且投入運用,實時分析用戶對播放廣告所反映出的喜怒哀樂。
二,面對人臉識別技術,我們既不知情,也沒法不同意
面部特征最大的特點是收集便捷,只要通過攝像頭即可實現,而其他生物識別信息如基因,虹膜,指紋均需要專門設備才可收集,識別,因此人臉面部特征有著更為廣闊的運用前景,隨之而來的是更高的法律風險。
在我國正在制定的“民法典人格權編”草案二審稿中,就將面部特征等個人生物識別信息納入個人信息的范疇。除此以外,面部特征還涉及肖像權的保?問題,是傳統法律關系與新興法律關系的碰撞與融合。圍繞面部特征等個人信息的收集,利用,各國法律大多是以用戶的“知情-同意”作為合法的基礎。雖然所有人都認為個人對數據的權利無可厚非,但如何去保?這樣的權利卻難以落實。幾乎所有人都要飽受數據泄露之苦,也幾乎所有企業都會因為法律為數據保?設定的“過高”要求叫苦不迭,認為增加了合規成本。
在“知情-同意”的背后,是用戶對廠商的授權,授權廠商根據用戶“同意”的內容收集,使用個人信息。但這樣的同意機制導致了各方對于數據保?問題的絕望。一方面“同意”形同虛設,少有用戶會去關注自己到底點擊同意了什么,另外一方面,在一些場景下,獲得“同意”幾乎是不可能完成的任務。比如公共場合使用人臉識別技術對人臉影像進行商業性的收集,分析,幾乎沒有獲取用戶同意的可能。而在更多情況下,用戶所面臨的是如果拒絕提供個人信息,廠商會拒絕提供服務。
“知情-同意”的窘境是用戶個人在很多時候既不知情,也沒法不同意。在數據利用的法律關系下,廠商草擬的“隱私政策”“用戶協議”是核心的文件,廠商通過“隱私政策”“用戶協議”向用戶告知數據利用的范圍與方式,用戶點擊同意。但問題在于這樣一份重要的協議幾乎無人閱讀,而“隱私政策”“用戶協議”本身也都佶屈聱牙,難以理解。況且,對用戶來說讀與不讀又有何差異呢?因此,各國的“隱私政策”與“用戶協議”都更像是一份為了應付監管,而非構建與用戶之間法律關系的文件。
當我們點擊“同意”后,我們并不知道我們的面部數據會被用于何處,在社交網站的自拍與其他照片是否會被用于訓練機器進行深度學習。據報道,科技公司公司從照片分享網站 Flickr 收集了至少一百萬張照片來訓練人臉識別系統。這些照片采用了知識共享協議授權,將這些照片用于訓練AI并沒有違反協議。
面臨人臉識別技術的風險,美國已經有多個城市制定了與人臉識別數據相關的法案,禁止人臉識別技術的使用。英國警方因為使用人臉識別技術,被認為侵犯了隱私而被告上法庭。這也是英國首宗因人臉識別技術而起的法律訴訟。加拿大隱私專員辦公室(OPC)已在調查商場使用面部識別技術的合法性問題。2019年8月,瑞典數據保?機構對瑞典一所中學因違反通用數據保?條例(GDPR)而判處2萬歐元罰款。中學工作人員在一個教室里面安裝了一部人臉識別相機作為實驗,以檢測采用此種方式登記學生考勤是否更為迅速,該實驗共涉及22名學生。瑞典數據保?機構認為中學征得的同意不是“自由作出的”,并且不符合最小必要性原則。
三,反人臉識別:技術+法律要雙管齊下
對面部特征等個人信息保?的現狀是由各種因素所形成的合力所決定的,其中最重要的一股力量是技術。法律框架需要建立在技術基礎上,無法憑空設立。之所以廠商在數據保?中占有主導地位,無論是面對監管或者用戶都有著壓倒性的優勢,是因為數據為廠商所控制,法律,個人與監管部門很難跨越廠商,實現對數據的控制。因此,將個人信息的保?嵌入廠商的產品與服務中,將法律與工程結合,會是最為必要的措施之一。對于人臉識別技術,在一些不必要收集個人信息的場合,可以考慮部署相應的“反人臉識別”技術,通過算法自動模糊人臉特征,比如在地圖街景中被廣泛運用的人臉模糊技術。這樣的技術方案不僅可以有效保?用戶隱私,也能夠降低企業的合規壓力。
隱私設計(privacy by design)的理念最早由加拿大渥太華省信息與隱私委員會前主席安卡沃基安(Ann Cavoukian)提出,包括如下基本原則:(1)積極預防,而非被動救濟,(2)隱私默認保?,(3)將隱私嵌入設計之中,(4)功能完整——正和而非零和,(5)全生命周期的保?,(6)可見性和透明性,(7)尊重用戶隱私。歐洲聯盟網絡和信息安全局在2014年12月發布的《通過設計保?隱私與數據 - 從政策到工程》報告中,強調了隱私加強技術使用的重要性,隱私加強技術通常包括加密,匿名化等技術措施。在我國,全國信息安全標準化技術委員會也在2019年8月就《個人信息安全工程指南》征求意見,為產品的隱私設計提供指引。2019年8月,支付寶發布了《生物識別用戶隱私與安全保?倡議》,呼吁從事該行業的科技企業加入進來,保?用戶生物識別信息。
“聯邦學習”(Federated Learning,也翻譯為“聯盟學習”)技術看起來也是一項頗為有助于數據保?的技術。聯邦學習是一種新的機器學習模型,簡而言之,是在數據在不離開用戶設備的情況下完成機器學習,即無需將數據上傳至廠商服務器,在用戶終端完成對算法的訓練,僅需要將訓練完成后的結果上傳至服務器。聯邦學習將原本中心化的訓練過程分散于各個終端,因為數據未離開用戶設備,訓練結果也無法還原出原始數據,在這樣的情況下用戶自然對數據具有更多的掌控,看起來是一個兩全之策。目前,Google的輸入法正在使用聯合學習來改進預測類型以及數千萬設備的表情符號預測。聯邦學習就像是《火影忍者》里面的“影分身之術”,分身會將學習的經驗返回給實體,而風險卻被減低,當然需要廠商有足夠的“查克拉”(技術能力)才有可能部署合適的技術保?用戶隱私。
用戶也開始警惕人臉識別技術的濫用,規避通過面部特征收集個人信息的“反人臉識別”技術也開始涌現。比如“腦門貼紙”——穿戴繪制特定圖案的眼鏡,帽子,側田身高衣服能夠有效干擾機器視覺,避免算法對人的識別,更談不上人臉識別技術的運用。
當我們在享受人工智能,人臉識別技術的巨大便利的同時,也不得不關注其背后的數據流動與法律關系。如果說普通人難以穿越迷霧,理解產品背后的玄機,那么律師,信息安全人員,設計師就應該承擔更多的義務,對數據背后的法律文件,數據流,收集方式予以更多的關注。





