使用AI要防止“數據裸奔” 安全市場2023年將達400億
使用AI也要防止“數據裸奔” 中國數據安全市場2023年將達400億元
金葉子
在1982年上映的電影《銀翼殺手》中,2019年的人類已經掌握了人工智能(AI)以及復制人的技術,那些敏捷干練的復制人常被用于各種高危工作中。
盡管電影呈現的是虛構的世界,但現實中的2019年,AI技術確實也已開始頻繁地應用在醫療健康,智能制造,教育等多個領域。
新興技術的發展往往是一把“雙刃劍”,在AI驅動社會各領域發展的同時,作為AI技術的關鍵因素——數據也成為重點保?對象。
歐洲市場研究和咨詢服務公司kbvresearch曾發布預測報告指出,數據安全市場將以每年18%的復合增長率發展,估計2023年將達到209億美元,若以在2023年達到全球20%的GDP來估算,中國市場規模將達到約400億元人民幣,未來人工智能在數據安全治理領域仍存在很大應用潛力。
硬幣的兩面
數字經濟時代,海量的數據不僅能助力以深度學習為代表的AI算法的設計與優化,更能顯著提升數據收集管理能力和數據挖掘利用水平。
上海電氣風電iwind數據中心內,大屏幕上實時顯示全國5500多臺風機的情況,這些顏色不一的風機有不同的含義。
上海電氣集團數字科技有限公司總經理程艷對記者介紹,不同的顏色代表每臺風機的發電性能健康值,綠色是正常運行,黃色表示處于報警狀態,白色則是還沒上傳最新健康數據。有了這些實時數據,他們就不用像以前一樣用人工來完成每半年或一年一次的檢修了。
“臺風天這些風機也會進行自我預判,根據臺風路徑提前幾小時停止運轉避免損傷。”該數據中心的技術人員告訴記者。
大數據分析和AI技術的運用不僅僅只出現在工業領域。從帶有虹膜識別的安防攝像頭,到裝載有Autopilot(自動輔助駕駛)的自動駕駛汽車,AI技術的運用已經像水和電一樣開始滲透至經濟社會發展的各個方面。
這些AI運用的基礎,除了底層算法的搭建,更重要的還是數據的運用。但技術運用的不確定性也會產生連帶的隱患。
2018年曝光的“Facebook數據泄露”事件中,美國劍橋分析公司利用廣告定向,youtobe官網行為分析等智能算法,推送虛假廣告,去年8月,騰訊安全團隊發現亞馬遜智能音箱后門,可實現遠程竊聽并錄音……
中國信息通信研究院近日發布的《人工智能數據安全白皮書》(下稱“白皮書”)也顯示,人工智能應用可導致個人數據過度采集,加劇隱私泄露風險。隨著各類智能設備(如智能手環,智能音箱)和智能系統(如生物特征識別系統,智能醫療系統)的應用普及,人工智能設備和系統對個人信息采集更加直接與全面。
相較于互聯網對用戶上網習慣,消費記錄等信息采集,人工智能應用可采集用戶人臉,指紋,聲紋,虹膜,心跳,基因等具有強個人屬性的生物特征信息。這些信息具有唯一性和不變性,一旦被泄露或者濫用會對公民權益造成嚴重影響。
“在數據安全方面,像上海電氣這種自建內網,而且主要是B2B的企業就比較好。一個企業或者個人若沒有防護體系就接入終端,很容易出現安全問題。”中國信通院華東分院首席規劃師賀仁龍告訴記者,AI技術在企業的應用中,涉及設備安全,數據安全,控制安全,網絡安全,應用安全五大方面,其中核心是數據安全。而這一方面,醫療領域是高危,例如醫療設備因沒有經過多番測試導致病人資料泄露。而且造成這類問題,一定程度上是因為缺乏信息化的專業人才進行防控。
電子科技大學教授周濤也持同樣看法。他在近日接受第一財經記者專訪時表示,在AI時代,醫療行業不像防備嚴格的金融行業,數據外泄是一個非常嚴重的問題。“所以我們可以嘗試把病人的數據進行預脫敏。畢竟名字,電話這種數據和病例沒有直接關系,所以對患者的郵箱,電話,家庭住址等信息進行脫敏,也能減少隱私泄露問題。”
完善人工智能治理
隨著世界主要國家把發展AI作為提升國家競爭力,維護國家安全的重大戰略,涵蓋技術產業和治理的多項規劃政策也都陸續出臺。
上海市科學學研究所科技發展研究中心主任王迎春認為,當前全球的AI競爭從兩個維度上展開,一是搶占技術和產業制高點,二是爭奪AI治理規則的制定權。“AI正在對經濟發展,社會進步,國際政治經濟格局等方面產生重大而深遠的影響。需要我們加強AI同社會治理的結合,加強AI發展的潛在風險研判和防范,加強相關法律,倫理,社會問題研究,建立健全保障AI健康發展的法律法規,制度體系,倫理道德。”
今年2月,美國總統特朗普簽署《美國人工智能倡議》,指出在資源調配上,聯邦政府的數據,算法和計算機處理資源將更多向美國人工智能研發人員和企業開放,并提出加強對數據安全問題的應對。此后的6月,美國發布新版《國家人工智能研究和發展戰略計劃》,要求所有機構負責人審查各自聯邦數據和模型,注重保?數據安全,隱私和機密性。
去年12月,為落實《歐盟人工智能戰略》,歐盟發布《人工智能協調計劃》。按照計劃,“人工智能歐洲造”有兩大關鍵原則:一是“設計倫理”,即人工智能在設計進程之初就必須在《通用數據保?條例》基礎上,遵守倫理和道德法律原則,競爭法等,二是“設計安全”,即人工智能在設計之初必須考慮保?網絡安全和有利于相關執法活動的便利化。
同樣的,我國在高度重視數據收集以及建設發展的同時,也在推進AI的安全應用,防范AI數據風險。《新一代人工智能發展規劃》,《促進新一代人工智能產業發展三年行動計劃(2018-2020年)》等,都從數據開放和數據風險防范提出了多項規劃。
尤其是近兩年,不管是國家層面還是行業層面都動作頻頻。
2018年9月,《人工智能安全發展上海倡議》在世界人工智能大會期間發布。倡議提出,人工智能發展需要保障用戶的數據安全,不得以犧牲用戶隱私為代價,需要加強數據保?立法,豐富人工智能的技術路線,不斷強化人工智能應用中的用戶隱私保?。
今年6月,國家新一代人工智能治理專業委員會發布《新一代人工智能治理原則——發展負責任的人工智能》,提出了人工智能治理的框架和行動指南,明確提出了和諧友好,公平公正,包容共享,尊重隱私,安全可控,共擔責任,開放協作,敏捷治理等八項原則。百度,阿里,騰訊,曠視科技等企業也在推動倫理準則,技術防護上有一些具體的舉措。
周濤告訴記者,人工智能治理專業委員會的建立表明我國已經開始認真思考這些問題,也是非常負責任的做法。“此前關于數據,AI倫理等事件沒有明確的規定,處于一個自發的狀態,通過這個委員則會一步完善。”
不過,白皮書指出,youtobe官網相比一些先進國家較早重視人工智能數據安全倫理原則,我國相關倫理原則大多為近期發布,加之長期以來社會公眾對個人數據保?的意識觀念和重視程度存在較大差異,導致人工智能數據安全倫理的社會影響力受限。
另外,我國目前尚未形成體系完善的人工智能數據安全法律法規,并且數據安全和個人信息保?立法相對滯后,亟須針對當前新技術和新業態發展,加速完成數據安全和個人信息保?的頂層立法,為人工智能健康發展提供法律支撐。
王迎春也曾撰文表示,中國應堅持技術,產業和規則齊步走,建立更加具有彈性空間的動態治理機制,積極在促進創新和社會有序演進方面實現動態平衡,既要呵護促進創新又要防范系統性風險,為人工智能健康發展提供保障。要努力形成一套務實管用,行之有效的方法,對創新高度包容,同時對可能出現的風險高度警惕,針對出現的問題加強多部門的協同治理。





