新一代人工智能正在全球范圍內(nèi)蓬勃興起,為經(jīng)濟社會發(fā)展注入新動能,但人工智能技術(shù)如果運用不當(dāng),也會給公共安全、道德倫理、社會治理等帶來威脅。近年來,加大力度防控人工智能安全風(fēng)險已成為全球共識,我國在大力發(fā)展人工智能發(fā)展的同時,也需要關(guān)注內(nèi)容安全,加強風(fēng)險防控。

9月5日,人民中科董事長,中國科學(xué)院自動化研究所模式識別國家重點實驗室研究員,知名青年AI專家李兵受邀接受CCTV10專訪。

李兵認(rèn)為“人工智能技術(shù)的快速發(fā)展,在一定程度上為網(wǎng)絡(luò)安全的發(fā)展提供了很大的支撐,同時也是一把雙刃劍,也會對網(wǎng)絡(luò)安全帶來新的隱患。”

01

人工智能發(fā)展帶來一定安全風(fēng)險

人工智能技術(shù)存在算法黑箱、技術(shù)濫用、侵犯隱私等安全問題,隨著人工智能與實體經(jīng)濟深度融合,這些風(fēng)險將會進一步疊加放大,給公共安全、道德倫理、社會治理等帶來挑戰(zhàn)。

技術(shù)內(nèi)生風(fēng)險。

深度學(xué)習(xí)作為運用最為廣泛的人工智能技術(shù),存在“算法黑箱”“不可解釋”等缺點,難以對其實施檢測檢查,一旦算法模型中存在漏洞,其產(chǎn)生的安全風(fēng)險問題可能對社會安全產(chǎn)生重大威脅。華盛頓大學(xué)等高校的研究人員在一篇論文中披露,自動駕駛汽車并不能“真正理解”指示牌上的圖案,而是通過一些特征來進行識別,人們只需要在交通標(biāo)志上用貼紙進行相應(yīng)處理,就可以讓系統(tǒng)錯誤地將停車標(biāo)志識別為限速標(biāo)志。

技術(shù)濫用風(fēng)險。

技術(shù)發(fā)展是把雙刃劍,隨著人工智能應(yīng)用日益深入,出現(xiàn)了利用計算機視覺、智能語音等技術(shù)實現(xiàn)“換臉”“換音”的情形,不但侵犯個人隱私,還可能被用于實施詐騙,產(chǎn)生嚴(yán)重后果。2019 年 3 月,《華爾街日報》報道,有犯罪分子使用深度偽造技術(shù)成功模仿了英國某能源公司在德國母公司CEO的聲音,詐騙了220000歐元,造成嚴(yán)重的財產(chǎn)損失。

數(shù)據(jù)隱私風(fēng)險。

人工智能技術(shù)訓(xùn)練需要依靠大量數(shù)據(jù),但當(dāng)前數(shù)據(jù)的獲取、使用的監(jiān)督管理尚不完善,存在隱私泄露、數(shù)據(jù)濫用等風(fēng)險,同時數(shù)據(jù)作為重要資產(chǎn),跨境流動時處理不當(dāng)還可能對國家安全產(chǎn)生威脅。2020年2月,服務(wù)于600多家執(zhí)法機構(gòu)及安保公司的美國人臉識別創(chuàng)業(yè)公司Clearview AI稱其客戶面部信息數(shù)據(jù)庫被盜,據(jù)報道,Clearview AI從網(wǎng)絡(luò)社交媒體上抓取了超過30億張照片,這些數(shù)據(jù)在采集時并未明確獲得用戶的同意。

02

人工智能技術(shù)是把雙刃劍

李兵認(rèn)為“網(wǎng)絡(luò)安全一直是一個永恒的主題,有新的技術(shù)引入就一定會帶來新的安全隱患,隨著人工智能技術(shù)的快速發(fā)展,在一定程度上為網(wǎng)絡(luò)安全的發(fā)展提供了很大的支撐,同時也是一把雙刃劍,也會對網(wǎng)絡(luò)安全帶來新的隱患。比如虛假信息偽造、深度模型本身的安全隱患等。”

作為國內(nèi)資深內(nèi)容安全領(lǐng)域?qū)<?,人民中科?nèi)容安全公司創(chuàng)始人,

目前各城市已在數(shù)字化、智能化的道路上獲益,實現(xiàn)管理效能提升、運營成本降低,為智能城市發(fā)展注入“數(shù)字動力”。當(dāng)前世界上已有2億個攝像頭監(jiān)視著我們的一舉一動,城市中隨時有數(shù)字化攝像設(shè)備,觀察和監(jiān)視著個體的行為,并識別嫌疑人員的相關(guān)行為,并提高了公共空間的安全性,但不利的一面是容易陷入到監(jiān)控視頻的海洋中,尋找準(zhǔn)確的圖像猶如大海撈針。

而面部識別技術(shù)為該問題提供了解決方案,李兵指出,面部識別技術(shù)目前比較主流的是基于深度學(xué)習(xí)、深度神經(jīng)網(wǎng)絡(luò)的方法,該方法是一個端到端的黑盒,只需要關(guān)注輸入大量的訓(xùn)練樣本,輸出相應(yīng)結(jié)果的過程,不需要關(guān)注模型本身,技術(shù)性能相對較好,能將人臉識別的性能大幅度提高,但同時也存在一個缺點,需要大量的大數(shù)據(jù)樣本進行模型訓(xùn)練,同時在訓(xùn)練的過程中需要大量的計算資源,例如GPU、CPU等相應(yīng)的硬件支持。

李兵表示“隨著AI技術(shù)的發(fā)展,AI換臉過程中是保持B人臉部基本特征情況下,將A臉的生物特征進行深度嵌入,視覺是完全沒有辦法視察出來的。人臉合成和人臉交換會帶來巨大的安全隱患,造成人身份信息的混亂及虛假信息的傳播,這是目前面臨的非常大的問題。”

該技術(shù)解決了依賴高清圖像才能識別的問題,但面部識別技術(shù)同樣會遇到一些問題,如通過一些服飾偽裝等手段,系統(tǒng)就無法正常完成人臉識別。如今智能技術(shù)與真實世界的融合效果更加自然,甚至出現(xiàn)了以假亂真的換臉技術(shù),也就是將A人的臉換到B人的臉上,讓人難以分辨真假。

03

強化AI內(nèi)容安全技術(shù)研發(fā)

人民中科作為中國科學(xué)院自動化研究所技術(shù)成果轉(zhuǎn)化平臺,以先進的算法研發(fā)能力和算法優(yōu)化迭代能力為核心點,聚焦于內(nèi)容安全領(lǐng)域的產(chǎn)業(yè)應(yīng)用及產(chǎn)品開發(fā),為內(nèi)容安全產(chǎn)業(yè)提供新方案,構(gòu)建有責(zé)任、有價值的人工智能生態(tài)。

人民中科與中科院自動化所國家模式識別實驗室的研究團隊提出了一種基于身份空間約束的偽造人臉檢測新方法。

不久前,團隊從實際應(yīng)用出發(fā),通過大量的科學(xué)觀察和實驗發(fā)現(xiàn),公眾人物或特定的人物在實際的人臉交換檢測任務(wù)中,他們的身份總是已知的,或者每個人至少有一個真實的面部圖像。既然卷積神經(jīng)網(wǎng)絡(luò)單憑待測圖像進行分類的泛化性能不佳,而參考人臉圖像又包含了相應(yīng)身份人物的先驗信息,這些信息利用起來可為偽造人臉圖像鑒別模型提供重要判定依據(jù)。該思想對實際應(yīng)用較為簡單、合理,有助于克服泛化問題。

“目前我們在安全領(lǐng)域做了關(guān)于對抗人臉交換,進行人臉鑒偽的AI技術(shù)工作,即對偽造人臉進行鑒別,從而保護公民的個人隱私。目前我們提出了在人的生物特征區(qū)域,在不同尺度上細分地找到對應(yīng)的原始人臉和被交換人臉之間的不兼容點或偽造點,來判斷臉部圖像是否是偽造合成的。”

李兵認(rèn)為

人民中科(濟南)智能技術(shù)有限公司是人民網(wǎng)與中科院自動化所聯(lián)合發(fā)起設(shè)立的“人工智能技術(shù)引擎”和科技成果轉(zhuǎn)化平臺,以內(nèi)容安全為初始應(yīng)用場景,建設(shè)內(nèi)容智能理解核心能力,目標(biāo)是成為全球內(nèi)容科技領(lǐng)導(dǎo)企業(yè)。