“有些嘗試是在設(shè)計(jì)階段就不應(yīng)該去做的,我們不能用‘可能會(huì)影響發(fā)展’的借口去嘗試那些已經(jīng)處于紅線、甚至越過紅線的應(yīng)用和場景。近日,澎湃新聞?dòng)浾邔TL中國科學(xué)院自動(dòng)化所研究員、北京智源人工智能研究院AI倫理中心主任、國家新一代人工智能治理專委會(huì)委員曾毅,就國外某些科技巨頭停止使用人臉識(shí)別技術(shù)、中國公眾對(duì)數(shù)據(jù)隱私的態(tài)度和人工智能治理等話題展開討論。

如何看待放棄人臉識(shí)別技術(shù)?

5月底,非裔美國人弗洛伊德遭美國警察暴力執(zhí)法致死一事后,人臉識(shí)別使用爭議再次引發(fā)討論。美國多家科技公司,包括微軟、IBM和亞馬遜因隱私爭議、算法偏見等問題表示暫停向美國警方提供人臉識(shí)別系統(tǒng)。對(duì)此,曾毅認(rèn)為,技術(shù)公司放棄使用人臉識(shí)別算法并沒有解決問題,而是在回避問題。他推測,如果技術(shù)公司宣布放棄人臉識(shí)別的使用,很可能是找到了其他替代方案,例如改用其他生物特征識(shí)別方法。

“比如公眾對(duì)人臉識(shí)別的意見非常大,技術(shù)公司說‘好,我們放棄人臉識(shí)別’”,“但公眾可能并不知道,虹膜識(shí)別、步態(tài)識(shí)別、聲紋識(shí)別和指紋識(shí)別等其他生物特征幾乎可以達(dá)到人臉識(shí)別的準(zhǔn)確率。而這些當(dāng)中也不乏存在膚色、性別、年齡、種族和國別等偏見的問題。因此簡單的禁止使用某項(xiàng)技術(shù)并沒有解決潛在風(fēng)險(xiǎn),積極負(fù)責(zé)任地解決技術(shù)的倫理風(fēng)險(xiǎn)本身,發(fā)揮技術(shù)的善用才是真正應(yīng)該做的事情”。在他看來,人臉識(shí)別技術(shù)在國家與社會(huì)安全中發(fā)揮了很多積極作用,例如跨年齡人臉識(shí)別可用來打拐。“關(guān)鍵問題是,不應(yīng)該讓人臉識(shí)別系統(tǒng)直接去做決策,比如不能因?yàn)槟w色黑、以及一些特定的其他面部特征,就判斷犯罪的可能性高。”人臉識(shí)別技術(shù)可以用來做決策輔助,但不應(yīng)該在決策中扮演決定性作用。

對(duì)于人工智能算法的偏見問題,他補(bǔ)充解釋道,人工智能基于大量的社會(huì)數(shù)據(jù),數(shù)據(jù)中已經(jīng)表征了社會(huì)偏見,這是一個(gè)不能回避的問題。而技術(shù)開發(fā)者本身也有可能由于自身的偏見,對(duì)系統(tǒng)引入額外偏見。“我們應(yīng)當(dāng)采用人工智能技術(shù)去規(guī)避數(shù)據(jù)當(dāng)中的潛在偏見,更應(yīng)避免技術(shù)設(shè)計(jì)者引入個(gè)人偏見。”

從“漸變碼”看中國公眾對(duì)數(shù)據(jù)隱私的態(tài)度

“說中國公眾對(duì)隱私問題不是特別重視,其實(shí)是一個(gè)誤區(qū),并可能產(chǎn)生誤導(dǎo)。”曾毅認(rèn)為,就公眾對(duì)隱私的重視程度而言,中國和西方國家沒有本質(zhì)差異。他提到,2019年世界經(jīng)濟(jì)論壇就公眾對(duì)政府合理使用人臉識(shí)別系統(tǒng)的態(tài)度進(jìn)行過一次調(diào)研。結(jié)果發(fā)現(xiàn),中國公眾的支持率是83%,美國的支持率是80%,兩者結(jié)果相似。

2020年5月,他所在的北京智源人工智能研究院人工智能倫理與安全研究中心聯(lián)合中國科學(xué)院自動(dòng)化研究所中英人工智能倫理與治理研究中心共同發(fā)布了《人臉識(shí)別與公共衛(wèi)生調(diào)研報(bào)告》,顯示新冠疫情期間,中國公眾沒有放松對(duì)隱私安全的要求。

曾毅尤其關(guān)注到,新冠疫情期間,“杭州漸變色健康碼將上線”的消息在網(wǎng)上引發(fā)討論。他表示中國網(wǎng)民關(guān)于“漸變碼”的倫理和隱私安全討論“非常切中要害”。首先,網(wǎng)民對(duì)“漸變碼”的關(guān)注度很高,很多討論幾千人點(diǎn)贊和回復(fù)。“具體觀點(diǎn)來看,大家當(dāng)時(shí)就談,健康碼是為新冠疫情而做的。如果超越了新冠防控本身,老百姓是不愿意的,這是一個(gè)非常明確的意見。”第二,網(wǎng)友提到,健康碼的設(shè)計(jì)初衷是給別人看的,但每天是否抽煙、喝酒、睡眠時(shí)長甚至走路步數(shù),這些都是個(gè)人的健康數(shù)據(jù),并沒有打算給別人看。他認(rèn)為,公眾的對(duì)于隱私保護(hù)的討論、對(duì)于數(shù)據(jù)流向等概念的理解非常清晰,分析也很深刻。

人工智能治理愿景與技術(shù)落地

2019年5月,國家互聯(lián)網(wǎng)信息辦公室發(fā)布了《數(shù)據(jù)安全管理辦法(征求意見稿)》。同年8月,國家互聯(lián)網(wǎng)信息辦公室又發(fā)布《兒童個(gè)人信息網(wǎng)絡(luò)保護(hù)規(guī)定》,明確任何組織和個(gè)人不得制作、發(fā)布、傳播侵害兒童個(gè)人信息安全的信息。曾毅在采訪中提到,上述兩個(gè)規(guī)定以及新頒布的民法典中,都有關(guān)于數(shù)據(jù)安全保護(hù)的相關(guān)規(guī)定,尤其關(guān)于兒童個(gè)人信息保護(hù)的規(guī)定在全世界走在前列。但無論是歐盟的《通用數(shù)據(jù)保護(hù)條例》或者中國的這些嘗試,都有一些需迫切解決的問題。例如,《通用數(shù)據(jù)保護(hù)條例》中提到數(shù)據(jù)刪除,即用戶授權(quán)同意后改變想法,想把數(shù)據(jù)撤回。《通用數(shù)據(jù)保護(hù)條例》要求允許用戶撤回。

曾毅介紹,盡管很多人工智能企業(yè)表明自己符合這條規(guī)定,但從人工智能模型中刪除數(shù)據(jù)十分困難。目前幾乎沒有一家企業(yè)可以做到在訓(xùn)練好的人工智能模型中,把某個(gè)用戶數(shù)據(jù)的影響從模型中刪除。“規(guī)范的愿景長期來講一定是有益的,但在落地層面還需要學(xué)術(shù)界、企業(yè)界真正從技術(shù)的角度解決倫理與治理的痛點(diǎn),從而取得突破。”

不應(yīng)以發(fā)展為借口越過AI倫理紅線

換臉軟件ZAO在協(xié)議中暗藏霸王條款、教室使用表情識(shí)別技術(shù)、杭州動(dòng)物園“人臉識(shí)別第一案”……2019年發(fā)生了數(shù)起因?yàn)E用人臉識(shí)別相關(guān)技術(shù)或觸碰倫理紅線而引發(fā)爭議的事件。曾毅表示,出現(xiàn)這些現(xiàn)象是因?yàn)槿斯ぶ悄艿睦嫦嚓P(guān)方,例如開發(fā)AI的公司、部署AI的企業(yè)、用戶在數(shù)據(jù)合規(guī)性和用戶隱私保護(hù)方面做得不夠規(guī)范。

在他看來,人工智能產(chǎn)品研發(fā)的過程當(dāng)中,在設(shè)計(jì)、研發(fā)、使用和部署各環(huán)節(jié)都應(yīng)當(dāng)注意數(shù)據(jù)隱私安全和算法潛在倫理隱患等問題。應(yīng)當(dāng)采取策略性的設(shè)計(jì),并使用多相關(guān)方共擔(dān)責(zé)任的框架,以此發(fā)展未來的人工智能。“多相關(guān)方共擔(dān)責(zé)任的框架”是指人工智能算法的提供者和技術(shù)使用者承擔(dān)各自應(yīng)承擔(dān)的責(zé)任。例如新冠疫情期間的健康碼雖然由企業(yè)開發(fā),但數(shù)據(jù)部署和收集工作由各省市的大數(shù)據(jù)中心負(fù)責(zé)。因此,不僅提供相關(guān)技術(shù)的企業(yè)需要注意數(shù)據(jù)安全保護(hù)的問題,維護(hù)數(shù)據(jù)的各個(gè)省市大數(shù)據(jù)中心也需要注意相關(guān)的保護(hù)問題。

曾毅總結(jié)道,作為一種顛覆性的技術(shù),人工智能可以改變世界,它能夠被善用,也有風(fēng)險(xiǎn)被惡用、誤用和濫用。“我們在用技術(shù)改變社會(huì)的嘗試中,應(yīng)當(dāng)盡可能避免誤用、杜絕惡用和濫用。所以,有些嘗試是在設(shè)計(jì)階段就不應(yīng)該去做的。人工智能一定是發(fā)展是主題,但是我們不能用‘可能會(huì)影響發(fā)展’的借口去嘗試那些已經(jīng)處于紅線、甚至越過紅線的應(yīng)用和場景。”

=========================================================================

 

延展閱讀 ~ 關(guān)于曾毅

 

 

曾毅研究領(lǐng)域:

實(shí)現(xiàn)并超越人類水平的智能是人工智能研究的終極目標(biāo)。世界上除了人腦以外,目前沒有任何一個(gè)智能系統(tǒng)能夠高度協(xié)同多模態(tài)感知、決策、推理、預(yù)測、語言、動(dòng)作等認(rèn)知能力,具有高度自適應(yīng)性、自主學(xué)習(xí)能力,甚至是自我意識(shí),并穩(wěn)定工作至少幾十年。因此,研究腦信息處理原理,構(gòu)建類腦智能計(jì)算模型,最終應(yīng)用于人工智能系統(tǒng)研發(fā),是實(shí)現(xiàn)人類水平人工智能,最終超越人類智能的重要途徑。與此同時(shí),我們要充分關(guān)注人工智能風(fēng)險(xiǎn)、安全與倫理,確保類腦人工智能的研究向?qū)θ祟惣吧鐣?huì)有益的方向發(fā)展。

主要研究領(lǐng)域圍繞類腦人工智能研究展開。主要涉及:

(1) 類腦認(rèn)知計(jì)算模型: 類腦脈沖神經(jīng)網(wǎng)絡(luò)、類腦人工神經(jīng)網(wǎng)絡(luò)、類腦自主學(xué)習(xí)理論與算法,并將上述研究成果應(yīng)用于類腦信息處理、類腦智能機(jī)器人的研究中。

(2) 人工智能倫理與治理:研究不同人工智能模型存在的風(fēng)險(xiǎn)、安全、社會(huì)倫理與治理問題,并通過算法落地的形式發(fā)展低風(fēng)險(xiǎn)、高度安全、具有道德與倫理的有益人工智能。