王亞慧丨算法自動化決策背景下的女性就業(yè)歧視與規(guī)制|法與自動化科技:重點關注算法領域的法律規(guī)制
【ZiDongHua 之人文化天下收錄關鍵詞:王亞慧 法與自動化 性別平等 以人為本 人工智能 算法自動化決策 算法 智能決策 決策自動化 智能自動化 】
王亞慧丨算法自動化決策背景下的女性就業(yè)歧視與規(guī)制
王亞慧
中國社會科學院大學碩士研究生
要目
一、弱人工智能時代背景下算法歧視的消解
二、我國現(xiàn)行法律體系規(guī)制的不足及比較法參照
三、女性就業(yè)中算法歧視規(guī)制的重點面向
四、反女性就業(yè)歧視良性算法重構
算法自動化決策在就業(yè)領域有著廣闊的應用前景,但算法技術并非中立無偏,而是將偏見和歧視內(nèi)嵌到?jīng)Q策系統(tǒng)當中。以弱人工智能時代存在的算法歧視為背景,通過對我國就業(yè)和算法領域的現(xiàn)行法律體系進行比較法分析后,明確女性就業(yè)中算法歧視規(guī)制應重點關注的社會底層歧視邏輯、大數(shù)據(jù)謊言和算法技術批判。以此為基礎,提出修正社會底層邏輯,釋放女性人口紅利;跨越性別數(shù)據(jù)鴻溝,由大數(shù)據(jù)向高質(zhì)量數(shù)據(jù)轉型;以技術批判理論為指導,全流程深度規(guī)制就業(yè)領域算法性別歧視的建議。
人工智能時代背景下,算法的應用場景日益增多。算法通過對海量的數(shù)據(jù)進行信息挖掘,使用自動化的數(shù)據(jù)驅(qū)動方式作出決策,如開展自動推薦、評價和判斷等。算法和代碼,而非規(guī)則,日益決定各種決策工作的結果。但算法并非中立無偏,而是將偏見和歧視內(nèi)嵌到?jīng)Q策系統(tǒng)當中,以悄無聲息的方式侵蝕著社會公平正義。女性在就業(yè)市場中受到歧視是亙古存在的,但在算法自動化決策背景下,有著歧視難以察覺、難以證明、難以歸責的困境,因此更有規(guī)制的必要。
一、弱人工智能時代背景下算法歧視的消解
規(guī)制人工智能時代的算法歧視,首先需要明確規(guī)制對象及其發(fā)展階段。關于人工智能的興起,應追溯到1950年,艾倫·圖靈在《計算機器與智能》的論文中提出“機器能否思考”的問題,通過用“圖靈測試”回答這一問題來判斷計算機是否具有人類智能。而后在1956年的達特茅斯會議上,麥肯錫等科學家首次提出“人工智能”這一概念,標志著人工智能學科的誕生。人工智能的發(fā)展道路充滿曲折,但隨著大數(shù)據(jù)、云計算、互聯(lián)網(wǎng)、物聯(lián)網(wǎng)等信息技術的蓬勃發(fā)展,人工智能技術也迎來飛速發(fā)展時期,實現(xiàn)了信息感知、機器學習等專用人工智能的單點突破,在某些方面甚至可以超越人類智能,但在概念抽象和推理決策等通用人工智能必需的能力方面還很薄弱。因此,可以說,人工智能總體發(fā)展水平尚處于起步階段。按照“三層級”說,我們還處于從弱人工智能向強人工智能發(fā)展的初級階段,我們對現(xiàn)階段的算法歧視尚可有所作為。有些學者以強人工智能時代的智能意識、難以規(guī)制為由逃避對弱人工智能的治理,將在法律和技術上完善現(xiàn)有規(guī)則僅作為治標之策是不可取的。相反,研究應以當前及在相當時間段內(nèi)世界將處于弱人工智能時代為研究背景,著眼于對人工智能的核心要素之一即算法的認識和規(guī)范,以人工智能的特殊性及其對現(xiàn)有法律理論造成的沖擊作為研究重點。
人工智能算法的運行邏輯對人的行為形成支配關系,對以強調(diào)個人幸福和權力優(yōu)先性為特點的現(xiàn)代倫理帶來巨大挑戰(zhàn)。算法自動化決策看似處于性別中立的地位,但可能嵌入既有的性別偏見,成為隱藏性別歧視的分配手段,并且造成難以察覺的性別歧視后果。一系列被指出存在性別歧視的算法,便給招聘和篩選算法的應用敲響了警鐘:20世紀80年代,倫敦圣喬治醫(yī)學院通過算法篩選學生的入學申請,但以之前的招生數(shù)據(jù)為依據(jù)創(chuàng)建的算法規(guī)則被證明用于對女性和有色人種進行歧視。2018年,亞馬遜的AI招聘工具通過學習近10年來公司的簡歷數(shù)據(jù)來審查應聘者并給求職者打分,在實際應用中被曝存在性別歧視行為,尤其是歧視女性,會對具有“女性”標識的應聘者自動降級打分。2019年8月,蘋果公司推出的信用卡背后的算法也被指存在性別歧視,一對夫妻共同提交納稅申報單,但丈夫的額度卻是妻子的20倍。人工智能憑借其科學、客觀的形象得以在各個領域進行廣泛部署與應用,但其發(fā)展的不確定性卻為歧視數(shù)字化的法律規(guī)制帶來新挑戰(zhàn),歧視的表達形態(tài)、傳播效率和影響規(guī)模都被深刻改變。因此人工智能的歧視效應是未來監(jiān)管者在各領域不得不面對的重要問題,以確保人工智能安全、可靠、可控發(fā)展。
二、我國現(xiàn)行法律體系規(guī)制的不足及比較法參照
弱人工智能時代背景下,女性就業(yè)領域中存在的算法歧視亟待法律規(guī)制且法律也應當有所作為。算法自動化決策背景下的女性就業(yè)歧視關涉到傳統(tǒng)領域的就業(yè)歧視及數(shù)字時代的算法歧視,因此本文將分別闡述法律體系規(guī)制之不足,但將重點關注算法領域的法律規(guī)制。
就業(yè)領域女性歧視規(guī)制
我國關于反性別歧視的立法主要包括憲法、婦女權益保障法、勞動法和工會法。反性別歧視以憲法第33條、第42條、第48條的規(guī)定為統(tǒng)領,實行男女平等、同工同酬。婦女權益保障法第2條重申婦女享有與男子平等的權利,強調(diào)禁止歧視婦女,在第四章專章規(guī)定婦女的勞動和社會權益保障。婦女權益保障法(修訂草案)征求意見稿中強調(diào)保護婦女的就業(yè)平等權,明確列舉了性別歧視的主要情形,增加了實施就業(yè)性別歧視的法律責任,并且建立健全職工的生育休假制度。勞動法第3條規(guī)定勞動者享有的各項勞動權利,如平等就業(yè)權和選擇職業(yè)權等。第12條規(guī)定勞動者就業(yè)不因性別不同而受歧視。第13條規(guī)定婦女享有同男子平等的就業(yè)權利,錄用職工時不得以性別為由拒絕錄用婦女或者提高對婦女的錄用標準。這些條文涉及女性就業(yè)平等保護和禁止基于性別的就業(yè)歧視的內(nèi)容。
上述法律仍未明確“對婦女的歧視”的定義,未明晰直接歧視與間接歧視的區(qū)別規(guī)制。在算法自動化決策背景下,就業(yè)歧視更加難以察覺,傳統(tǒng)的主要針對直接歧視的定義在治理人工智能時代的間接歧視時則顯得捉襟見肘,不利于現(xiàn)實生活中的歧視現(xiàn)象規(guī)制。另外,規(guī)定過于原則化,不利于受害者獲得救濟以及實踐中的操作和執(zhí)行。
反之,平等原則和禁止歧視原則在聯(lián)合國九個核心人權條約中均有規(guī)定,其中消除對婦女一切形式歧視公約重點關注歧視婦女的現(xiàn)象,在公約第1條即明確“對婦女的歧視”的定義,涵蓋直接歧視和間接歧視,并敦促締約國為加速實現(xiàn)男女事實上的平等采取暫行特別措施。第11條要求締約國采取一切適當措施消除在就業(yè)方面對婦女的歧視。國際勞工組織的就業(yè)和職業(yè)歧視公約(第111號公約),第1條也明確規(guī)定了歧視的定義,即具有取消或損害就業(yè)或職業(yè)機會均等或待遇平等作用的任何區(qū)別、排斥或優(yōu)惠,第2條要求會員國承諾宣布并奉行一項國家政策,旨在以適合本國條件和慣例的方法,促進就業(yè)和職業(yè)方面的機會和待遇平等。中國分別于1980年11月和2005年8月批準加入上述兩公約。
從其他國家或區(qū)域立法來看,我們可以知悉國外在反性別歧視的問題上,均將直接歧視和間接歧視明確加以規(guī)定,不僅在“形式”上予以規(guī)范,更注重“結果”意義上的平等。美國有關禁止就業(yè)中的性別歧視最重要的法律屬1964年民權法案,這部法案奠定了女性就業(yè)權平等保護的國家政策,第七章明確規(guī)定了包括性別歧視在內(nèi)的就業(yè)歧視的相關問題,設定了就業(yè)歧視的基本標準。法案要求“采取積極行動保障不同性別的申請者都能夠得到平等對待”,廢止專門針對女性的所謂“保護性”立法,該法案的實施對女性就業(yè)權的實現(xiàn)產(chǎn)生重要影響。英國最重要的反性別歧視法律為1975年通過的性別歧視法,該法案的出臺標志著就業(yè)領域的反性別歧視原則正式得到國家法律確認。法律明確規(guī)定就業(yè)領域的性別歧視行為,禁止基于性別和婚姻狀況的理由實施歧視。對性別工資待遇歧視、性別就業(yè)待遇歧視以及舉證責任、救濟方式都有相應規(guī)定。歐盟涉及反就業(yè)歧視的指令包括《75/ 117》《76/207》《2000/43》《2000/78》《2002/73》,其中最重要的是1976年男女平等待遇指令,但其僅作了原則性的規(guī)定。因此在2002年對該指令進行細化修改,對性別歧視中的直接歧視與間接歧視明確界定,并且規(guī)定了相應的司法救濟程序,有力地保障了平等就業(yè)權在歐盟的實現(xiàn)。
算法領域女性歧視規(guī)制
關于算法領域的性別歧視規(guī)制,我國于2021年通過實施的數(shù)據(jù)安全法、個人信息保護法形成了算法自動化決策規(guī)制的基本框架,如根據(jù)個人信息保護法的相關規(guī)定,處理個人信息應具有明確、合理的目的,遵循最小必要原則,且須征得個人同意。利用個人信息進行自動化決策的,應當保證決策透明和結果公平公正。個人有拒絕自動化決策作出決定的權利。但其規(guī)定較為原則籠統(tǒng),且人力資源管理所必需的個人信息無須經(jīng)過個人同意即可進行處理,因此對算法自動化決策中存在的性別歧視有諸多難以規(guī)制之處。我國于2022年3月施行的《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》主要規(guī)制利用算法推薦技術提供互聯(lián)網(wǎng)信息服務的行為,第三章用戶權益保護規(guī)定算法推薦服務提供者應當告知用戶算法推薦服務情況,公示其基本原理、目的意圖和主要運行機制等,并且要求算法提供不針對個人特征的選項或者允許用戶關閉算法推薦服務。但該規(guī)定的適用領域和規(guī)制的算法類型較為局限,且沒有體現(xiàn)對女性的傾斜保護。
從國外的立法情況來看,美國一向重視隱私權的保護,強調(diào)以倫理教育和隱私法規(guī)防范人工智能風險。2017年12月美國紐約州通過算法問責法案,旨在通過透明度和問責解決算法歧視問題。2022年,聯(lián)邦層面提出2022算法問責法案,要求應用自動化決策的公司測試算法是否存在錯誤數(shù)據(jù)、偏見、安全風險、性能差距和其他問題,每年提交影響評估報告并留檔,以此來促進算法的公平性、問責性和透明度。歐盟則積極推進以人為本的人工智能倫理與治理。一方面,依據(jù)通用數(shù)據(jù)保護條例充分保障個人的信息安全,要求自動化決策提供關于邏輯運行的有意義的信息,解釋自動化決策的重要性和預想的后果;另一方面,依托算法責任與透明治理框架提出將算法透明和責任治理作為解決算法公平問題的工具,分層次建立監(jiān)管機制。歐盟委員會還公布了關于制定人工智能統(tǒng)一規(guī)則的提案,旨在通過治理與監(jiān)管實現(xiàn)可信賴的人工智能。該法案對人工智能實行分類分義務管理,明確企業(yè)在人工智能開發(fā)、運營過程中的強制性義務,制定了包容審慎的技術監(jiān)管措施,對規(guī)制人工智能的潛在風險和不良影響具有深遠意義。此外,電氣和電子工程師協(xié)會(IEEE)發(fā)布旨在推進人工智能和自治系統(tǒng)倫理設計的IEEE全球倡議書,提出通過教育、培訓和授權,確保人工智能系統(tǒng)設計開發(fā)的利益相關方優(yōu)先考慮倫理問題。人工智能的全球治理趨勢已十分顯著,“算法霸權”是各國監(jiān)管者亟須面對的問題,但算法自動化決策中存在的女性歧視問題并未得到重視,尚需各國法律調(diào)整完善,以適應人工智能時代算法歧視規(guī)制的需要。
三、女性就業(yè)中算法歧視規(guī)制的重點面向
規(guī)制算法歧視,尤其是尚未被關注或者說關注度不足的女性就業(yè)中的算法歧視,需要對嵌入算法的女性歧視尋本溯源。人工智能的三大核心要素是數(shù)據(jù)、算法、算力。算法是數(shù)據(jù)驅(qū)動型算法,數(shù)據(jù)是算法的“飼料”,只有經(jīng)過對標注好的數(shù)據(jù)進行大量訓練,覆蓋盡可能多的場景才能得到一個良好的算法模型。大數(shù)據(jù)是社會的一種鏡像,當前社會的既有格局與特征、偏見與結構性不平等會映射到數(shù)據(jù)當中。根據(jù)上述路徑,社會中的性別歧視與偏見會借由數(shù)據(jù)和代碼嵌入算法當中,因此本文將以社會、數(shù)據(jù)、技術的三維視角剖析女性就業(yè)中的算法歧視,換言之,即規(guī)制算法自動化決策中存在的女性就業(yè)歧視時應重點關注的領域。
從社會底層邏輯出發(fā),算法歧視并非源自技術本身或技術創(chuàng)新,而是前沿科學技術賦能傳統(tǒng)社會矛盾的結果。第一,社會性別歧視和偏見的廣泛存在。第二,用人單位的男性化的理想工人規(guī)范。從用人單位的角度來說,理想工作者是從成年早期開始工作沒有任何中斷并獲得完整職業(yè)生涯的員工,這樣才能滿足其追求利潤最大化的目標。第三,職業(yè)性別隔離現(xiàn)象。職業(yè)的性別隔離一詞最早由格羅斯提出,即由于社會系統(tǒng)性因素,不同的性別集中在不同的行業(yè)和職位上,主要表現(xiàn)為大部分女性勞動力集中于一些“女性化”職業(yè),傳統(tǒng)上由男性占主導地位的職業(yè)保持為“男性化”職業(yè),這類職業(yè)具有高技能、高收入、高地位的特征,“女性化”職業(yè)則技術含量低、工資待遇低、社會地位低。從谷歌算法為女性提供相對男性更少的與高薪工作相關的廣告即可見一斑。
從數(shù)據(jù)謊言剖析出發(fā),大數(shù)據(jù)反映著主體的多元行為和人類現(xiàn)實社會,卻也存在著歪曲和異化的風險。一方面,“大數(shù)據(jù)”的數(shù)據(jù)相對于萬物在同一時刻所釋放的所有數(shù)據(jù)來說,其能夠捕捉到的只是微不足道的“微數(shù)據(jù)”和淺層次的“表數(shù)據(jù)”,大多數(shù)大數(shù)據(jù)資源是不完整的。目前應用于算法的神經(jīng)網(wǎng)絡只具備相關性學習能力,沒有因果邏輯推理能力,就導致算法極易受到復雜大數(shù)據(jù)中異質(zhì)性、虛假相關性、偶然內(nèi)生性的影響。因此,由傳統(tǒng)社會結構矛盾導致的“數(shù)字性別鴻溝”,在人工智能時代便會加重女性歧視和數(shù)據(jù)偏見,科技進程排擠女性發(fā)展的現(xiàn)象更為嚴重。另一方面,數(shù)據(jù)是客觀的,但應用數(shù)據(jù)的人卻有主觀意圖?,F(xiàn)階段人工智能算法應用的數(shù)據(jù)須通過數(shù)據(jù)清洗、數(shù)據(jù)標注方能使用,而數(shù)據(jù)清洗、標注工作主要由人工完成。人工對文本、圖像、語音、視頻等原數(shù)據(jù)進行歸類、整理、編輯、糾錯、標注和批注等操作,為機器學習訓練提供可讀數(shù)據(jù)。若標注人員存在單邊的技術性思維,受到忽視價值觀預設、樣本選擇性偏差和認知局限等主觀因素的影響,則會加劇數(shù)據(jù)瓶頸和陷阱的障礙作用,算法及人工智能的發(fā)展也會偏離初衷和正常軌道。
從技術范式糾偏出發(fā),算法技術已成為數(shù)字時代不可忽視的力量,算法的歧視化風險也引致社會憂慮。從上層技術理論來說,技術中立論對科學技術的現(xiàn)狀和發(fā)展前途充滿樂觀主義和自信,崇尚技術統(tǒng)治;技術實體論對技術的發(fā)展則持悲觀態(tài)度,認為技術排斥民主與自由,是一種極權性的社會力量,會贏下昂人的存在與人類文化;技術批判理論對科學技術進行目的批判、過程批判和設計批判,認為技術的發(fā)展能夠走向一條技術民主化的道路。我們應當摒棄技術崇拜和技術恐慌,理性客觀看待技術發(fā)展與進步,以技術批判理論作為人工智能時代的技術哲學指導。從算法開發(fā)來說,算法要經(jīng)過提出問題、數(shù)據(jù)處理、數(shù)據(jù)集建構、模型設計、模型訓練、模型測試等流程才算開發(fā)完成,而這一過程的局限是需要大量人工干預,如人工設定神經(jīng)網(wǎng)絡模型、人工設定應用場景、人工采集和標注大量訓練數(shù)據(jù)。因此,算法開發(fā)過程是算法歧視入侵的主要陣地。從算法應用來說,算法披著“技術性”和“客觀性”的外衣,卻因其高度專業(yè)性、不可解釋性和不透明性導致“算法黑箱”的存在。人工智能的深度學習更加凸顯了“算法黑箱”帶來的技術屏障,程序錯誤和算法歧視在人工智能的深度學習中變得難以識別,法律主體制度、透明度原則和問責機制難以運用。
四、反女性就業(yè)歧視良性算法重構
通過分析女性就業(yè)算法歧視規(guī)制的重點面向,可以知悉算法歧視的治理若只關注算法內(nèi)部結構則收效甚微,根植在其內(nèi)部的社會底層邏輯和數(shù)據(jù)謊言也是應予規(guī)制的重點。比較參考國外相關立法,對我國法律制定和修改具有借鑒意義,本文關注到就業(yè)中存在的算法性別歧視問題,也希望對此提出有效的政策建議。
修正社會底層邏輯,釋放女性人口紅利
首先,借修訂婦女權益保障法之契機,明確“對婦女的歧視”的定義,深化人們對性別歧視的認識,為精準識別某項措施或某個行為是否具有歧視性提供準繩和規(guī)范依據(jù),以期糾正社會性別偏見和性別刻板印象。只有明確將“對婦女的歧視”的定義涵蓋直接歧視和間接歧視,不僅關注“性別”,還要關注其造成的“結果”或負面影響,以此才能在治理人工智能時代的隱性歧視時發(fā)揮應有作用。否則,僅靠現(xiàn)有法律規(guī)定,恐難以規(guī)制人工智能帶來的波及面廣、隱蔽性強的歧視問題。如何理解與界定對婦女的歧視是反性別歧視的核心問題,歧視定義的明確界定可以統(tǒng)領就業(yè)領域的性別歧視治理,有助于法律層面的可操作性和可執(zhí)行性的提升。
其次,糾偏男性化理想工人規(guī)范,肯定和分擔女性承擔的生產(chǎn)責任。馬克思在《德意志意識形態(tài)》中提出了兩種“生活的生產(chǎn)”的概念,包括通過勞動進行的自己生活的生產(chǎn)和通過生育進行的他人生活的生產(chǎn)。恩格斯則進一步將兩種生產(chǎn)解釋為“物質(zhì)資料的生產(chǎn)”和“人自身的生產(chǎn)”,充分肯定了婦女的作用和貢獻。在社會性別和發(fā)展的視角下,緩解女性的工作—家庭沖突不僅是女性的責任,更需要包括政府、社會、企業(yè)界和男女兩性在內(nèi)的多元主體參與和分擔。政府機關應通過立法和政策指引推動構建良性的工人規(guī)范,不以無間斷的職業(yè)生涯為標準;用人單位不能僅將利潤奉為“真理”,也須承擔相應的社會責任。
跨越性別數(shù)據(jù)鴻溝,向高質(zhì)量數(shù)據(jù)轉型
一方面,為避免大數(shù)據(jù)時代女性就業(yè)數(shù)據(jù)的缺失,既要從根源上提升女性地位以增加女性就業(yè)數(shù)據(jù),消除“性別數(shù)據(jù)鴻溝”;也要認識到大數(shù)據(jù)固有的異質(zhì)性、噪聲累積性、虛假相關性和偶然的內(nèi)生性。因此,要將重點從大數(shù)據(jù)轉移到高質(zhì)量數(shù)據(jù),更新數(shù)據(jù)觀念和處理方法,從根本上改變單向單邊思維,強化對數(shù)據(jù)的性別平等性檢驗和定位范圍的縮小,才能確保“性別平等觀”在數(shù)據(jù)中得以體現(xiàn),由此數(shù)據(jù)訓練的算法才能保證其具有平等完善的性別倫理觀。具體來說,在進行數(shù)據(jù)分組時,不簡單的以男性和女性為分類標準,以排除數(shù)據(jù)異質(zhì)性對分析結果的影響,而是盡可能多的分組,在數(shù)據(jù)層面挖掘女性個體職業(yè)特征和需求;在選擇變量時,應注重獨立性篩選,以防過去職業(yè)數(shù)據(jù)中的虛假相關性和偶然同質(zhì)性影響人工智能深度學習,避免其做出職業(yè)與性別間錯誤相關性的判斷分析。
另一方面,加強數(shù)據(jù)質(zhì)檢,規(guī)避人工清洗和數(shù)據(jù)標識過程中可能嵌入的性別歧視。由于現(xiàn)階段人工智能算法應用的數(shù)據(jù)更多由人工進行清洗和標注,人類內(nèi)隱偏見驅(qū)動的無意識歧視可能嵌入其中。因此,在數(shù)據(jù)清洗和標注工作完成時,數(shù)據(jù)的質(zhì)檢流程就更顯重要?,F(xiàn)在的數(shù)據(jù)質(zhì)量檢測主要注重在數(shù)據(jù)完整性、一致性和準確性三方面評估是否達到預期的質(zhì)量要求。從注重性別平等觀念的視角來說,企業(yè)在進行就業(yè)數(shù)據(jù)檢測時還應當注重性別平等性檢測,通過女性就業(yè)數(shù)據(jù)分析判斷女性是否受到不應有的區(qū)別、排斥或限制,或者產(chǎn)生妨礙、否認女性依法享有和行使權利的后果。
以技術批判為指導,深度規(guī)制算法歧視
通過上述分析,我們確立以技術批判理論作為對弱人工智能時代算法歧視規(guī)制的技術哲學指導,理性看待算法并通過制定修改法律全面規(guī)制算法歧視。從比較視野來看,國外規(guī)制算法歧視均從算法倫理教育、透明度和解釋權、算法問責等方面展開。本文也將基于上述方面,并以算法設計、應用、監(jiān)管、責任承擔全流程為規(guī)制對象,探討如何有效有針對性地規(guī)制就業(yè)領域中的算法性別歧視。
倫理規(guī)范是人工智能發(fā)展的糾偏機制,現(xiàn)階段預防人工智能的倫理風險應從對研發(fā)者的拘束出發(fā),必要時可以采取教育培訓等手段向研發(fā)者強調(diào)性別平等、尊重隱私等倫理觀念,使研發(fā)者意識到他們的工作存在用于惡意目的和性別歧視的風險,作為人類未來世界設計工程師的一份子,應當承擔設計性別無偏、人類普遍受益的算法的責任。性別平等的算法倫理規(guī)范的養(yǎng)成對強人工智能時代甚至超人工智能時代的算法都是十分有益的,只有這樣才能確保人工智能健康可持續(xù)發(fā)展。
為避免“算法黑箱”中滋生的算法歧視,增加算法透明度和賦予個人“解釋權”成為一種可信且具有吸引力的規(guī)范措施。因此,在通過算法自動化決策作出勞動人事決策時,算法設計目的、應用過程是否考慮到性別因素以及可能暗含性別的因素及其所占的比重應予公示,以確保此時性別信息的使用和處理符合合法、合理、最小必要原則的要求。另外,當個人認為在決策過程中受到算法性別歧視時,應確保其擁有要求決策者對其進行個案解釋說明的權利。通過上述事前和事后規(guī)制,避免女性在勞動人事決策過程中受到歧視。
即便為算法設定性別平等的倫理規(guī)范,謹慎運行性別平等的算法邏輯,有時也未能有效阻止性別歧視的結果發(fā)生。此時,應注重算法運行的審計,對人工智能進行性別歧視的運行測試,對用人單位提出謹慎性義務。此外,還可以大力提倡算法性別平等的外部審計,通過審計的用人單位可以獲得認證標志,為其吸引人才提供競爭優(yōu)勢。
最后,關于算法性別歧視的歸責問題。算法侵害具有主體多元、因果追溯困難、主觀過錯認定困難、自主性引致決策失控的規(guī)則難題。本文認為,無論如何,現(xiàn)有法律主體如人工智能的設計者、銷售者和使用者都應該承擔相應的歧視責任。由于算法的專業(yè)性和不透明性,受害者舉證困難,因此應參照過錯推定責任原則,由算法設計方或應用方證明其沒有進行性別歧視或盡力規(guī)避算法性別歧視但仍未能達到預想效果才能免責。
關于女性的性別歧視問題,本文所談及之處還遠遠不夠,在更深層次的社會結構中有著難以根除的女性歧視問題。隨著大數(shù)據(jù)算法對我們的生活產(chǎn)生愈加深刻的影響,借由數(shù)字經(jīng)濟和智能社會的深入發(fā)展,人權發(fā)展格局邁向數(shù)字人權時代。但人工智能發(fā)展的不確定性也帶來了歧視數(shù)字化的法律風險,不斷呈現(xiàn)出算法權力對人的規(guī)訓,算法“治理赤字”也愈加嚴重。消除對婦女一切形式歧視公約第11條第一款規(guī)定:“締約各國應采取一切適當措施,消除在就業(yè)方面對婦女的歧視,以保證她們在男女平等的基礎上享有相同的權利”。因此,我國作為公約締約國應當注重人工智能歧視治理,加快反歧視法律數(shù)字化轉型,構建以人為本、公正包容的反歧視法律制度。本文希冀借助人工智能時代的到來,引導算法向善發(fā)展,促進性別平等而不是加劇性別歧視,釋放女性人口紅利而不是限制女性進步發(fā)展,尊重保障女性人權而不是加劇數(shù)字性別暴力。
評論排行