徐偉琨|自動(dòng)化行政中相對(duì)人算法決策拒絕權(quán)的實(shí)現(xiàn)路徑
【ZiDongHua 之人文化天下收錄關(guān)鍵詞: 徐偉琨 自動(dòng)化行政 人工智能 】
徐偉琨|自動(dòng)化行政中相對(duì)人算法決策拒絕權(quán)的實(shí)現(xiàn)路徑
徐偉琨
廣西民族大學(xué)法學(xué)院碩士研究生
要目
一、問(wèn)題的提出
二、算法決策應(yīng)用于自動(dòng)化行政面臨的現(xiàn)實(shí)問(wèn)題三、自動(dòng)化行政中相對(duì)人免受算法決策法律保護(hù)的既有路徑及反思四、自動(dòng)化行政中算法決策拒絕權(quán)的實(shí)現(xiàn)路徑
人工智能技術(shù)嵌入政府行政管理活動(dòng)中,互動(dòng)促成“自動(dòng)化行政”的誕生。自動(dòng)化行政通過(guò)算法決策程序處理海量數(shù)據(jù)并作出替代性決策來(lái)優(yōu)化行政效能。算法正在逐步超越工具角色,成為執(zhí)行資源配置的基本準(zhǔn)則,但算法歧視、算法偏差、算法“黑箱”等固有局限侵蝕相對(duì)人的知情權(quán)、聽(tīng)證權(quán)、救濟(jì)權(quán)等程序權(quán)利,對(duì)傳統(tǒng)行政正當(dāng)程序發(fā)起挑戰(zhàn),造成“權(quán)力——權(quán)利”格局的嚴(yán)重失衡,相對(duì)人算法決策拒絕權(quán)的構(gòu)建變得尤為重要。通過(guò)剖析當(dāng)前個(gè)人免受算法決策既有路徑發(fā)現(xiàn),禁令路徑和權(quán)利路徑兩種路徑在保護(hù)目標(biāo)、方式、限度等方面截然不同,在一定程度上兩種路徑都忽視了相對(duì)人個(gè)人利益和公共利益之間的平衡。為保障相對(duì)人在自動(dòng)化行政中權(quán)利的實(shí)現(xiàn),必須從地位厘定、立法跟進(jìn)、程序保障、責(zé)任倒追角度出發(fā),全方面構(gòu)建行政法意義上的算法決策拒絕權(quán)實(shí)現(xiàn)路徑。
一、問(wèn)題的提出
隨著圖像識(shí)別等人工智能技術(shù)的發(fā)展,算法決策應(yīng)用場(chǎng)景得到了極大的提升和拓展。2022年1月,國(guó)務(wù)院辦公廳印發(fā)了《“十四五”數(shù)字經(jīng)濟(jì)發(fā)展規(guī)劃》,明確要求“加快構(gòu)建算力、算法、數(shù)據(jù)、應(yīng)用資源協(xié)同的全國(guó)一體化大數(shù)據(jù)中心體系”。這為算法決策嵌入政府公共行政提供了有力支持和方向指引。
自動(dòng)化行政,系人工智能技術(shù)在行政機(jī)關(guān)日常行政活動(dòng)中的具體應(yīng)用。在“算法時(shí)代即將來(lái)臨”的背景下,行政機(jī)關(guān)借助算法決策深度學(xué)習(xí)、大數(shù)據(jù)分析等技術(shù)以輔助行政裁量、預(yù)測(cè)調(diào)配資源等行政活動(dòng)。有別于外生技術(shù)在政府活動(dòng)中移植應(yīng)用的電子政務(wù)時(shí)期,算法決策在行政領(lǐng)域的應(yīng)用是在數(shù)字技術(shù)與政府體系深層次融合適應(yīng)數(shù)字政府時(shí)期技術(shù)應(yīng)用的進(jìn)一步發(fā)展,算法在不斷超越工具角色,逐漸成為執(zhí)行資源配置的基本準(zhǔn)則。然而,算法決策本身具有的內(nèi)生性風(fēng)險(xiǎn)以及同傳統(tǒng)行政正當(dāng)程序相背離的風(fēng)險(xiǎn)最終會(huì)影響到自動(dòng)化行政決策的準(zhǔn)確性,進(jìn)而對(duì)行政相對(duì)人合法權(quán)益造成損害。
為了應(yīng)對(duì)算法決策所引發(fā)的風(fēng)險(xiǎn),諸多國(guó)家或地區(qū)都對(duì)算法決策進(jìn)行了法律規(guī)制,如歐盟通用數(shù)據(jù)保護(hù)條例(General Data Protection Regulation,以下簡(jiǎn)稱GDPR)第22條第1款規(guī)定了數(shù)據(jù)主體享有“反自動(dòng)化決策權(quán)”,即數(shù)據(jù)主體在特定情形下,對(duì)其有關(guān)的個(gè)人數(shù)據(jù)處理與分析享有拒絕權(quán)。我國(guó)個(gè)人信息保護(hù)法第24條第3款明確了“自動(dòng)化決策拒絕權(quán)”的請(qǐng)求權(quán)基礎(chǔ),該條款同樣適用于自動(dòng)化行政領(lǐng)域,但在權(quán)利的實(shí)現(xiàn)上缺乏制度支持、程序保障等困境。
行政法圍繞具體行政行為對(duì)行政問(wèn)責(zé)和相對(duì)人權(quán)益保護(hù)提供了框架,所建構(gòu)的相關(guān)原則和程序是由人作出決策為預(yù)設(shè)前提而非計(jì)算機(jī)。在以算法決策為中心的自動(dòng)化行政背景下,由計(jì)算機(jī)作出行政決策與傳統(tǒng)行政法上的原則和程序不相兼容,那么本文所提出的問(wèn)題是:算法決策應(yīng)用于自動(dòng)化行政對(duì)行政程序法治帶來(lái)了怎樣的挑戰(zhàn)?相對(duì)人參與自動(dòng)化行政時(shí),其權(quán)利如何得到實(shí)現(xiàn)與保障才能回應(yīng)這樣的挑戰(zhàn)?基于此,本文首先對(duì)當(dāng)下算法決策應(yīng)用于自動(dòng)化行政面臨的主要問(wèn)題進(jìn)行分析;其次,對(duì)目前國(guó)際上主流的免受算法決策法律保護(hù)的兩條路徑進(jìn)行闡釋并反思;最后,在充分考慮相對(duì)人利益和公共利益平衡基礎(chǔ)上,構(gòu)建自動(dòng)化行政領(lǐng)域科學(xué)可行的算法決策拒絕權(quán)實(shí)現(xiàn)路徑,以提升算法決策的正當(dāng)性和自動(dòng)化行政的可靠性。
二、算法決策應(yīng)用于自動(dòng)化行政面臨的現(xiàn)實(shí)問(wèn)題一方面,算法決策是基于算法和計(jì)算機(jī)技術(shù)收集整理數(shù)據(jù),并在此基礎(chǔ)上通過(guò)深度學(xué)習(xí)或神經(jīng)網(wǎng)絡(luò)等技術(shù)處理分析相關(guān)數(shù)據(jù),然后作出決策的活動(dòng)??梢?jiàn),算法決策排除了人為干預(yù),自動(dòng)分析、評(píng)估數(shù)據(jù)主體各項(xiàng)情況,成為決策的主體。但算法決策終究是通過(guò)算法和計(jì)算機(jī)技術(shù)相結(jié)合建構(gòu)起的一套程序,本身就具有算法設(shè)計(jì)者的印記,因此存在設(shè)計(jì)者主觀傾向甚至歧視的可能性,所作出決策的過(guò)程也并非絕對(duì)中立和客觀。另一方面,上文提到傳統(tǒng)行政程序的建構(gòu)是以人的行為出發(fā)并非機(jī)器,算法決策的自發(fā)性與傳統(tǒng)行政程序產(chǎn)生沖突。金無(wú)足赤,算法基于海量數(shù)據(jù)處理和運(yùn)算效率優(yōu)勢(shì),幫助政府提高行政效能,但算法決策簡(jiǎn)化了行政程序,以內(nèi)部決策參與到行政活動(dòng)中,對(duì)行政正當(dāng)程序發(fā)起挑戰(zhàn),影響相對(duì)人知情權(quán)、聽(tīng)證權(quán)、救濟(jì)權(quán)等程序權(quán)利的實(shí)現(xiàn),導(dǎo)致行政權(quán)力增強(qiáng)與相對(duì)人權(quán)利式微的失衡局面,產(chǎn)生算法決策在自動(dòng)化行政領(lǐng)域應(yīng)用的現(xiàn)實(shí)問(wèn)題。
算法決策應(yīng)用于自動(dòng)化行政存在的障礙
任何一項(xiàng)技術(shù)都無(wú)法確保絕對(duì)的準(zhǔn)確和安全,同樣,算法決策技術(shù)即便在不斷發(fā)展和完善的現(xiàn)如今,其準(zhǔn)確性和可靠性仍然存在問(wèn)題,這也是算法決策應(yīng)用于自動(dòng)化行政陷入質(zhì)疑危機(jī)的內(nèi)在原因。
1.算法歧視導(dǎo)致決策公平性缺失
算法決策是計(jì)算機(jī)程序的一種,依賴于設(shè)計(jì)者提前將既定規(guī)則編寫(xiě)進(jìn)代碼。一方面,算法的設(shè)計(jì)、目的、標(biāo)準(zhǔn)、數(shù)據(jù)處理等也有賴于設(shè)計(jì)者、開(kāi)發(fā)者主觀選擇,他們可能會(huì)將偏見(jiàn)嵌入算法系統(tǒng),或者疏忽某些重要的指標(biāo),這都會(huì)對(duì)算法決策的公平性產(chǎn)生影響,造成結(jié)果偏差。另一方面,當(dāng)編程人員將既定規(guī)則寫(xiě)進(jìn)代碼時(shí),不可避免會(huì)對(duì)規(guī)則進(jìn)行調(diào)整,但對(duì)這一環(huán)節(jié),公眾、政府人員、法官無(wú)從知曉,算法決策規(guī)則的透明性、準(zhǔn)確性無(wú)法被審查。如果規(guī)則在編譯過(guò)程中被過(guò)度解讀,甚至錯(cuò)誤解讀,亦會(huì)導(dǎo)致算法決策結(jié)果偏差,造成決策不公。更重要的是,算法并不具有能力自主排除歧視,反而傾向于將歧視固化甚至放大,使歧視長(zhǎng)存于算法決策中。究其原因,算法是用過(guò)去預(yù)測(cè)未來(lái),而過(guò)去的歧視在算法中鞏固并在未來(lái)得到加強(qiáng),因?yàn)殄e(cuò)誤的輸入得到的只會(huì)是錯(cuò)誤的輸出,最終形成“自我實(shí)現(xiàn)的歧視性反饋循環(huán)”。在這種情形下,以算法決策為中心的自動(dòng)化行政也會(huì)遭受到算法歧視導(dǎo)致決策公平性缺失的現(xiàn)實(shí)困境,其運(yùn)作結(jié)果的準(zhǔn)確性也難以保障。
2.數(shù)據(jù)的有效性、準(zhǔn)確性偏差影響決策的準(zhǔn)確性由于算法是深度學(xué)習(xí)的產(chǎn)物,數(shù)據(jù)的優(yōu)劣對(duì)算法決策的準(zhǔn)確性起著著決定性因素,以數(shù)據(jù)采集為關(guān)鍵步驟的算法所作出的決策不可避免地受到數(shù)據(jù)質(zhì)量的影響。數(shù)據(jù)樣本質(zhì)量越高,算法決策的準(zhǔn)確性也相應(yīng)提高。相反,當(dāng)數(shù)據(jù)樣本失準(zhǔn)、不全,或缺乏代表性、均衡性,算法決策的結(jié)果很可能存在不同程度的歧視。算法決策的設(shè)計(jì)者可以利用數(shù)據(jù)對(duì)目標(biāo)人群進(jìn)行分類,從而脫離各種反歧視要求的約束。數(shù)據(jù)采集和記錄的過(guò)程中存在的歸類、標(biāo)記等偏差也會(huì)產(chǎn)生算法歧視的結(jié)果,同樣也會(huì)成為算法決策準(zhǔn)確性保障的障礙。
3.算法決策本身具有不透明性
由于算法技術(shù)具有門檻,導(dǎo)致信息不對(duì)稱,很多時(shí)候出現(xiàn)問(wèn)題都難以追責(zé),算法創(chuàng)造的信息優(yōu)勢(shì)形成強(qiáng)大的算法權(quán)力,也引發(fā)了社會(huì)公眾的擔(dān)憂。算法決策固有的不透明特性形成了算法“黑箱”,即人們無(wú)法感知和理解算法自主作出決策的過(guò)程和結(jié)果。有學(xué)者將算法的不透明性分為三種:(1)故意不透明,是指算法決策的內(nèi)部運(yùn)作過(guò)程被刻意隱藏,可能是基于商業(yè)秘密,也可能是基于操控他人;(2)內(nèi)在不透明,是指算法本身具有難以向公眾解釋的技術(shù)壁壘,隨著算法深度學(xué)習(xí)和大數(shù)據(jù)分析等技術(shù)發(fā)展使得人類干預(yù)越發(fā)捉襟見(jiàn)肘,即便是專業(yè)技術(shù)人員也難以全面解釋算法決策過(guò)程;(3)外行不透明,是指算法技術(shù)中的一些即便是可以被專業(yè)技術(shù)人員解釋的部分,社會(huì)公眾也難以完全理解。算法決策的不透明特性利用不對(duì)稱信息在算法主體與受眾之間產(chǎn)生“規(guī)訓(xùn)的權(quán)力”,成為滋生算法歧視的“溫床”。
算法決策與行政正當(dāng)程序制度的沖突
行政正當(dāng)程序是行政法的基本要求,其要義在于,作出任何使他人遭受不利影響的行使權(quán)力的決定前,應(yīng)當(dāng)聽(tīng)取當(dāng)事人的意見(jiàn)。正當(dāng)程序是裁決爭(zhēng)端的基本原則和最低的公正標(biāo)準(zhǔn),是現(xiàn)代民主政治的表現(xiàn)形式之一。行政正當(dāng)程序基本理念已經(jīng)成為檢驗(yàn)權(quán)力運(yùn)行的重要指標(biāo),在平衡“權(quán)力——權(quán)利”格局中發(fā)揮著重要作用。算法決策應(yīng)用于自動(dòng)化行政意味著行政機(jī)關(guān)可以憑借數(shù)據(jù)和計(jì)算機(jī)程序進(jìn)行簡(jiǎn)單重復(fù)流水線工作達(dá)到降本增效的效果。這種排除人工干預(yù)的完全自動(dòng)化決策對(duì)傳統(tǒng)行政程序帶來(lái)了諸多挑戰(zhàn),如:(1)有別于一般程序規(guī)定,作出行政行為不需要領(lǐng)導(dǎo)簽字;(2)不需要說(shuō)明理由;(3)不需要提前組織聽(tīng)證。正因?yàn)樽詣?dòng)化行政行為免去了聽(tīng)證、調(diào)查或閱卷程序,導(dǎo)致當(dāng)事人的程序性權(quán)利實(shí)質(zhì)性限縮。在自動(dòng)化行政中,算法決策模塊化、程序化處理行政事務(wù),在提升行政效率的同時(shí)卻有著不利于個(gè)案正義實(shí)現(xiàn)的隱患,再加上算法本身具有的“黑箱”特征,使得算法決策應(yīng)用于自動(dòng)化行政面臨質(zhì)疑。
1.算法不透明影響相對(duì)人的知情權(quán)
在知情權(quán)體系中,行政知情權(quán)是公民政治權(quán)利的基礎(chǔ)。所謂行政知情權(quán),是指公民依法通過(guò)各種途徑和形式獲取行政活動(dòng)宗旨、目的、原則、依據(jù)、程序及其結(jié)果的權(quán)利。該項(xiàng)權(quán)利目的在于當(dāng)行政信息涉及相對(duì)人切身利益時(shí),相對(duì)人用以打破與行政主體之間信息不對(duì)稱狀態(tài),從而實(shí)質(zhì)上起到防止行政專斷和保障正當(dāng)程序的作用。行政知情權(quán)的實(shí)現(xiàn),一方面有助于相對(duì)人保障自己的權(quán)利,另一方面也是人民群眾管理國(guó)家事務(wù)權(quán)利實(shí)現(xiàn)的重要方式之一。然而,在算法不透明的情況下,相對(duì)人因與行政主體之間基于信息不對(duì)稱而建立起的“數(shù)字鴻溝”難以參與行政活動(dòng),更談不上對(duì)設(shè)計(jì)自身利益的具體行政行為提出異議。因此,如何解決算法決策應(yīng)用于自動(dòng)化行政情形下相對(duì)人知情權(quán)實(shí)現(xiàn)成為即將面臨的現(xiàn)實(shí)問(wèn)題。且先不論行政主體公開(kāi)復(fù)雜、專業(yè)的自動(dòng)化決策程序的運(yùn)作流程、決策依據(jù)在實(shí)踐中操作極其困難。即便是公開(kāi)了,缺乏專業(yè)技術(shù)知識(shí)的相對(duì)人無(wú)法理解,也難以實(shí)現(xiàn)知情權(quán)的保障。在傳統(tǒng)行政程序中,行政主體與相對(duì)人通過(guò)簡(jiǎn)單的面對(duì)面交流,用通俗易懂的語(yǔ)言對(duì)決策的依據(jù)和過(guò)程進(jìn)行說(shuō)理,這在自動(dòng)化行政中,解釋冰冷的算法決策難以實(shí)現(xiàn)。此外,當(dāng)下一些行政機(jī)關(guān)內(nèi)部因缺乏算法專業(yè)技術(shù)人員無(wú)法滿足自動(dòng)化行政需求,而將算法決策的研發(fā)和設(shè)計(jì)外包給市場(chǎng)上投入算法技術(shù)研發(fā)更多以及掌握專業(yè)技術(shù)人員豐富的私營(yíng)企業(yè)的情況不在少數(shù)。這些企業(yè)往往會(huì)以商業(yè)秘密為由拒絕向他人公開(kāi)自己所設(shè)計(jì)的程序代碼,這也讓相對(duì)人的知情權(quán)實(shí)現(xiàn)進(jìn)一步受阻。
2.技術(shù)壟斷架空相對(duì)人的聽(tīng)證權(quán)
行政聽(tīng)證權(quán)的實(shí)現(xiàn)是行政正當(dāng)程序中公眾參與原則遵循的程序保障,指行政機(jī)關(guān)作出影響相對(duì)人權(quán)利義務(wù)決定前,相對(duì)人或利害關(guān)系人享有的就有關(guān)事實(shí)或法律問(wèn)題表達(dá)意見(jiàn)、陳述辯解的權(quán)利。行政聽(tīng)證權(quán)的有效實(shí)現(xiàn)要求行政主體必須要設(shè)置專門的程序確保相對(duì)人能夠參與,并且保障參與各方信息對(duì)稱。然而,聽(tīng)證權(quán)的實(shí)現(xiàn)受到了私營(yíng)企業(yè)技術(shù)壟斷的阻礙。技術(shù)壟斷變相回避了公眾參與的聽(tīng)證環(huán)節(jié),公眾沒(méi)有機(jī)會(huì)在行政活動(dòng)中主張自身權(quán)利,更無(wú)法為行政正當(dāng)提供程序性保障。
3.算法“黑箱”侵蝕相對(duì)人的救濟(jì)權(quán)
行政法賦予了相對(duì)人以行政復(fù)議和行政訴訟提起權(quán)為內(nèi)容的救濟(jì)權(quán),然而,算法決策不透明特性所形成的算法“黑箱”使相對(duì)人無(wú)法理解或難以理解算法自主作出決策的原因,最終導(dǎo)致救濟(jì)權(quán)難以實(shí)現(xiàn)。正是算法決策的“黑箱”特征導(dǎo)致相對(duì)人反制能力的弱化。不僅如此,算法決策系統(tǒng)出錯(cuò)所涉及的當(dāng)事人群體范圍更廣,情形更為復(fù)雜,此時(shí)傳統(tǒng)行政救濟(jì)措施就力有不逮。作出細(xì)微的算法偏差讓相對(duì)人難以認(rèn)識(shí)到具體行政行為的違法性,只能成為被迫接受錯(cuò)誤算法決策的受害者。再者,由于算法決策程序化、批量化處理行政事務(wù),錯(cuò)誤決策往往涉及人數(shù)眾多,損害可能很大,行政正當(dāng)程序更加難以保證。
三、自動(dòng)化行政中相對(duì)人免受算法決策法律保護(hù)的既有路徑及反思我國(guó)行政訴訟法賦予了行政相對(duì)人拒絕權(quán),規(guī)定行政行為作出主體、依據(jù)、內(nèi)容有重大且明顯違法情形的,相對(duì)人可以行使拒絕權(quán),請(qǐng)求法院確認(rèn)該行政行為自始不生效。由此看出,相對(duì)人主動(dòng)行使行政拒絕權(quán)的前提是對(duì)“作出決策的行政主體是否具有資格、作出決策的依據(jù)是否合法、重大且明顯違法情形是否存在”知情。但在算法決策嵌入行政活動(dòng)時(shí),算法成為作出決策的主體,并且由于算法的不透明特性致使相對(duì)人不能得知或無(wú)法理解算法決策作出的依據(jù)以及運(yùn)作規(guī)則,這讓行政拒絕權(quán)難以實(shí)現(xiàn)。因此,探索相對(duì)人免受算法決策法律保護(hù)新路徑,使自動(dòng)化行政中新型行政主體與相對(duì)人的“權(quán)力-權(quán)利”格局再平衡變得尤為重要。在實(shí)踐中,各國(guó)也產(chǎn)生了大量個(gè)人免受算法決策判例。歸納總結(jié),可以將這些保護(hù)措施分為禁令路徑和權(quán)利路徑。
禁令路徑
所謂禁令路徑,是指除有合法處理基礎(chǔ)外,禁止對(duì)數(shù)據(jù)主體使用算法決策。該路徑對(duì)算法決策采取了審慎使用的態(tài)度,以禁止使用為原則,以有限使用為例外。例如1998年比利時(shí)數(shù)據(jù)保護(hù)法和2009年德國(guó)聯(lián)邦數(shù)據(jù)法均采用禁令路徑。歐盟GDPR第22條中雖然列出了三種可以使用算法決策的例外情形,但對(duì)數(shù)據(jù)主體的自動(dòng)化決策仍被普遍禁止。深度剖析,禁令路徑具有以下特點(diǎn):第一,這種路徑側(cè)重于法律的事前規(guī)制理念,即在立法階段就要求禁止使用自動(dòng)化決策技術(shù)或者設(shè)置嚴(yán)格的使用條件。第二,這種路徑傾向于保護(hù)數(shù)據(jù)主體一方的利益。歐盟GDPR規(guī)定對(duì)數(shù)據(jù)主體使用完全自動(dòng)化決策必須事先有法律授權(quán)或合同約定為基礎(chǔ),并且要數(shù)據(jù)主體明確同意。第三,這種路徑目的在于解決個(gè)體怠于履行權(quán)利或行權(quán)力量弱小的困境。在實(shí)踐中數(shù)據(jù)控制者與數(shù)據(jù)主體往往實(shí)力懸殊,禁令路徑有利于通過(guò)約束數(shù)據(jù)控制者,達(dá)到數(shù)據(jù)主體權(quán)益獲得實(shí)質(zhì)保護(hù)的最終目的。
權(quán)利路徑
所謂權(quán)利路徑,是指法律賦予數(shù)據(jù)主體免受算法決策權(quán),數(shù)據(jù)主體可以行使該權(quán)利保障自身權(quán)益。該路徑則對(duì)算法決策采取寬容態(tài)度,更傾向于把接受自動(dòng)化決策的決定權(quán)交給數(shù)據(jù)主體。我國(guó)個(gè)人信息保護(hù)法便采取了權(quán)利路徑對(duì)個(gè)人免受算法決策法律保護(hù)體系進(jìn)行構(gòu)建,相較歐盟GDPR第22條第1款“有權(quán)不受約束”這樣的模糊表述而言,個(gè)人信息保護(hù)法第24條第3款“有權(quán)拒絕”更為直觀地表現(xiàn)為一項(xiàng)權(quán)利。深度剖析,權(quán)利路徑具有以下特點(diǎn):第一,這種路徑側(cè)重于法律的事后規(guī)制理念。個(gè)人信息保護(hù)法規(guī)定算法決策拒絕權(quán)行使的前提是該決策是“對(duì)個(gè)人權(quán)益有重大影響的決定”,側(cè)面體現(xiàn)了權(quán)利保護(hù)的事后性。第二,這種路徑傾向于鼓勵(lì)算法決策技術(shù)的利用。數(shù)據(jù)控制者只要不違反法律強(qiáng)制性規(guī)定,就可以使用算法對(duì)數(shù)據(jù)主體進(jìn)行自動(dòng)化決策。第三,這種路徑目的在于在保護(hù)數(shù)據(jù)主體權(quán)益的同時(shí)平衡人工智能科技的發(fā)展。
對(duì)兩種路徑的反思
基于以上分析不難看出,禁令路徑和權(quán)利路徑均為個(gè)人免受算法決策提供了法律保護(hù),均認(rèn)同法律介入算法決策程序的正當(dāng)性。但兩種路徑的保護(hù)目標(biāo)、方式、限度等方面截然不同。禁令路徑側(cè)重于從數(shù)據(jù)主體角度出發(fā),圍繞個(gè)人權(quán)益保護(hù)構(gòu)建以事前規(guī)制為主的算法決策規(guī)制體系。權(quán)利進(jìn)路則從數(shù)字產(chǎn)業(yè)和國(guó)民經(jīng)濟(jì)角度出發(fā),在尊重個(gè)體主觀意愿的前提下,構(gòu)建以事后規(guī)制為主的算法決策規(guī)制體系。雖然兩種路徑都提供了免受算法決策法律保護(hù),但仍有問(wèn)題存在。重于保護(hù)數(shù)據(jù)主體權(quán)益的禁令路徑忽略了算法決策技術(shù)被廣泛應(yīng)用在當(dāng)前社會(huì)的客觀現(xiàn)實(shí)。在人工智能技術(shù)迅猛發(fā)展的當(dāng)下,禁止使用算法決策顯然會(huì)阻礙人工智能產(chǎn)業(yè)的良性發(fā)展。而權(quán)利路徑雖然在尊重?cái)?shù)據(jù)主體主觀意愿的基礎(chǔ)上平衡了人工智能產(chǎn)業(yè)發(fā)展,但忽視了算法技術(shù)的自身局限性以及對(duì)正當(dāng)程序的沖擊。尤其是在自動(dòng)化行政場(chǎng)景下,算法不透明、技術(shù)壟斷等原因給以賦權(quán)救濟(jì)為核心的傳統(tǒng)法律制度帶來(lái)了功能性危機(jī)。因此,構(gòu)建自動(dòng)化行政中算法決策拒絕權(quán)的實(shí)現(xiàn)路徑時(shí)不能簡(jiǎn)單采用禁令路徑或權(quán)利路徑,應(yīng)當(dāng)從人工智能行業(yè)發(fā)展以及相對(duì)人權(quán)益保障衡平角度出發(fā),構(gòu)建一套遵循行政正當(dāng)程序、保障公眾參與原則、提高相對(duì)人救濟(jì)能力的算法決策拒絕權(quán)實(shí)現(xiàn)機(jī)制。
四、自動(dòng)化行政中算法決策拒絕權(quán)的實(shí)現(xiàn)路徑
自動(dòng)化行政是現(xiàn)代人工智能技術(shù)與政府行政管理的結(jié)晶,是科學(xué)技術(shù)融合發(fā)展應(yīng)用綜合作用的體現(xiàn),正日益成為社會(huì)管理的新型力量。從自動(dòng)化行政發(fā)展與相對(duì)人權(quán)益保護(hù)平衡角度出發(fā),尋求構(gòu)建個(gè)人免受算法決策法律保護(hù)體系新方式變得尤為重要。因此,融合目前現(xiàn)有的禁令路徑和權(quán)利路徑,結(jié)合自動(dòng)化行政實(shí)際,形成一套多元的貫穿于事前、事中、事后全過(guò)程的相對(duì)人算法決策拒絕權(quán)制度才能解決當(dāng)下算法決策應(yīng)用于自動(dòng)化行政產(chǎn)生的現(xiàn)實(shí)問(wèn)題。在構(gòu)建相對(duì)人算法決策拒絕權(quán)制度法律框架下,至少應(yīng)當(dāng)從地位厘定、立法跟進(jìn)、程序保障和責(zé)任倒追角度出發(fā)。
地位厘定:明確行政機(jī)關(guān)主體地位與算法工具屬性如前文所述,算法決策正在逐漸超越工具屬性,有超越、替代行政機(jī)關(guān)成為新型決策主體的趨勢(shì)。算法決策自身具有的局限性在自動(dòng)化行政中被放大,逐步侵蝕相對(duì)人的各項(xiàng)權(quán)利,因此重申行政機(jī)關(guān)主體地位和明確算法決策技術(shù)工具屬性是實(shí)現(xiàn)相對(duì)人算法決策拒絕權(quán)的首要任務(wù)。
1.明確行政機(jī)關(guān)的主體地位
算法歧視造成的決策不公仍是當(dāng)下難以解決的現(xiàn)實(shí)問(wèn)題之一,解決公權(quán)力中算法歧視問(wèn)題的關(guān)鍵不在于通過(guò)技術(shù)手段的革新避免或根治算法中的歧視性因素,在于如何從權(quán)力層面防止算法歧視直接作用于相對(duì)人。換句話說(shuō),行政主體必須直接介入算法決策過(guò)程之中并且掌握對(duì)算法決策的質(zhì)疑權(quán)和否定權(quán),防止歧視性算法決策上升為算法權(quán)力,就能預(yù)先防止算法歧視對(duì)相對(duì)人權(quán)益的侵害。歐洲委員會(huì)以及歐盟專家組在針對(duì)算法決策應(yīng)用進(jìn)行討論時(shí)采用了“人在環(huán)路”的設(shè)計(jì)理念,強(qiáng)調(diào)算法決策應(yīng)用下的場(chǎng)景中也不能完全切斷人與人之間的聯(lián)系。隨著歐盟路徑在國(guó)際上影響力的擴(kuò)大,“人在環(huán)路”理念也逐漸體現(xiàn)在各國(guó)立法之中。“人在環(huán)路”理念要求數(shù)據(jù)控制者必須參與進(jìn)算法決策的過(guò)程中進(jìn)行有效干預(yù),解決算法決策自身存在的局限性。因此,基于“人在環(huán)路”理念必須明確行政機(jī)關(guān)主體地位,即行政主體人工干預(yù)算法決策以彌補(bǔ)算法決策技術(shù)的局限性。
2.明確算法決策技術(shù)的工具屬性
算法決策技術(shù)作為輔助工具在自動(dòng)化行政應(yīng)用中呈現(xiàn)多種樣態(tài),例如在部分自動(dòng)化行政中,算法決策通過(guò)收集和處理海量數(shù)據(jù)進(jìn)行分析得出初步結(jié)論供行政機(jī)關(guān)作出最終決策。在完全自動(dòng)化行政中,算法決策技術(shù)雖然可以全過(guò)程自主處理,但相應(yīng)的行政主管機(jī)關(guān)仍應(yīng)保持監(jiān)督和否定的能力。因此,不論是算法決策技術(shù)輔助決策還是自主決策,都應(yīng)明確其輔助工具地位。
立法跟進(jìn):構(gòu)建行政法上的算法決策拒絕權(quán)制度在傳統(tǒng)行政中,相對(duì)人可以基于自身判斷決定是否申請(qǐng)行政主體回避,以避免因行政主體個(gè)人偏好以及利益相關(guān)所帶來(lái)的行政不公。例如行政許可法第48條第3款和行政處罰法第43條均對(duì)“申請(qǐng)回避”作出了規(guī)定。算法設(shè)計(jì)者、開(kāi)發(fā)者本身帶有的偏好以及數(shù)據(jù)樣本偏差所帶來(lái)的算法歧視等因素也能成為相對(duì)人申請(qǐng)回避的原因,但算法決策的不透明所產(chǎn)生的算法“黑箱”令相對(duì)人難以進(jìn)行回避判斷,導(dǎo)致在自動(dòng)化行政中,相對(duì)人申請(qǐng)回避制度略顯滯后。因此,為了維護(hù)相對(duì)人在自動(dòng)化行政中主體地位,保證自動(dòng)化行政符合行政程序正當(dāng)性要求,構(gòu)建自動(dòng)化行政中相對(duì)人對(duì)算法決策的回避制度,即算法決策拒絕權(quán)制度。上文所述的自動(dòng)化行政中相對(duì)人免受算法決策法律保護(hù)的禁令路徑和權(quán)利路徑均有其不足之處,需要引入平衡論理念,在充分考慮相對(duì)人個(gè)人利益和公共利益之間平衡的基礎(chǔ)上,按場(chǎng)景劃分,在立法層面上構(gòu)建相對(duì)人算法決策拒絕權(quán)分級(jí)實(shí)施路徑,采取相對(duì)實(shí)用主義來(lái)設(shè)計(jì)制度解決方案。當(dāng)一項(xiàng)權(quán)利對(duì)相對(duì)人來(lái)說(shuō)極為重要時(shí),也意味著這項(xiàng)權(quán)利有著很強(qiáng)的人身關(guān)聯(lián)性,法律就應(yīng)當(dāng)防止算法決策對(duì)相對(duì)人的侵害。相反,當(dāng)算法決策應(yīng)用在某些場(chǎng)景中可以帶來(lái)更大的社會(huì)效益,在符合比例原則的前提下,可以對(duì)相對(duì)人行使算法決策拒絕權(quán)作出限制。
近年來(lái),實(shí)務(wù)界也在探究算法決策拒絕權(quán)分級(jí)實(shí)施路徑的實(shí)現(xiàn)辦法。加拿大在2019年頒布《自動(dòng)化決策指令》,從個(gè)人權(quán)利、社會(huì)治理、社會(huì)經(jīng)濟(jì)發(fā)展、環(huán)境生態(tài)的可持續(xù)性等幾個(gè)場(chǎng)景出發(fā)將算法決策后果劃分為可逆且暫時(shí)的影響、可逆的短期影響、難以逆轉(zhuǎn)的持續(xù)性影響和不可逆的永久性影響四類,從而對(duì)算法決策作出規(guī)制,這一思路對(duì)我國(guó)制定該規(guī)則有一定的參考價(jià)值,但仍需進(jìn)一步深化。本文將算法決策拒絕權(quán)分級(jí)實(shí)施路徑按場(chǎng)景分為三類。第一類,在算法作出決策會(huì)對(duì)相對(duì)人生命權(quán)、人身自由等重大權(quán)利或?qū)ι鐣?huì)經(jīng)濟(jì)發(fā)展、生態(tài)環(huán)境的可持續(xù)性產(chǎn)生重大影響的場(chǎng)景中,所謂重大影響是指該決策可能產(chǎn)生不可逆轉(zhuǎn)或難以逆轉(zhuǎn)的永久性或長(zhǎng)期影響,此時(shí)相對(duì)人有權(quán)直接行使算法決策拒絕權(quán)。對(duì)生命權(quán)、人身自由等權(quán)利的處分和限制必須要有人的參與,作出這種決策不僅要嚴(yán)格依據(jù)法律,還要結(jié)合情理,要求決策者具有高度的同理心,而算法程序難以作出人情國(guó)法相統(tǒng)一的決策。此外,對(duì)社會(huì)經(jīng)濟(jì)發(fā)展、生態(tài)環(huán)境的可持續(xù)性產(chǎn)生重大影響的事項(xiàng)復(fù)雜且涉及利益廣泛,稍有不慎就產(chǎn)生不可逆轉(zhuǎn)的后果。第二類,對(duì)相對(duì)人權(quán)利或者社會(huì)治理產(chǎn)生一般影響,所謂一般影響是指該決策可能產(chǎn)生可以逆轉(zhuǎn)的短期影響,此時(shí)相對(duì)人可以有條件地行使算法決策拒絕權(quán)。即相對(duì)人在行政主體履行告知和解釋說(shuō)明義務(wù)之后,可以基于自身判斷通過(guò)申請(qǐng)的方式行使拒絕權(quán)。第三類,對(duì)于不涉及價(jià)值判斷的行政事宜,如事實(shí)性問(wèn)題識(shí)別、證據(jù)固定等,對(duì)相對(duì)人的相關(guān)權(quán)益造成的影響較小,并且可以很大程度上提高行政事務(wù)的處理速度,此時(shí)相對(duì)人的權(quán)利應(yīng)讓渡于公共利益的實(shí)現(xiàn)。在個(gè)案中相對(duì)人因此受到損害的,仍可以通過(guò)行政復(fù)議或行政訴訟等傳統(tǒng)方式獲得救濟(jì)。
程序保障:深化自動(dòng)化行政行為的正當(dāng)程序要求行政程序的正當(dāng)性是推動(dòng)國(guó)家法治發(fā)展和保障公民合法權(quán)益的前提,算法決策應(yīng)用在自動(dòng)化行政中依然要符合正當(dāng)程序的要求。如前所述,算法的不透明性、算法決策技術(shù)壟斷以及算法“黑箱”等因素很大程度上阻礙相對(duì)人權(quán)利的實(shí)現(xiàn),傳統(tǒng)行政正當(dāng)程序的要求已經(jīng)束縛不了算法決策技術(shù)。因此,與時(shí)俱進(jìn)地深化自動(dòng)化行政行為的正當(dāng)程序要求以規(guī)制算法決策應(yīng)用是重中之重。
1.公開(kāi)透明,打破算法“黑箱”,保障行政相對(duì)人的知情權(quán)算法“黑箱”所導(dǎo)致的關(guān)鍵問(wèn)題就是公眾無(wú)法觀察理解算法的內(nèi)容和運(yùn)行程序,打破算法“黑箱”的首要條件就是主動(dòng)公開(kāi),推動(dòng)算法決策技術(shù)的透明化。從過(guò)程角度來(lái)看,算法決策技術(shù)嵌入行政活動(dòng)是一個(gè)動(dòng)態(tài)的、持續(xù)性的過(guò)程,構(gòu)建公開(kāi)透明的政府算法治理形態(tài)必須要實(shí)現(xiàn)全過(guò)程的算法透明。第一,算法決策治理的透明化。它包括以下兩個(gè)方面:一是算法決策治理的政策透明。算法決策技術(shù)與政府管理活動(dòng)的耦合所產(chǎn)生的新風(fēng)險(xiǎn)促使政府算法決策治理政策出臺(tái)。政府在制定政策時(shí)應(yīng)考慮透明性價(jià)值,主動(dòng)公開(kāi)算法決策治理政策制定過(guò)程及成果,讓公眾了解政府算法決策治理中應(yīng)遵守的權(quán)責(zé)規(guī)范。二是算法決策技術(shù)委托透明化。如上文所述,算法決策技術(shù)的專業(yè)性使得政府傾向于委托專業(yè)技術(shù)企業(yè)開(kāi)發(fā)設(shè)計(jì),在此過(guò)程中,政府必須公開(kāi)所委托企業(yè)的名稱、資質(zhì)等信息,方便公眾對(duì)該企業(yè)了解和監(jiān)督。第二,算法決策研發(fā)的透明化。算法程序設(shè)計(jì)、數(shù)據(jù)采集等技術(shù)過(guò)程構(gòu)成了算法決策研發(fā),該研發(fā)的透明化也應(yīng)按過(guò)程展開(kāi)。一是算法程序設(shè)計(jì)透明化。算法程序設(shè)計(jì)是算法決策運(yùn)行程序的規(guī)劃,具體包括決策主體、目的、流程、結(jié)果預(yù)期等,公布這些信息也有利于公眾對(duì)算法決策的了解和監(jiān)督。二是政府?dāng)?shù)據(jù)采集的透明化。政府必須保障公眾對(duì)自身數(shù)據(jù)如何被采集和利用的知情權(quán),向社會(huì)公開(kāi)算法決策中的數(shù)據(jù)來(lái)源、類型和安全管理規(guī)范。第三,算法決策應(yīng)用的透明化。一方面,政府必須公開(kāi)算法決策場(chǎng)景應(yīng)用及服務(wù)主體。算法決策技術(shù)嵌入稅務(wù)、交通、教育、健康等領(lǐng)域,其服務(wù)的主體、設(shè)施、規(guī)則、技術(shù)標(biāo)準(zhǔn)等信息應(yīng)當(dāng)被公眾所獲悉。另一方面,算法決策應(yīng)用的結(jié)果透明化。算法決策的結(jié)果往往關(guān)涉到個(gè)人的切身利益,必須向相對(duì)人公開(kāi),保障其知情權(quán)。
2.聽(tīng)取陳述、申辯,引入算法決策評(píng)估程序,保障行政相對(duì)人的聽(tīng)證權(quán)算法程序所作出的決策也應(yīng)當(dāng)允許提出質(zhì)疑和挑戰(zhàn)。在當(dāng)下人工智能技術(shù)條件下,算法程序也會(huì)產(chǎn)生許多錯(cuò)誤甚至讓人無(wú)法理解的決策,歧視性代碼、數(shù)據(jù)偏差等因素都會(huì)成為算法決策錯(cuò)誤的原因。算法的“黑箱”特征讓相對(duì)人難以理解甚至知曉算法決策程序錯(cuò)誤的原因,更重要的是,具有深度學(xué)習(xí)能力的算法程序會(huì)讓一個(gè)很小的錯(cuò)誤在之后的決策程序中逐步放大。因此,必須深化自動(dòng)化行政中的行政正當(dāng)程序要求,保障相對(duì)人聽(tīng)取陳述、申辯的權(quán)利在算法時(shí)代也能順利實(shí)現(xiàn),必須允許相對(duì)人對(duì)算法程序所作出的決策提出質(zhì)疑挑戰(zhàn)。
鑒于算法決策程序作出決策的整套流程運(yùn)轉(zhuǎn)時(shí)間可能在毫秒甚至在微秒內(nèi),這意味著不存在采取事前聽(tīng)證可能性,只有事后聽(tīng)證才屬于算法決策應(yīng)用場(chǎng)景下的一般模式,這樣一來(lái)反而縮小了相對(duì)人聽(tīng)證權(quán)的實(shí)現(xiàn)途徑。為了彌補(bǔ)相對(duì)人行政權(quán)的限縮,可以引入算法決策評(píng)估程序,事先預(yù)防算法決策可能帶來(lái)的風(fēng)險(xiǎn)。所謂算法決策評(píng)估程序,是指對(duì)算法決策程序的有效性和準(zhǔn)確性進(jìn)行事先研判,排除有瑕疵的數(shù)據(jù)以及分析算法決策使用場(chǎng)景的可行性,之后結(jié)合比例原則對(duì)決策過(guò)程進(jìn)行風(fēng)險(xiǎn)評(píng)估的一套流程。該評(píng)估程序結(jié)合比例原則可以按以下三種評(píng)估標(biāo)準(zhǔn)進(jìn)行判斷:第一,適當(dāng)性標(biāo)準(zhǔn)。主要是判斷算法決策程序是否能夠最大程度上降低歧視性代碼、數(shù)據(jù)偏差等因素的影響,是否能夠幫助政府實(shí)現(xiàn)預(yù)期目的;第二,必要性判斷。政府應(yīng)當(dāng)研判算法決策程序適用的必要性,選擇對(duì)相對(duì)人權(quán)益侵害最小的程序,最大程度上減小算法決策帶來(lái)的風(fēng)險(xiǎn);第三,平衡性判斷。對(duì)算法決策程序適用將會(huì)帶來(lái)的消極影響和積極影響進(jìn)行預(yù)測(cè),只有后者明顯高于前者時(shí),才投入使用。只有同時(shí)滿足以上三種評(píng)估標(biāo)準(zhǔn)的算法決策程序才能被投入使用,算法決策評(píng)估程序的引入也符合歐盟所采用的“人在環(huán)路”理念,采用人為干預(yù)的方式解決算法決策程序的局限性。
3.說(shuō)明理由,強(qiáng)調(diào)算法的可解釋性,保障行政相對(duì)人的救濟(jì)權(quán)算法決策程序公開(kāi)透明十分重要,但是實(shí)現(xiàn)算法程序透明化僅僅只是創(chuàng)造了實(shí)現(xiàn)公眾參與算法決策程序的條件,算法透明化本身不是目的,是通往算法可理解化的階梯。前文所述,相對(duì)人由于算法的“黑箱”特征難以理解算法決策程序的運(yùn)轉(zhuǎn)模式,行使算法決策拒絕權(quán)等救濟(jì)權(quán)難度增大,因此,需要強(qiáng)調(diào)算法的可解釋性,增強(qiáng)算法的可理解程度。個(gè)人信息保護(hù)法第24條第3款前半句規(guī)定了個(gè)人有要求算法決策使用者針對(duì)算法決策運(yùn)行規(guī)則和邏輯進(jìn)行解釋的義務(wù),該項(xiàng)權(quán)利與算法決策拒絕權(quán)應(yīng)是并列的關(guān)系。該條款同樣適用于自動(dòng)化行政場(chǎng)景下,也即相對(duì)人既可以選擇要求行政主體解釋算法決策程序,也可以選擇行使算法決策拒絕權(quán),這從某種程度上來(lái)說(shuō),增加了相對(duì)人行使救濟(jì)權(quán)的途徑。
為保障自動(dòng)化行政算法解釋規(guī)則的實(shí)現(xiàn),必須要從規(guī)則上構(gòu)建行政主體解釋算法決策程序的義務(wù)和解釋程序。首先,行政主體是算法決策程序解釋的直接承擔(dān)者,即便在算法外包的情況下,也不得以商業(yè)秘密為由來(lái)對(duì)抗相對(duì)人。其次,算法解釋規(guī)則的實(shí)現(xiàn)程序是:先由相對(duì)人對(duì)算法決策過(guò)程或結(jié)果提出異議,再由行政主體采取啟動(dòng)事后監(jiān)督的模式對(duì)程序進(jìn)行解釋。行政主體應(yīng)對(duì)算法決策程序的輸入端和輸出端均進(jìn)行監(jiān)督并解釋。最后,行政主體應(yīng)當(dāng)提供算法決策程序的追蹤記錄,追蹤記錄中包含了算法決策的運(yùn)轉(zhuǎn)規(guī)則和依據(jù),以及評(píng)估程序等數(shù)據(jù),確保算法決策程序具有可追溯性,也是算法解釋規(guī)則實(shí)現(xiàn)的重要保障。
責(zé)任倒追:確立自動(dòng)化行政算法決策的責(zé)任規(guī)則算法決策過(guò)程中的公開(kāi)、告知、解釋說(shuō)明、聽(tīng)取陳述申辯等程序的不履行或不正當(dāng)履行以及錯(cuò)誤決策后果均會(huì)引發(fā)責(zé)任承擔(dān)問(wèn)題,但算法決策應(yīng)用于自動(dòng)化行政帶來(lái)了巨大的問(wèn)責(zé)漏洞,當(dāng)前的責(zé)任規(guī)則難以確定責(zé)任主體和劃分責(zé)任范圍。一方面,技術(shù)外包成為行政機(jī)關(guān)逃避責(zé)任承擔(dān)的借口。前文介紹過(guò)由于算法決策技術(shù)的復(fù)雜性和專業(yè)性,多數(shù)行政機(jī)關(guān)將其外包給一些技術(shù)性企業(yè)完成程序的開(kāi)發(fā)與設(shè)計(jì),在追責(zé)時(shí),行政機(jī)關(guān)傾向于將責(zé)任推卸給企業(yè),甚至是算法技術(shù)本身。另一方面,技術(shù)壟斷成為追責(zé)時(shí)難以突破的“高墻”。企業(yè)往往會(huì)以“技術(shù)中立”或商業(yè)秘密等理由拒絕承擔(dān)算法決策過(guò)程中所應(yīng)當(dāng)承擔(dān)的各項(xiàng)責(zé)任?;诖?,法律應(yīng)當(dāng)對(duì)算法決策所產(chǎn)生的責(zé)任重新分配,確立自動(dòng)化行政算法決策的責(zé)任規(guī)則,使其適應(yīng)算法時(shí)代的發(fā)展。
1.明確算法決策技術(shù)外包情況下的責(zé)任主體界定在技術(shù)外包的背景下,極易發(fā)生責(zé)任主體界定模糊的情況,自動(dòng)化行政算法決策責(zé)任規(guī)則的確立,首要任務(wù)是確定算法決策技術(shù)應(yīng)用的政府和算法決策技術(shù)開(kāi)發(fā)的企業(yè)之間的責(zé)任關(guān)系,只有先正確界定責(zé)任主體才能劃清責(zé)任范圍。在實(shí)踐中,政府可以與企業(yè)協(xié)商共同研發(fā),也可以直接向企業(yè)采購(gòu)成熟的技術(shù)試運(yùn)行后便投入使用,事實(shí)上后者是政府更傾向于采用的方式方法,這樣可以將潛在的責(zé)任一并外包出去,達(dá)到責(zé)任轉(zhuǎn)移的目的,這一行為也被稱之為“算法卸責(zé)”。但“算法卸責(zé)”所引發(fā)的責(zé)任缺失和問(wèn)責(zé)落空等的消極影響遭受到學(xué)界質(zhì)疑,有學(xué)者建議引入政府行為理論,并提出三個(gè)判斷標(biāo)準(zhǔn):第一,職能標(biāo)準(zhǔn)。當(dāng)算法決策完全承擔(dān)了傳統(tǒng)政府履行的職能時(shí),程序的開(kāi)發(fā)、設(shè)計(jì)者應(yīng)當(dāng)成為責(zé)任主體;第二,強(qiáng)制性標(biāo)準(zhǔn)。算法決策技術(shù)的開(kāi)發(fā)、設(shè)計(jì)是否受到國(guó)家的強(qiáng)制性規(guī)定約束,若有強(qiáng)制性規(guī)定,便以此規(guī)定確定責(zé)任主體;第三,聯(lián)合參與標(biāo)準(zhǔn)。在算法決策程序開(kāi)發(fā)與設(shè)計(jì)過(guò)程中,政府與企業(yè)的行為是否普遍地結(jié)合,結(jié)合則可視為共同行為者。以上三個(gè)判斷標(biāo)準(zhǔn)目的在于將影響政府決策的開(kāi)發(fā)者、設(shè)計(jì)者界定為責(zé)任主體,政府也因此難以將責(zé)任完全推卸給企業(yè)。裴亞楠、馬顏昕等學(xué)者認(rèn)為算法決策行為法律意義上的主體仍然是公權(quán)力機(jī)關(guān),開(kāi)發(fā)、涉及算法決策程序的企業(yè)只不過(guò)是起著便利公權(quán)力機(jī)關(guān)完成行政管理等事務(wù)的輔助作用。因此,在算法決策技術(shù)應(yīng)用于自動(dòng)化行政的情況下,責(zé)任主體仍然應(yīng)以行政機(jī)關(guān)為主。當(dāng)然,要求政府承擔(dān)起算法決策技術(shù)外包情況下的責(zé)任還需要制定法律法規(guī),將算法決策技術(shù)應(yīng)用于自動(dòng)化行政中的權(quán)責(zé)和義務(wù)明確界定。2.明確算法決策程序運(yùn)轉(zhuǎn)過(guò)程中的責(zé)任范圍劃分責(zé)任主體界定之后,具體的責(zé)任范圍還需要明確劃分。第一,行政機(jī)關(guān)有實(shí)現(xiàn)算法決策程序公開(kāi)透明,保障相對(duì)人知情權(quán)實(shí)現(xiàn)的義務(wù)。算法決策程序從一開(kāi)始的設(shè)計(jì)、開(kāi)發(fā)到最終的投入使用,行政機(jī)關(guān)應(yīng)保障其全過(guò)程的公開(kāi)透明。第二,行政機(jī)關(guān)負(fù)有算法解釋責(zé)任,保障相對(duì)人救濟(jì)權(quán)的實(shí)現(xiàn)。算法的專業(yè)性和復(fù)雜性讓行政機(jī)關(guān)傾向于采用外包的形式開(kāi)發(fā),但這并不意味著行政機(jī)關(guān)可以逃避解釋說(shuō)明的義務(wù)。第三,行政機(jī)關(guān)負(fù)有算法決策程序評(píng)估、便利相對(duì)人在自動(dòng)化行政中聽(tīng)證權(quán)實(shí)現(xiàn)的責(zé)任。自動(dòng)化行政對(duì)政機(jī)關(guān)履行事前、事中、事后監(jiān)督提出了更高程度的要求。第四,行政機(jī)關(guān)作為算法決策程序的直接責(zé)任主體,負(fù)有接受相對(duì)人算法決策拒絕權(quán)的責(zé)任。相對(duì)人拒絕行政機(jī)關(guān)采用算法決策程序作出決策,行政機(jī)關(guān)應(yīng)當(dāng)及時(shí)派專人干涉算法決策。
結(jié)語(yǔ)
以算法決策為代表的新一代人工智能技術(shù)日新月異,在政府管理、社會(huì)治理和公共服務(wù)中產(chǎn)生了深遠(yuǎn)的影響。盡管當(dāng)前政府對(duì)算法決策技術(shù)的使用尚處于早期發(fā)展階段,但從長(zhǎng)遠(yuǎn)來(lái)看,先進(jìn)且復(fù)雜的算法決策技術(shù)嵌入更多行政管理活動(dòng)成為一種必然的趨勢(shì)。在此背景下,我國(guó)自動(dòng)化行政建設(shè)進(jìn)程持續(xù)提速,公權(quán)力的運(yùn)行和個(gè)人權(quán)利的行使間的平衡被打破,新的平衡格局終會(huì)形成。當(dāng)公權(quán)力因?yàn)樗惴夹g(shù)的應(yīng)用而得到擴(kuò)張的時(shí)候,個(gè)人權(quán)利的行使也應(yīng)當(dāng)受到加強(qiáng)和保障,公民有權(quán)利期待政府采取更加信賴的方式方法進(jìn)行行政管理活動(dòng),也有權(quán)利參與行政管理活動(dòng)中,由此,個(gè)人脫離算法決策的權(quán)利必須得到實(shí)現(xiàn)。行政機(jī)關(guān)應(yīng)當(dāng)在自動(dòng)化行政發(fā)展進(jìn)程中保持守正創(chuàng)新,一方面,深化行政正當(dāng)程序要求,始終堅(jiān)持行政法治的價(jià)值理念;另一方面,推動(dòng)公眾參與在自動(dòng)化行政中創(chuàng)新發(fā)展。只有這樣,數(shù)據(jù)法治政府建設(shè)才能不斷推進(jìn)。
我要收藏
個(gè)贊
評(píng)論排行