法與基于機器學習、人工智能為基礎的自動化科技|《法學論壇》 | 陳錦波:自動化行政合法嗎?
【ZiDongHua 之人文化天下收錄關(guān)鍵詞:法與自動化 行政自動化 自動化行政 機器學習 人工智能】
思享 | 陳錦波:自動化行政合法嗎?
自動化行政合法性證成的基本邏輯
作者:陳錦波(1989-),男,福建福州人,法學博士,中國政法大學訴訟法學研究院副教授、人民法院司法改革研究基地(中國政法大學)研究員,碩士生導師,主要研究方向:行政法與行政訴訟法、網(wǎng)絡法。來源:《法學論壇》2023年第3期“學術(shù)視點”欄目。
本文導讀
政府治理的現(xiàn)代化需要信息化與法治化的深度融合,互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能等技術(shù)手段可以被用于優(yōu)化革新政府治理的流程和方式,從而進一步提升政府依法行政之水準。國家因此將全面建設數(shù)字法治政府提升為了一項戰(zhàn)略性的舉措。然而,當今的數(shù)字法治政府建設已不僅僅是將傳統(tǒng)政務簡單的電子化或在線化,數(shù)字技術(shù)對傳統(tǒng)行政事項已經(jīng)有了更深的介入——以機器學習算法為核心的人工智能技術(shù)在輔助行政機關(guān)作出行政決定甚至直接作出行政決定。但是,由于機器學習算法可以自我學習、具有黑箱特性且可能縮短甚至直接繞過人類來思考,因此它將給行政法治統(tǒng)合下的課責與監(jiān)督機制帶來巨大挑戰(zhàn)。因此,我們不禁會發(fā)出這樣的疑問:自動化行政合法嗎?無論是關(guān)注,或是推進,抑或是阻止自動化行政實踐,在采取相關(guān)行動前,我們都需要首先對上述問題作出回答。
目 次
一、問題的提出與研究的進路
二、自動化行政踐行依法行政原則的可能路徑
三、自動化行政對正當行政程序原則的挑戰(zhàn)及其因應
四、自動化行政對于實現(xiàn)“行政最佳性”的助益 結(jié)語
摘要:自動化行政是行政機關(guān)借助自動化設備作出行政行為的情形,其本質(zhì)是以機器學習算法為核心的人工智能技術(shù)對行政活動的參與。由于機器學習算法可以自我學習、具有黑箱特性且可能縮短甚至直接繞過人類來思考,所以它在直接或輔助行政機關(guān)作出行政決定時會對行政法治統(tǒng)合下的課責和監(jiān)督機制形成一定挑戰(zhàn)。即便如此,自動化行政本身的合法性仍然可以被有效證成。一方面,機器學習算法對行政決定作出過程的參與,不會在根本上沖擊最能彰顯行政法治的“依法行政原則”和“正當行政程序原則”,這使得自動化行政具備了形式上的合法性。另一方面,機器學習算法還有助于實現(xiàn)“最佳行政”之目標,從而增進國家的良善治理,這可以在更深層次證立自動化行政的實質(zhì)合法性。
關(guān)鍵詞:自動化行政;機器學習算法;依法行政;正當行政程序;最佳行政;形式合法性;實質(zhì)合法性
一、問題的提出與研究的進路
自動化行政是行政機關(guān)借助自動化設備作出行政行為、行政程序中的特定環(huán)節(jié)或全部環(huán)節(jié)由人工智能代為處理,從而實現(xiàn)行政活動部分或完全無人化操作的情形。自動化行政現(xiàn)象在現(xiàn)實中已經(jīng)多有發(fā)生。譬如,人力資源保障部門運用機器系統(tǒng)進行自動化行政審批,公安部門通過公共場所的人臉識別系統(tǒng)來輔助維持社會秩序,交警部門借助聲納定位系統(tǒng)來判定行駛車輛是否構(gòu)成交通違法等。
當前的自動化行政,其有效運作在很大程度上依賴于設備自身所內(nèi)嵌的機器學習算法。然而,由于機器學習算法可以自我學習、具有黑箱特性并且可能縮短甚至直接繞過人類來思考,因此機器學習算法在進行行政決定時可能會招致系列質(zhì)疑。首先,在進行行政決定時,機器是否已經(jīng)獲得了立法機關(guān)的有效授權(quán)?其次,即使機器此時確實因獲得法律授權(quán)而參與行政決定的作出,那么立法機關(guān)將公權(quán)授予非真人之機器的做法是否妥當?最后,機器學習算法的高速自動化運行及其黑箱特性,又是否會導致相對人原本所享有的程序性權(quán)利被克減?其實,公眾的上述質(zhì)疑歸根結(jié)底是他們擔心機器學習算法在公共決策領域的運用,會導致機器學習所造就的“算法社會”猝然演變?yōu)?ldquo;黑箱社會”,從而使得行政法治統(tǒng)合下的課責和監(jiān)督機制落空。質(zhì)言之,公眾認為自動化行政面臨著合法性困境。
那么,學界對這一問題如何認識?從有關(guān)自動化行政的既有研究成果來看,學者們或者是概括性地討論自動化行政所面臨的法律風險及其應對舉措,或者是對自動化行政的具體應用領域加以探究。然而,學界當前對“自動化行政是否合法”這一本源問題的理論關(guān)照卻較為缺乏。只有個別學者從憲法視角審視了自動化行政的權(quán)力正當性可能,絕大多數(shù)學者似乎理所當然的將該問題當成了討論的前提。而且,即便是在“自動化行政是否合法”的有限討論中,該學者也更多是將研究集中于對自動化行政在實體權(quán)力來源正當性的闡述上,而對自動化行政在程序方面所可能遭受的正當性沖擊較少涉及,更沒有對本文以下將論及的“最佳行政”視角加以探討。這使得該討論缺乏一個整全性的視域。有鑒于此,本文將嘗試對“自動化行政的合法性”這一基礎課題展開認真且系統(tǒng)地思考。對于這一問題,筆者的基本立場是:自動化行政不會從根本上沖擊行政法治。本文的目標即在于證成這一立場。筆者首先將會從最能彰顯行政法治的“依法行政原則”和“正當行政程序原則”入手,來證成自動化行政在形式層面的合法性。然后,筆者將會從行政自動化有助于“最佳行政”目標之實現(xiàn),來進一步證立自動化行政在實質(zhì)層面的合法性。
二、自動化行政踐行依法行政原則的可能路徑
依法行政原則是我國行政法上的一項基本原則。它的最基本含義,是要求行政機關(guān)的行政行為要嚴格依照法律來行使、受法的約束。依法行政原則包括法律創(chuàng)制、法律優(yōu)先和法律保留等三項子原則。其中的“法律創(chuàng)制”,意指法律對行政權(quán)的產(chǎn)生和運作具有決定性的拘束力,行政機關(guān)不得逾越法律而行為。可見,獲得法律的正式授權(quán),是行政機關(guān)行使公權(quán)的最基本前提。那么,行政機關(guān)在運用機器學習算法進行行政決定時,是否遵循了依法行政原則的這一要求?對此,如果要作出肯定回答,則大致存在兩條解釋路徑:其一,機器學習算法在參與行政決定的作出時,獲得了依法享有公權(quán)力的行政機關(guān)的合法轉(zhuǎn)授權(quán)。也就是說,法律將相關(guān)權(quán)力授予了行政機關(guān),并且準許行政機關(guān)將該權(quán)力轉(zhuǎn)授給機器。其二,法律對機器直接予以了授權(quán)。易言之,法律此時直接將相關(guān)行政權(quán)力授予機器,允許機器依據(jù)該職權(quán)進行行政決定。
(一)行政機關(guān)轉(zhuǎn)授公權(quán)給機器的禁止 根據(jù)依法行政原則,行政機關(guān)可以在法律明確授予的權(quán)力類型和權(quán)力范圍內(nèi)從事相關(guān)的公共行政活動。只是,這些公共行政活動中是否包括行政機關(guān)將從立法機關(guān)處獲得的授權(quán)再次轉(zhuǎn)授給機器,以使機器行使公權(quán)的行為合法化的情形?
就我國的憲法權(quán)力架構(gòu)而言,行政機關(guān)由立法機關(guān)產(chǎn)生,行政機關(guān)的行政職權(quán)來源于立法機關(guān)的授予。因此,行政機關(guān)要對立法機關(guān)負責,并受立法機關(guān)監(jiān)督。立法機關(guān)將行政權(quán)授予行政機關(guān)的目的,是期待行政機關(guān)能夠依憑其專業(yè)上的優(yōu)勢,順利完成行政任務,以保障社會的基本秩序并增進人民的福祉。而且,立法機關(guān)對行政機關(guān)的授權(quán)一般是以“劃定一般政策、適用該政策的公共機構(gòu)和該授權(quán)的界限”的方式進行。同時,從法院的視角來看,立法機關(guān)對行政機關(guān)的這種授權(quán)應當直接、明確且符合公共利益的需要。那么,允許行政機關(guān)將行政職權(quán)轉(zhuǎn)授給機器的做法是否會偏離憲法配置各項國家權(quán)力的上述初衷?
實際上,如果行政機關(guān)可以不斷轉(zhuǎn)授權(quán)力給第三方,作為原初授權(quán)主體的立法機關(guān)將無法對行政職權(quán)行使者進行充分的監(jiān)督。進而,公權(quán)被俘獲的可能性就將增大,公權(quán)行使者的公益立場和民主正當性基礎也會因此而被動搖。此外,對于隸屬代議民主式國家體制的我國來說,行政機關(guān)作為立法機關(guān)的意志執(zhí)行機關(guān),也只能嚴格依照法律的具體規(guī)定來行使行政職權(quán),而不得將從立法機關(guān)處獲得的職權(quán)再行轉(zhuǎn)讓。而且,立法機關(guān)對行政機關(guān)的授權(quán),實際上還暗含了民眾對行政機關(guān)能夠代表公益的基本信任。如果行政機關(guān)此時將享有的公共權(quán)力再行隨意轉(zhuǎn)讓,也將違背公眾的合理預期。
總之,行政機關(guān)一般不得將自身依法獲得的公共權(quán)力再行轉(zhuǎn)讓給機器。這意味著,機器因為獲得行政機關(guān)的轉(zhuǎn)授權(quán)而正當化自身之自動決策行為的可能性已經(jīng)在事實上被消解。
(二)法律直接授權(quán)機器作出行政決定的可能性
既然獲得立法機關(guān)授權(quán)的行政機關(guān)不得再將權(quán)力轉(zhuǎn)授給機器,那么說明前述第一種解釋路徑無法成立。那么,我們能否證立第二條解釋進路?也即,立法機關(guān)是否以及能否對機器予以直接的授權(quán)?
歸根結(jié)底,探討立法機關(guān)是否直接授權(quán)給機器,這首先是組織法應當解決的問題。質(zhì)言之,此處要探究的是:機器是否成為了合法的公權(quán)行使主體?從我國《憲法》《全國人民代表大會組織法》《國務院組織法》以及《地方各級人民代表大會及地方各級人民政府組織法》的條文規(guī)定來看,各法規(guī)范并未給機器可以行使行政職權(quán)提供相應的組織法依據(jù)。也即,立法機關(guān)并未對機器進行明確而具體的授權(quán)。易言之,現(xiàn)行有效的法規(guī)范,其指向的對象實際上只是具有生命體征之真人,而并沒有把機器作為公權(quán)享有主體而納入考量范疇。此時我們?nèi)绻麖娦兄鲝埇F(xiàn)有法規(guī)范已經(jīng)對機器予以了直接授權(quán),并把機器作為公權(quán)的合法行使主體,顯然過度偏離立法原意。簡言之,從實然角度看,機器當前并未獲得法律的直接授權(quán)。
只是,在新的時代形勢下,立法機關(guān)應否以及能否直接賦權(quán)機器以正當化機器作出行政決定的行為?大數(shù)據(jù)、人工智能都是信息時代的新興產(chǎn)物,機器學習更是被認為是一種新型人工智能,因此以往制定的法規(guī)范沒有將機器學習算法這一新技術(shù)納入考量當屬情有可原。但是,我們需要作進一步地反思:雖然從立法原意看,當初的立法者沒有明確規(guī)定機器人可以成為合法的公權(quán)行使主體,但在新形勢下是否就不可能對現(xiàn)行立法條文的內(nèi)涵作適度的擴張?這實際上是有討論余地的。筆者認為,在機器學習技術(shù)發(fā)展態(tài)勢日益強勁的當下,法規(guī)范體系應當給予機器學習算法以更大的作為空間,甚至直接賦予其完全獨立的作出行政決定的權(quán)力。
首先,機器身為作出行政決定的法定主體并不存在理論層面的理解障礙。在法學理論中,“法人”作為一種法律上擬制的“人”已經(jīng)被人們所廣泛接受。“機器人”和“法人”同樣不是具有生命體征的真人,既然“法人”可以作為法定的行為主體,那么我們就沒有理由將“機器人”特別排除在外。也許有人會指出,“法人仍然是由‘真人’組合而成,所以立法機關(guān)對‘法人’的授權(quán)仍然屬于對‘人’的授權(quán)。”這種認識曲解了法人制度設立的目的。實際上,在立法上承認法人具有主體性,并不是因為法人真的成為了具有生命體征和自由意志的人。相反,法人本身不可能具有精神意志,法人的主體性僅僅來自于法律的擬制。而對法人的這種法律擬制在本質(zhì)上不取決于其組成部分是否是“真人”,而在于我們是否有這種現(xiàn)實需要。同理,立法機關(guān)基于時代情勢的需要也可以對機器的主體性進行這種法律上的擬制,以賦予機器進行行政決定的權(quán)力。質(zhì)言之,法律對機器進行行政決定的直接賦權(quán)也不存在理論層面的解釋障礙。當然,需要說明的是,對于機器的定性,會影響到后續(xù)相應法律責任的承擔。因為在大陸法系國家的行政賠償制度中,公務員的違法侵權(quán)行為與公共設施設置和管理所導致的侵害,其侵權(quán)構(gòu)成要件和救濟程序并不完全相同。具體而言,如果我們將機器系統(tǒng)視為類似于真人的“公務員”,那么相應侵權(quán)行為的成立將以機器的違法和有責為前提;但如果我們僅僅將機器系統(tǒng)視為一種“公共設施”,那么判定機器是否構(gòu)成侵權(quán)則是以行政相對人的權(quán)益是否實際受損為要件。其實,機器系統(tǒng)本身的特點,決定了無論將機器嚴格地視為一類人或一種公共設施,都會面臨適用上的諸多問題。因此,學界當前對于如何定性機器仍然存有爭議。筆者認為,在現(xiàn)有條件下,將機器系統(tǒng)單獨予以類型化,并確立相應的責任承擔機制是較為穩(wěn)妥的做法。
其次,學界目前反對將機器作為法定授權(quán)主體的重要理由還在于:公眾對法律授權(quán)由真人組成的私人部門進行行政決定的做法尚且有顧慮,更不用說讓他們接受由法律直接賦權(quán)機器進行行政決定的方案。然而,需要指出的是,機器相較于私人部門來說實際上更為可靠。這是因為私人對行政決定的介入常常摻雜有私人利益的考量以及個人的偏見,它將導致私人部門進行行政決定時可能會因過度維護私利而損及公益的實現(xiàn)。相反,由于機器學習算法此時是由公共部門來負責設計和植入,所以機器學習算法參與行政決定的作出就可以避免諸如私人部門進行行政決定時所面臨的問題,進而保證所作行政決定的客觀公正性。當然,機器進行行政決定,其結(jié)果的客觀公正性建立在對“公共部門能夠公正無偏私處理公共事務”的推定之基礎上。觀察政治運作現(xiàn)實可知,在大多數(shù)情況下,我們對公共部門的這種推定能夠成立。而且,即使公共部門在少數(shù)情形中對公益初衷有所偏離,民主國和法治國下的諸多監(jiān)督機制也能對公共部門的該偏離行為進行有效矯正。這也是人民選擇出讓部分權(quán)力而交由公共部門來統(tǒng)一行使的最原初目的。質(zhì)言之,只要公共部門秉持公益之目的而對機器設計和植入合理的算法和程序,機器基于此而作出的行政決定就能保證其客觀公正性。而且,實踐已經(jīng)證明,由機器來進行行政決定還能極大提升行政機關(guān)的工作效能。所以,我們沒有理由不順應信息革命的時代趨勢而去選擇機器學習算法這種更為高效便捷的行政決定輔助手段。
再次,就立法實務而言,全國人民代表大會在2019年、2021年和2022年持續(xù)發(fā)布的《第十三屆全國人民代表大會第二次會議關(guān)于2018年國民經(jīng)濟和社會發(fā)展計劃執(zhí)行情況與2019年國民經(jīng)濟和社會發(fā)展計劃的決議》、《第十三屆全國人民代表大會第四次會議關(guān)于2020年國民經(jīng)濟和社會發(fā)展計劃執(zhí)行情況與2021年國民經(jīng)濟和社會發(fā)展計劃的決議》和《第十三屆全國人民代表大會第五次會議關(guān)于2021年國民經(jīng)濟和社會發(fā)展計劃執(zhí)行情況與2022年國民經(jīng)濟和社會發(fā)展計劃的決議》都對“數(shù)字政府建設”作出了明確部署。此外,中共中央、國務院于2021年印發(fā)的《法治政府建設實施綱要(2021-2025)》也明確指出要“全面建設數(shù)字法治政府”??梢?,最高國家權(quán)力機關(guān)已經(jīng)具有推動和加強數(shù)字政府建設(包括機器參與行政決定)的明確立法意圖,黨中央和國務院也對數(shù)字政府建設有了明確的戰(zhàn)略部署。在此背景下,我們對組織法以及各單行法律法規(guī)中提及的各種“行政主體”之文義作目的論擴張,將“機器”囊括進各“行政主體”的概念范疇之中,這顯然既貼合立法目的,又符合時代需求。
最后,雖然我們承認法律授權(quán)機器進行行政決定的可能性,但法律對機器的授權(quán)模式并非不加擇取。在授權(quán)模式的選擇上,法律對機器的直接授權(quán)比行政機關(guān)對機器的轉(zhuǎn)授權(quán)更為可行。這是因為,一方面,直接授權(quán)模式相較于轉(zhuǎn)授權(quán)模式具有更夯實的民主正當性和公益性基礎。正如前述,要想作出合法的行政決定,機器必須如傳統(tǒng)行政機關(guān)一樣具備必要的民主正當性和公益性底蘊。這種民主性和公益性的獲得,在形式上需要有法律的授權(quán)。而在轉(zhuǎn)授權(quán)和直接授權(quán)這兩種法律授權(quán)模式中,直接授權(quán)模式顯然可以給予機器學習算法在做行政決定時以更強的民主和公益底色。另一方面,機器學習算法的特性,決定了直接授權(quán)模式更有利于國家通過法律加強對機器學習算法的監(jiān)督。公眾對機器決策并不完全信任,他們希望國家能夠?qū)C器學習算法施加必要的管控。而在法律對機器的兩種授權(quán)模式中,轉(zhuǎn)授權(quán)模式只能是由行政機關(guān)在機器進行行政決定時對機器學習算法進行事中監(jiān)管,但由于機器學習算法具有自我學習特性、黑箱屬性以及高速自動運行的特征,這種事中監(jiān)管將很難達至良好的效果,甚至這種事中監(jiān)管都可能會讓行政機關(guān)找尋不到合適的介入時機。相反,借助直接授權(quán)模式,由法律在機器參與行政決定的作出前就對機器植入相應的目標和要求顯然更為可行。
總之,雖然立法機關(guān)在當初制定相關(guān)法規(guī)范時還沒有賦權(quán)機器的意圖,但為順應信息革命的時代趨勢,在立法機關(guān)尚未著手修改相關(guān)法律前,可以先結(jié)合最高國家權(quán)力機關(guān)的《決議》精神和黨中央、國務院的戰(zhàn)略部署,對原有立法條文的內(nèi)涵作目的論擴張,從而給予機器學習算法以適當?shù)姆墒跈?quán),使得機器能夠在一定空間內(nèi)作出適切的行政決定。而當條件成熟時,立法機關(guān)則需要在各組織法和各單行法律法規(guī)中對機器的法律主體地位予以明確認可。此外,在對機器權(quán)力授予模式的選擇上,相較于轉(zhuǎn)授權(quán)模式而言,立法機關(guān)對機器的直接授權(quán)更符合機器學習算法的本質(zhì)特性。
(三)機器作出行政決定的限度 立法機關(guān)可以且應當對機器作出行政決定的行為予以法律授權(quán),以推動政府治理體系和治理能力的現(xiàn)代化。但是,這并不意味著該法律授權(quán)不受任何約束。立法機關(guān)應當對授權(quán)機器進行行政決定的范圍和方式作出必要限定。當然,這種范圍和方式的具體限定進路應根據(jù)不同行政事項的不同特點和不同重要度來作進一步的區(qū)分。
首先,對于羈束行政事項,機器學習算法可以依照法律的授權(quán)進行自主化的行政決定。這是因為羈束行政事項一般不涉及行政主體在行政決定中的自由裁量,只要相關(guān)事實被正常地涵射到法律所設定的構(gòu)成要件,那么得出的結(jié)果將是唯一的。也就是說,只要人們按照法律的確切規(guī)定對機器進行行政決定的相關(guān)要件做事先設定,那么不管是由機器還是由真人來做該行政決定,其結(jié)果都將是相同的。對于此類事項,行政官員顯然沒有必要親力親為。這在比較法上也有例可循。例如,根據(jù)《德國聯(lián)邦行政程序法》第35a條的規(guī)定,羈束行政事項即屬于可以適用完全自動化的行政事項。當然,由于技術(shù)本身可能存在瑕疵,這將導致機器學習算法偏離預先設定的運行軌道。因此,在利害相關(guān)方提出,或者行政機關(guān)工作人員發(fā)現(xiàn)機器學習算法的決策結(jié)果具有明顯錯誤時,行政機關(guān)應當負責矯正該錯誤結(jié)果。
其次,對于裁量行政事項,行政機關(guān)應根據(jù)該事項的不同重要度而予以區(qū)別對待。總體而言,對于一般行政事項的裁量,法律可以直接授權(quán)機器來行使;但對于重要的行政裁量事項,法律還是要將該事項的最終判斷權(quán)保留給行政機關(guān)工作人員。至于何為重要的行政裁量事項,“特別權(quán)力關(guān)系”領域的“重要性理論”也許可以給我們提供一個參照思路。“特別權(quán)力關(guān)系”中的“重要性理論”,它根據(jù)公權(quán)所涉公民權(quán)利的重要性程度來判斷該公權(quán)是否應當接受司法審查。在“重要性理論”看來,凡是涉及公民基本權(quán)利的事項均為重要性事項。這種界定標準的優(yōu)點在于,它可以最大限度地保護公民所享有的基本權(quán)利。但是,我們同時也會發(fā)現(xiàn),按照這種標準篩選出來的重要事項之范圍將極為廣泛。運用有限的司法資源來保護如此寬泛的社會事項,顯然并非國家的最優(yōu)制度選擇。而且,在行政領域,保護公民權(quán)利也從來不是現(xiàn)代國家的唯一任務。實際上,行政機關(guān)在追求行政合法和公民權(quán)利保護的同時,還極為重視自身行政效能的提升。質(zhì)言之,在將機器學習算法引入行政決定領域時,我們雖仍應強調(diào)該活動的合法律性,但為了同時彰顯機器學習技術(shù)在提升行政機關(guān)工作效能方面的積極作用,對機器學習算法的規(guī)制顯然不能過于嚴苛,否則技術(shù)之功效將消弭殆盡。因此,并非公民所有的基本權(quán)利都不能由機器來處置。我們在機器作出行政決定領域引入“重要性理論”時,應當對其中的重要事項之范圍作進一步的限縮。那么,公民的哪些基本權(quán)利可以被剔除出“重要事項”的范疇?結(jié)合學理和我國現(xiàn)行憲法的規(guī)定,我們大致可將公民的基本權(quán)利歸納為以下六類:(1)平等權(quán);(2)政治權(quán)利;(3)精神自由;(4)人身自由和人格尊嚴;(5)社會經(jīng)濟權(quán)利;(6)獲得權(quán)利救濟的權(quán)利。憲法學界在討論對上述基本權(quán)利的限制時,一般對限制公民的社會經(jīng)濟權(quán)利之做法較為包容,而對限制公民其他類型的基本權(quán)利更為謹慎。這主要是因為,相較于其他基本權(quán)利來說,經(jīng)濟性基本權(quán)利的可量化度以及受損后的可補償性更高。因此,對經(jīng)濟性基本權(quán)利進行更多的限制更為可行且更容易為公眾所接受?;谕瑯拥目紤],在涉及機器學習算法對公民社會經(jīng)濟權(quán)利的裁量決策時,法律可以賦予機器學習算法更大的作為空間。也即,法律可以授權(quán)機器對公民的社會經(jīng)濟權(quán)利事項進行裁量決策。
最后,對于行政裁量領域中的重要性事項,法律不應當將之直接委諸于機器學習算法。也即,當需要對經(jīng)濟性基本權(quán)利以外的公民基本權(quán)作行政裁量時,法律仍然應當將該項職權(quán)保留給行政機關(guān)的工作人員來行使。當然,行政機關(guān)此時仍然可以借助機器學習算法來對相關(guān)行政決定的結(jié)果進行預測,以輔助和驗證人為決定之結(jié)果的科學性與合理性。易言之,在行政機關(guān)對行政裁量的重要性事項進行決策時,機器學習算法并不最終決定相關(guān)行政決定,機器學習算法此時的功用僅僅在于增強人類的判斷力。
總之,自動化行政并不會對依法行政原則構(gòu)成根本性的沖擊,但這建立在法律對機器予以必要授權(quán)的基礎上。同時,在轉(zhuǎn)授權(quán)和直接授權(quán)這兩種法律授權(quán)模式中,直接授權(quán)模式更加符合機器學習算法的特性。當然,即便法律直接授權(quán)機器作出行政決定,這種授權(quán)在范圍和方式上也仍然有其限度。具體來說,對于羈束行政事項和一般裁量行政事項,法律可以直接授權(quán)機器進行決策;但是,對于涉及公民社會經(jīng)濟權(quán)利以外的其他重要裁量行政事項,法律卻不能將之委諸機器來處理,而應將處置該類事項之公權(quán)保留給行政官員。
三、自動化行政對正當行政程序原則的挑戰(zhàn)及其因應
對正當行政程序原則的遵循,是行政機關(guān)進行行政決定時所應滿足的最低程序性要求。雖然學界在具體界定正當行政程序原則的內(nèi)涵上還存有分歧,但學者們大體同意正當行政程序原則至少包括對行政機關(guān)的如下要求:其一,行政機關(guān)作出行政決定時應當說明理由;其二,行政決定的作出程序應當公開透明;其三,行政機關(guān)應當保證行政相對人有機會作合理的陳述和申辯,且相對人的該陳述申辯意見能夠被行政機關(guān)公正地聽取。那么,自動化行政是否會導致行政機關(guān)在踐行正當行政程序原則的上述要求時有所怠惰?
(一)自動化行政可能克減的程序利益
機器學習算法的自我學習、黑箱運作和高速自動化等特性,決定了行政機關(guān)在運用機器學習算法進行行政決定時將會對傳統(tǒng)行政法中的正當行政程序原則構(gòu)成一定挑戰(zhàn)。
首先,自動化行政不利于行政機關(guān)說明理由制度的貫徹實行。機器學習算法的運轉(zhuǎn)呈現(xiàn)出高速且自動化的特征,它會縮短人類思考的過程甚至直接繞過人類來思考。此外,機器學習算法的自我學習和黑箱特性還會使得機器作出相關(guān)行政決定的理由難以解釋且難以預測。這意味著行政機關(guān)運用機器學習算法來作行政決定時,在說理上會不夠充分。這些都將削弱該行政決定的可接受性。當行政相對人無法理解相關(guān)行政決定而行政決定作出機關(guān)本身也解釋不清自身為何作出該項行政決定時,行政機關(guān)和行政相對人之間的溝通成本就會增加,這也極易引發(fā)甚至升級公權(quán)行使者(行政機關(guān))與公權(quán)作用對象(行政相對人)之間的矛盾。
其次,行政的自動化將降低行政決定作出程序的公開透明度。機器學習算法具有自我學習和黑箱特性,這導致人們(很多時候包括行政機關(guān)在內(nèi))很難理解該行政決定是經(jīng)由什么樣的程序而作出。一般而言,程序包括方式、順序、步驟和時限等要素。在機器學習算法參與行政決定的過程中,一般不會出現(xiàn)時限延遲的情況;但此時相關(guān)行政決定的作出方式、作出順序和作出步驟卻可能會被極大簡化,這直接影響到行政相對人程序參與權(quán)的實現(xiàn)。易言之,機器學習算法的特性決定了行政相對人將很難對行政決定的方式進行選擇,也很難參與到行政決定的相關(guān)步驟中去。
最后,上述的行政相對人對行政程序的缺乏參與,也將影響到行政相對人陳述和申辯等相關(guān)程序性權(quán)利的行使。也即,行政相對人在面對可能不利于自身的行政決定時,將沒有機會就自己行為的合法性與合理性向行政機關(guān)作必要的辯解和理由陳述。而對行政機關(guān)來說,其在沒有充分聽取行政決定利害相關(guān)方的意見前,就倉促作出行政決定,這也不免顯得過于武斷。“兼聽則明,偏聽則暗”,這一古老諺語所內(nèi)嵌的公正裁判意旨也將無法獲得實現(xiàn)。
可見,行政的自動化確實會在一定程度上削弱行政機關(guān)所作行政行為的合法性韻味,也會減損行政相對人一定的程序性利益。對于自動化行政所提出的上述挑戰(zhàn),我們應該如何應對?
(二)機器學習時代行政相對人程序利益損失的法律填補 自動化行政對機器學習算法的運用確實面臨著合法性危機。但是,作為順勢而生的新興科技,機器學習算法顯然又不能被輕易地否棄。因此,法學人要做的,是在不拋棄機器學習算法的前提下,促使正當行政程序原則在行政的自動化這一過程中合理的歸位,以填補行政相對人因此而遭受的程序性利益之損失。這一目標的實現(xiàn),需要我們對機器學習算法采行過程化的監(jiān)管措施。
首先,行政機關(guān)應當向機器學習算法“投喂”高質(zhì)量的數(shù)據(jù)集且保證公眾對機器學習算法的必要知情權(quán)。一方面,機器學習算法能夠順暢且合法運作的基礎,在于其內(nèi)部擁有數(shù)量龐大且質(zhì)量優(yōu)良的數(shù)據(jù)集。數(shù)據(jù)是算法的燃料,一旦控制了向機器所“投喂”的數(shù)據(jù),就等于從源頭對機器學習算法進行了必要的管控。我們應當保證機器學習算法所依賴的這些數(shù)據(jù)是完整、準確和結(jié)構(gòu)化的。只有保證這些數(shù)據(jù)沒有被“污染”,才能確保機器學習算法下的行政決定具有更高的科學性。另一方面,在對機器學習算法進行事前監(jiān)管的過程中,國家還應當對算法的設計過程附加一定的要求,且保證公眾相應的知情權(quán)。國家在對機器學習算法的設計者施加算法在設計時所應滿足的規(guī)格、測試、信息披露以及算法倫理等方面要求的同時,還應當將機器學習算法的設計目的和策略議程、機器學習算法所內(nèi)嵌的諸種考量因素以及這些考量因素在行政決定中的占比程度等以合理的方式在事先向社會公眾作必要的說明。
其次,國家可以為機器作出行政決定的事項設置必要的程序性管控規(guī)則且賦予行政相對人一定的程序性權(quán)利,以實現(xiàn)對機器學習算法運作的事中監(jiān)督。行政機關(guān)可以通過組建一個由行政官員、技術(shù)人員和法學專家等專業(yè)人員所共同組成的獨立機構(gòu)或?qū)<椅瘑T會,來制定機器作出行政決定時所應遵循的程序性規(guī)則。此時專家委員會或獨立機構(gòu)可以依據(jù)事先制定的這些規(guī)則對機器學習算法進行監(jiān)控,一旦發(fā)現(xiàn)機器學習算法偏離該規(guī)則預設的前進軌道,專家委員會或獨立機構(gòu)就可以隨時中斷或停止該機器學習算法的運行。也即,人類應當保證可以在任何時候拒絕機器所選擇的規(guī)則,可以隨時改變算法的規(guī)格,甚至完全“拔掉插頭”而終止機器學習算法的運作。當然,我們同時要警惕對機器學習算法的這種專業(yè)規(guī)制因過度強調(diào)規(guī)制主體的精英化而背離社會公共利益,要防止社會精英利用技術(shù)資源優(yōu)勢來將他們自身與后代設計成高人一等的“超人”。
再次,國家還應當建立針對“機器進行行政決定”的事后監(jiān)督機制。這主要是因為機器學習算法具有自我學習、黑箱運作和高度自動化等特性,所以雖然人類為其植入了選定的數(shù)據(jù)且設置了事中的控制程序,但是機器學習算法的運行仍然可能偏離人類預期的發(fā)展軌道。所以,人類要想真正掌握對機器的最終控制權(quán),就有必要對機器學習算法進行一定的事后控制。一方面,這種事后控制機制可以通過前述專家委員會或獨立機構(gòu)對機器作出行政決定的回溯性事后審查來實施。也即,專家委員會或獨立機構(gòu)一旦發(fā)現(xiàn)機器學習算法支配下的行政決定具有法定的可撤銷情形,就應依法追溯性撤銷該行政決定的法律效力,以便矯正機器學習算法所作之不合法行政行為。另一方面,對機器學習算法的事后監(jiān)督還可以通過賦予行政相對人以必要的算法解釋請求權(quán)來加以實現(xiàn)。具體來說,算法解釋請求權(quán)是指行政相對人所享有的要求行政機關(guān)說明“為何運用該機器學習算法會最終導向該項行政決定”的權(quán)利。在法律授權(quán)機器進行行政決定的情形中,行政機關(guān)實際上已經(jīng)執(zhí)掌了相應的“算法權(quán)力”,原本處于優(yōu)勢地位的行政機關(guān)此時變得更加強勢。為了保證相對人能夠有足夠的力量和武器來抗衡行政機關(guān)并進一步對行政權(quán)進行監(jiān)督,立法機關(guān)同時賦予行政相對人以相應的“算法解釋請求權(quán)”就成為必然。
最后,國家還應施加給行政機關(guān)以相應的算法影響評估義務,以督促行政機關(guān)在機器學習算法輔助行政決定作出的過程中能夠適時且科學地預判該機器學習算法所可能帶來的諸種風險。國家給行政機關(guān)所施加的這項義務,其目的是為了彌補單純權(quán)利保護路徑的局限性,且突出算法控制者本身的風險責任意識,以最終增進機器學習算法的可控性。
其實,機器進行行政決定所可能給行政相對人帶來的程序利益的減損,是我們在國家信息化背景下追求更高效行政所必然要付出的代價。此時,理性人應當做的是去找尋我們所受損失與我們所獲收益之間的平衡點。就此,美國聯(lián)邦最高法院在馬修斯訴埃爾德里奇案(Mathews v. Eldridge)中的做法可以為我們的思考提供一些借鑒。該案的主審法官認為,判斷行政機關(guān)的行為是否符合正當程序原則需要綜合考量三個因素:一是,可能受到行政決定影響的私人利益。二是,因為錯誤程序而剝奪這種私人利益可能導致的風險,以及對私人施加程序保障可能帶來的價值。三是,行政機關(guān)采取替代性程序所可能帶來的財政負擔和其他行政負擔。我們在機器作出行政決定的情形中,也可以對是否向行政相對人提供特殊程序保障作具體如前的“成本—收益”考量。當然,行政機關(guān)在決定不給予行政相對人特殊程序保障時,其所可能導致的不良后果,還可以通過觀察行政相對人申請對行政決定進行復查的比率高低來加以判斷。對于機器學習算法下的行政決定,如果相對人對其不服而尋求救濟的比率并不高于其他類型的人為行政決定被復查的比率,那么就說明行政相對人并沒有對機器學習算法下的行政決定表示出特別的反感。這將從一個側(cè)面表明機器進行行政決定對相對人程序性權(quán)益的侵害可能并沒有人們所想象的那么嚴重,同時也可以為樹立機器學習算法在行政決定中的正面形象而正名。
總之,公眾對“自動化行政將可能給行政機關(guān)帶來程序上的合法性挑戰(zhàn)”的質(zhì)疑是有一定道理的。然而,就此而完全否定自動化行政,顯然過于武斷。實際上,由于自動化行政中所運用的機器學習算法可以避免人類主觀偏見或主觀錯誤的引入,這反而能夠增進人們對相關(guān)行政決定之程序正當性的預期。而且,即使是面臨人們對自動化行政所可能違背正當行政程序的質(zhì)疑,我們也有前述的應對辦法。
四、自動化行政對于實現(xiàn)“行政最佳性”的助益
“行政合乎法律”是行政機關(guān)從事行政活動時的基本追求。但在面對紛繁復雜的行政實踐時,學者們漸漸發(fā)現(xiàn)單純依靠法律規(guī)范來治理是無比的疲軟和乏力。易言之,狹義“合法行政”這一單一視角已經(jīng)無法滿足行政實務的需要。在此背景下,有學者頗為精辟地提出了“合法行政”和“最佳行政”的雙重分析視角。在該分析架構(gòu)中,行政的合法性考量首先登場,它為行政活動設置基本的規(guī)范條件和制度架構(gòu);而最佳性視角則用以觀察法律和政策本身的不足,并適時提出改進方案。進而,行政的合法性和行政的最佳性形成良性互動。實際上,狹義上的“行政合法性”意指“行政的形式合法性”,而此處的“行政最佳性”則指向“良好行政”這一意涵,它屬于“行政的實質(zhì)合法性”之范疇。
筆者在前文已經(jīng)說明,自動化行政并不會對以“合法性”為基底的傳統(tǒng)行政法理論造成根本性的沖擊。以下,筆者將進一步闡述自動化行政在“最佳行政”方面所可能給行政機關(guān)帶來的助益,以及實現(xiàn)這一目標的法律保障機制。
(一)“最佳行政”的理論構(gòu)成
傳統(tǒng)行政法學界恪守依法行政原則,主要著眼于“行政行為是否合法”的病理性分析。但在真實的行政實踐中,這種單一的狹義“合法性”觀察視角已不斷呈現(xiàn)出規(guī)制不足和執(zhí)行欠缺等問題。究其根本,這是由于法律這一單一學科已經(jīng)無法獨立應對日益紛繁復雜的行政事務。相反,這些實踐中的問題迫切需要多學科的知識和理論來共同關(guān)照。也正因為如此,“最佳行政”的分析視角才得以產(chǎn)生。
相關(guān)學者從行政法學的基本研究對象(公共行政)切入,來搭建“最佳行政”的分析架構(gòu)。根據(jù)公共行政學的經(jīng)典論述,公共行政的構(gòu)成要素可用“三途徑說”來加以概括。也即,公共行政目標具體可通過三個途徑來實現(xiàn):一是,管理途徑。它主要強調(diào)行政活動的效率性、效能性和經(jīng)濟性。二是,政治途徑。它意在彰顯行政活動的代表性、回應性和責任性。三是,法律途徑。它側(cè)重說明行政活動的適法性。在上述三種公共行政目標實現(xiàn)途徑中,法律途徑可納入狹義“合法行政”的領域,而管理途徑和政治途徑則可歸為“最佳行政”的范疇。
“最佳行政”在基本價值理念和核心關(guān)切點上都與狹義“合法行政”有很大不同。其一,在主體層面,與狹義“合法行政”主要著眼于授權(quán)的法定性不同,“最佳行政”以行政任務為導向,更加注重行政任務與組織形態(tài)的匹配。其二,在行為層面,與狹義“合法行政”重視對行政行為合法性的司法審查不同,“最佳行政”更多關(guān)注立法和行政層面的政策選擇和制度設計,更加關(guān)心如何綜合使用諸種行政手段和政策工具來達成行政目標。其三,在程序設置層面,狹義“合法行政”強調(diào)行政機關(guān)的行政行為要嚴格遵照法定行政程序的要求,而“最佳行政”則更加希望通過行政程序的創(chuàng)新設計,使得行政決定的作出具有更強的民主性、效率性和可接受性。其四,在司法監(jiān)督方面,狹義“合法行政”視域下的法院是消極而中立的,但“最佳行政”視角則期待法院能夠發(fā)揮其政策形成功能,以反哺行政過程。
總而言之,“最佳行政”的本質(zhì)追求實際上在于:在復雜的行政事務紛涌而至時,政府保有更優(yōu)的治理結(jié)構(gòu)以保證其實現(xiàn)既定的行政目標,并最終達成行政的實質(zhì)合法性。那么,回歸到自動化行政本身,我們此時需要追問的就應當是:機器進行行政決定是否有助于踐行“最佳行政”的基本價值理念?
(二)自動化行政助力實現(xiàn)“行政最佳性”的現(xiàn)實進路 自動化行政不僅不會在根本上沖擊傳統(tǒng)的行政法治原則,而且自動化行政所內(nèi)嵌的機器學習算法還會給行政機關(guān)的工作成效帶來諸多助益。
首先,行政機關(guān)可以借助機器學習算法實現(xiàn)科學決策。行政機關(guān)通過對機器學習算法的運用,可以對社會情勢作出科學預測,從而達至對公共事務的精準治理。“機器學習的核心就是預測:預測我們想要什么,預測我們行為的結(jié)果,預測如何能實現(xiàn)我們的目標,預測世界將如何改變。”雖然傳統(tǒng)國家行政很多時候會投入巨大的人力、物力和財力資源,但公共治理的效果有時卻并不能達到行政機關(guān)的合理預期。這當然與公共行政事務的繁雜性密切相關(guān),但相關(guān)治理手段較為滯后顯然也是重要原因。大數(shù)據(jù)、機器學習等技術(shù)的產(chǎn)生與運用,給行政機關(guān)提升自身之治理效果帶來了時代性的契機。這些信息技術(shù)可以為行政機關(guān)篩選出應當重點治理的領域,從而確保行政機關(guān)能夠?qū)⒂邢薜男姓Y源投放到真正需要加強治理的區(qū)塊。需要指出的是,由于機器學習算法運作的基礎在于數(shù)據(jù),所以數(shù)據(jù)的質(zhì)量和數(shù)量實際上最終決定了機器學習算法的精確度。所以,機器學習算法有時即便不能實現(xiàn)100%(如只有99%)的科學預測率,也不意味著在此準確率(如99%)下的行政決定是失敗的。相反,這說明行政機關(guān)在現(xiàn)有條件下已經(jīng)達到了它的最好治理水平。質(zhì)言之,行政機關(guān)此時的行政決定盡管不是完美的,但卻是最優(yōu)的。
其次,行政機關(guān)可以憑借機器學習算法實現(xiàn)高效決策。“工業(yè)革命使手工業(yè)自動化,信息革命解放了腦力勞動,而機器學習則使自動化本身實現(xiàn)自動化。”機器學習算法的高度自動化,將大大縮短行政決定的作出時間,而這種優(yōu)勢在多階段和交叉并行的行政行為過程中表現(xiàn)的尤為明顯。以國有土地使用權(quán)出讓行政協(xié)議的簽訂為例:相關(guān)行政事項必須先列入規(guī)劃部門的立項計劃,然后經(jīng)由住房與城鄉(xiāng)建設部門審批,最后由國土資源部門對協(xié)議進行蓋章確認。經(jīng)歷這一復雜的行政程序后,該國有土地使用權(quán)出讓協(xié)議才算最終簽訂完成。這是一個系統(tǒng)而費時的過程,但在機器學習算法的介入下,上述事項都將可在瞬間處理完畢。易言之,機器學習算法使得復雜而繁瑣的行政過程變得快速、簡單且高效。
再次,機器學習算法可以幫助行政機關(guān)探尋到解決疑難問題的可行方法。一般來說,算法都包括輸入和輸出兩個環(huán)節(jié)。以往算法的運作過程是:程序員將數(shù)據(jù)輸入計算機,然后計算機內(nèi)置的算法憑借這些輸入的數(shù)據(jù)導出最終的結(jié)果。而機器學習算法則有所不同,它是將一般算法的運行過程直接顛倒過來:程序員向計算機輸入的是數(shù)據(jù)和想要達成的結(jié)果,而計算機最終輸出的卻是算法。也即,程序操作員可以借助機器學習算法而得到勾連“數(shù)據(jù)”與“結(jié)果”之間關(guān)系的其他算法。質(zhì)言之,機器學習算法可以制作其他算法。這就為行政機關(guān)處理復雜行政事項探索出了可行的方法和路徑:行政機關(guān)只要輸入相關(guān)的數(shù)據(jù)和想要達至的行政目標,就可以探尋到能夠?qū)崿F(xiàn)這一行政目標的可行方法。
最后,機器學習算法可以幫助行政機關(guān)和行政相對人走出信息超載的困境。信息時代,不管是行政機關(guān)還是行政相對人,都直面巨量的數(shù)據(jù)。這一方面確實給他們創(chuàng)造了更大的選擇空間,另一方面卻也給他們帶來了信息超載的困擾。易言之,巨量數(shù)據(jù)大大超越了人類的可負載能力,這將延長人們的決策時間、減損人們的決策質(zhì)量且降低人們決策的滿意度。因此,如何從巨量數(shù)據(jù)中快速而準確地擇取到自身真正需要的信息,成為行政機關(guān)和行政相對人所共同面臨的現(xiàn)實難題。而機器學習算法的出現(xiàn),將可以幫助行政機關(guān)和行政相對人走出上述困境。總體而言,機器學習算法可以幫助人們迅速過濾掉不需要的信息,并摘取出自身真正需要的信息。這不僅增進了行為人的選擇自由,也大大降低了行為人篩選信息的成本。具體到行政活動領域,對于行政機關(guān)而言,一方面,精確而有用的數(shù)據(jù)將有助于政府信息公開制度功效的發(fā)揮,更為透明負責的政府之建設得以可能;另一方面,行政機關(guān)可以利用這些更為精確的數(shù)據(jù)來實現(xiàn)對公共事務的科學治理,從而實現(xiàn)行政成本的降低和行政效能的提升。而對于行政相對人來說,機器學習算法在行政過程中的運用,將可以保證相對人能夠從行政機關(guān)處獲得自身真正需要的信息,從而合理安排自身的生產(chǎn)和生活;同時,這也能更好的滿足公民對憲法賦予他們的知情權(quán)這一基本權(quán)利的期待,使得公民得以更充分的展開對行政機關(guān)的監(jiān)督,從而督促行政機關(guān)依法行政。
總之,借助機器學習算法而實現(xiàn)的行政自動化不僅有助于行政機關(guān)更加快速、精準與明智的作出行政決定,也更有利于公民實現(xiàn)其依法所享有的諸項權(quán)利。
(三)自動化行政在增進“行政最佳性”時所需的法律保障機制
自動化行政在增進“最佳行政”方面所具有的諸多優(yōu)勢,是我們在結(jié)果層面所做的評估。那么,如何保障行政自動化能夠切實增進“最佳行政”這一優(yōu)勢的發(fā)揮?筆者認為,這是一項從技術(shù)和法律兩個層面都需要作出努力的事業(yè)。技術(shù)層面的舉措是科學家(特別是算法科學家和計算機科學家)應該重點關(guān)注的事項,而法學家們的任務則在于通過一系列法律制度的設計來保障機器學習算法的順暢運行。盡管如前所述,機器學習算法在行政決定中的運用并不會在根本上對傳統(tǒng)行政法律原則形成沖擊,但是公眾對行政機關(guān)依賴技術(shù)進行行政決定的擔憂并非沒有任何根據(jù)。所以,法學學者們?nèi)匀粦斕嵝研姓C關(guān)謹慎行事,防止行政機關(guān)因不當使用機器學習算法而遭致合法性質(zhì)疑。
首先,機器學習算法在行政決定中的運用需要解決組織權(quán)力來源和決策的民主性問題。我們會發(fā)現(xiàn),機器學習算法在行政決定作出過程中的運用,往往需要行政機關(guān)對決定事項進行編碼,對相關(guān)行政決定的成本和收益作更為細致的量化分析。但在以往,這些行政決定事項都是由行政機關(guān)進行定性判斷。機器學習算法的引入所帶來的這一變化,需要我們反思如下問題:究竟誰才有權(quán)將這種定性的價值判斷問題轉(zhuǎn)化為成本比率的定量分析問題?誰又有權(quán)在機器進行行政決定所面臨的困難與可能提升的準確度之間作出具體的衡量和判斷?這是行政機關(guān)在進行相關(guān)量化工作時所面臨的規(guī)范性問題,故而只能由法規(guī)范來予以回應。
其次,國家需要在程序法制度的設計方面作出更多努力,以防止行政的自動化導致相關(guān)行政決定逸脫法規(guī)范意旨。行政機關(guān)應當保證其給機器植入的算法符合公益需求,從而不帶有任何人為的歧視和偏見。同時,在運用機器學習算法來做行政決定時,行政機關(guān)還應當不時考察算法中數(shù)據(jù)錯誤率與行政決定被撤銷率之間的關(guān)系,以判斷機器進行行政決定是否足夠成功。此外,行政機關(guān)還應當尋找和組建中立的專家組,對行政機關(guān)運用機器學習算法進行行政決定的合法性和有效性做中立而客觀的過程性判斷;如果專家組認為相關(guān)行政決定可能偏離既定目標,可以隨時暫?;蚪K止該行政決定的作出或使得該行政決定得以被溯及性的撤銷。
再次,行政機關(guān)不應當隨意介入個人隱私領域。運用機器學習算法進行行政決定的前提,是行政機關(guān)掌握有大量的數(shù)據(jù)(特別是行政相對人和其他公民的數(shù)據(jù))。由于借由公民個人的數(shù)據(jù)可以清晰地勾畫出公民的網(wǎng)絡肖像和行為軌跡,這顯然已經(jīng)關(guān)涉公民的個人隱私,因此國家此時應當對公民施加足夠充分的保護。即便是對時常以公益代表自居的行政機關(guān),國家也不能允許其隨意對公民的相關(guān)數(shù)據(jù)進行不當利用。具體而言,國家應當對行政機關(guān)在運用機器學習算法而收集、存儲和使用公民數(shù)據(jù)的行為作出相應地規(guī)范:行政機關(guān)不在必要的時候,不得收集公民個人的數(shù)據(jù);對于必須收集的公民數(shù)據(jù),行政機關(guān)應當妥善進行保管和儲存;同時,各行政機構(gòu)之間因公務需要而共享公民的個人數(shù)據(jù)時,還應當確保該數(shù)據(jù)在傳輸時的安全。
最后,在機器學習時代,行政機關(guān)除了在干預行政領域應當遵循一定的法規(guī)范要求外,在給付行政領域也有依法行政的空間。行政的自動化必然會使得原本很多由真人從事的工作被機器所取代。這將直接導致相關(guān)勞動群體失去工作的機會,關(guān)涉勞動者在憲法層面的就業(yè)權(quán),也涉及到行政機關(guān)給付行政職能的發(fā)揮。這雖然是社會信息化后必然會出現(xiàn)的結(jié)果,但政府在其中并非毫無作為的空間。在當前的時代情勢下,行政機關(guān)應當發(fā)揮其宏觀調(diào)控和行政指導的公共行政職能,將公眾就業(yè)方向更多的轉(zhuǎn)移到機器學習算法的設計這一技術(shù)的前端,而非一直固守在技術(shù)運用的末端。只有這樣,我們才能克服公眾對機器學習將導致大面積失業(yè)的恐懼,也才能有效防止人類淪為機器作用的客體。 總之,自動化行政會給行政機關(guān)科學而高效地進行行政決定帶來諸多助益。但是,行政機關(guān)在此中仍然應當審慎行事,并設計相應的法律機制來保障自動化行政能夠切實助力“行政最佳性”的實現(xiàn),從而防止發(fā)生行政機關(guān)決策因逸脫法規(guī)范要求而可能引發(fā)的合法性危機。
結(jié)語
自動化行政活動在現(xiàn)實中已經(jīng)多有發(fā)生,其內(nèi)在的技術(shù)支撐在于以機器學習算法為核心的人工智能。“機器學習是100萬年傳奇中最新的篇章:有了它,不費吹灰之力,世界就能感知你想要的東西,并依此做出改變。”隨著機器學習時代的來臨,行政機關(guān)借助機器學習算法而實現(xiàn)的自動化行政將成為未來的一個趨勢。但由于機器學習算法可以自我學習、具有黑箱特性且可能縮短甚至直接繞過人類來思考,因此它也引發(fā)了公眾對于“人將被機器所控制”的深刻擔憂甚至恐懼。然而,機器學習算法對行政機關(guān)行政決定作出過程的合理參與,并不會對傳統(tǒng)行政法治造成根本性的沖擊,自動化行政仍然符合形式合法性的要求。同時,自動化行政還會讓行政機關(guān)所作出的行政決定更加科學、高效和明智,從而實現(xiàn)“最佳行政”之目標,這就在更深層次證立了自動化行政的實質(zhì)合法性。當然,這并不意味著我們可以對機器作出行政決定的行為聽之任之,行政機關(guān)的行政決定仍然應當在權(quán)力來源、程序設置、公民個人隱私保護以及公眾就業(yè)引導等方面合乎法規(guī)范的要求。我們要防止行政機關(guān)因不當使用機器學習算法而致使相關(guān)行政決定陷入合法性危機。最后,需要指出的是,行政的自動化必然會使一些法律價值遭受減損,但這是國家在引入新技術(shù)和力圖提高行政效能時所必然要付出的代價。而對于國家來說,這其中會涉及到“成本—收益”的總體考量;同時,這也是國家推行信息化大戰(zhàn)略時在公益和私益之間進行結(jié)構(gòu)性平衡的結(jié)果。
評論排行