于一帆:自動化行政中算法的可公開性及其范圍
【ZiDongHua 之人文化天下收錄關鍵詞: 行政自動化 算法 自動化行政】
于一帆:自動化行政中算法的可公開性及其范圍
摘要:在自動化行政中,算法的本質是行政規(guī)則,其可公開性與可解釋性之間存在實質性差異??山忉屝躁P注的是實現(xiàn)透明算法,而可公開性更側重于實現(xiàn)透明政府。有鑒于此,在行政法制度體系中,可解釋性對應行政行為說明理由制度,可公開性對應政府信息公開制度?;谒惴ǖ男姓?guī)則本質,以及《政府信息公開條例》關于政府信息主動公開范圍的規(guī)定,自動化行政中的算法應當予以公開。同時,其應當實現(xiàn)“最大范圍的公開”,即采取源代碼公開的形式選擇。此外,如果確因安全因素不予公開算法,則需要滿足利益沖突標準、價值比較標準與替代方案標準等三項利益衡量標準。
關鍵詞:自動化行政;算法公開;政府信息公開;算法解釋
在“互聯(lián)網+行政”的背景下,行政決定、程序等內容的圖示化、智能化已成趨勢,學界將此類通過人工智能、大數(shù)據等展開的行政活動普遍描述為自動化行政。實踐中,算法或是輔助行政主體,或是直接作出行政決定,在自動化行政中扮演愈發(fā)重要的角色。而當前,自動化行政中的算法規(guī)制仍處于以算法解釋權為核心的體系之中,忽視了公法與私法之間保護場景與規(guī)制方式的差異。申言之,算法解釋權過于關注運算結果的可解釋性,強調“透明算法”而非“透明政府”,忽視了行政法制度原有的公開要求。2022年6月,河南維權儲戶離奇被賦“紅碼”事件表明,行政機關的算法權力濫用之時,僅憑對結果的片面解釋無法充分回應相對人的知情訴求,相對人無從知曉被賦“紅碼”的真實原因,如無輿論關注,其人身權利救濟更是無從談起。因此,深入審視自動化行政中的算法公開問題,無論對于限制政府算法權力,還是保障公民的知情權和監(jiān)督權而言,均確有必要。從另一角度考量,一旦行政機關收到相對人的算法公開申請,那么制度上亦應有所回應,以確保行政法體系在算法時代仍能保有生命力。由此,本文試圖以自動化行政中算法的性質與層次作為出發(fā)點,探討算法在政府信息公開制度下的可公開性及其范圍,為相對人的算法知情權保障提供理論方案。
一、自動化行政中算法的性質與層次
?。ㄒ唬┳鳛樾姓?guī)則的算法
算法的實質是規(guī)則。這一實質由其定義就可以直接體現(xiàn):“一個算法就是一個有窮規(guī)則的集合,其中的規(guī)則規(guī)定了一個解決某一特定類型問題的運算序列。” 通俗地說,算法就是一系列解決問題的清晰指令。算法通過其確定性、模型化的特征,構建起解決問題的技術機制。在算法行政的場景中,行政機關通過技術手段制作算法,為數(shù)據設定具體的處理規(guī)則,以形成處理結果,輔助行政機關行使職權,進而提升行政效率。算法在行政法體系中的性質應為行政規(guī)則。行政規(guī)則即行政機關創(chuàng)制的規(guī)則,包括兩種類型:一是“通過行政立法制定的規(guī)則,即行政法規(guī)和行政規(guī)章”;二是“行政主體在行政立法所立之法以外建立的普遍性規(guī)則”,即行政規(guī)范。雖然算法是一種規(guī)則,可是并不能直接得出自動化行政中的算法是行政規(guī)則這一結論。而有如下三項理由,能夠證成其性質:
一是效果上,自動化行政中的算法具有普遍性特征。行政規(guī)則的普遍適用性,是其不可或缺的構成要件,這得益于行政規(guī)則本身所具有的“化繁為簡”的能力。不同的行政相對人,其情況具有個體差異性,卻平等地適用同一套行政規(guī)則來解決問題。同樣地,算法亦符合普遍適用性的深層機理??挤蚵谄?ldquo;事物本質”的命題中指出,法規(guī)范所指涉的生活關系乃是一種本身已經組構過的事實,其涉及人與人之間的關系,因此其本身已內含一定的意義。在此意義上,作為一種規(guī)則的算法,應用于行政場景之中時,即已具備行政規(guī)則的本質意義。無論是應用于環(huán)境監(jiān)測、應急防疫等反應型算法,還是交通擁堵預測等預測型算法,均具有平等應用性以及化繁為簡的模型化能力。因此,自動化行政中的算法普遍適用于相對人,其實質是行政規(guī)則。
二是內容上,自動化行政中的算法以行政規(guī)則為基底。自動化行政中的算法與商業(yè)算法最大的區(qū)別在于,前者的制定需要法律上的依據。此系行政法定原則的要求,即“法無明文規(guī)定不得任意行政”。故而,無論是行政機關的自制算法,或是其委托第三方制作的算法,均應在已經制定的行政規(guī)則的基礎之上,完成技術性創(chuàng)制。例如,在自動化行政審批的場景下,審批通過與否的規(guī)則已經事先制定,而后在規(guī)則文本的基礎上進行技術創(chuàng)制,形成算法。在此項程序中,技術性創(chuàng)制,實質上就是行政規(guī)則的代碼化呈現(xiàn)。
三是功能上,算法在行政程序中承擔的角色即為行政規(guī)則。以健康碼的算法為例,在防疫過程中,工作人員將按照以下步驟對相對人的感染風險進行判斷:
如果在沒有電子設備的年代(圖1中的A1、B1、C1的流程),如需獲知相對人的風險等級結果,行政機關需要按照既定的規(guī)則,借助相對人提供的或行政機關調查得知的信息,對相對人的風險情況進行逐一判斷。而在算法時代,算法即是規(guī)則,收集數(shù)據代替了調查過程。于是,健康碼便代替了防疫人員的人工鑒別。那么對比A1和A2這兩個過程可知,二者的區(qū)別就在于:電子設備代替行政人員成為判斷主體,算法代替文本規(guī)則成為行政規(guī)則的主要形式。由此可知,在自動化行政的場域下,算法承擔的就是行政規(guī)則的功能。
(二)具有文本規(guī)則與技術規(guī)則雙重層次的算法
如前所述,算法以行政規(guī)則為其內容基礎,加之技術性轉化,而最終投入使用。這一過程就以技術處理為界,將算法分割為兩個層次:代碼化之前的算法,即為文本規(guī)則;代碼化之后的算法,即為技術規(guī)則。算法雙重層次之間的關系,在行政場景中體現(xiàn)為數(shù)字孿生關系、形式與實質的關系。
首先,技術規(guī)則是文本規(guī)則的數(shù)字鏡像,二者體現(xiàn)為數(shù)字孿生關系。在自動化行政算法之中,技術規(guī)則是根據文本規(guī)則制定的,二者的目標與功能皆一致,分別在數(shù)字世界與現(xiàn)實世界實現(xiàn)其公共目的。由此,文本規(guī)則與技術規(guī)則就分別對應著算法的實體規(guī)則與數(shù)字鏡像,二者屬于數(shù)字孿生關系。然而,這并非表明文本規(guī)則與技術規(guī)則是完全對應的關系,代碼并不是對文字的簡單翻譯,而是對既定規(guī)則的數(shù)字化表達。在此意義上說,此種數(shù)字孿生關系意味著目標、功能與效果上的等同性。
其次,文本規(guī)則與技術規(guī)則是形式與實質的關系。例如,交通自動化執(zhí)法場景中以交通法規(guī)為文本規(guī)則,然而,對相對人處罰結果出現(xiàn)偏差或錯誤通常卻是由于技術規(guī)則的設定錯漏。又如,健康碼的算法通常將文本規(guī)則對外發(fā)布,然而技術規(guī)則常常會導致算法處理結果與其規(guī)則并不一致。在河南為村鎮(zhèn)銀行維權儲戶賦紅碼的事件中,根據外在形式上的賦碼規(guī)則,維權儲戶并不屬于應被賦紅碼的人員范圍,真正造成其被限制人身自由的是算法的技術規(guī)則。故而,自動化行政中的算法將文本規(guī)則進行技術性轉化,才成為真正發(fā)揮作用的算法。因此,文本規(guī)則僅具有外在形式性,技術規(guī)則才是自動化行政中算法的實質規(guī)則。
二、自動化行政中算法可公開性的廓清與證成
?。ㄒ唬┳詣踊姓兴惴ü_的邏輯糾偏:可公開性不等同于可解釋性
在以往的算法規(guī)制邏輯下,算法公開與算法解釋都是增強算法透明度的具體措施,意在打開算法黑箱,實現(xiàn)算法的可問責性。有學者認為算法透明指的是,“由算法的設計使用者披露有關算法如何部署、如何工作以及如何使用算法等相關信息,以期由監(jiān)管部門或第三方進行監(jiān)管的制度”。簡言之,算法透明追求的是使人清晰地獲知算法如何運行。在此基礎上,學界開始嘗試建構算法透明的多種方案。算法公開便是其中一項重要手段,具體路徑是公開算法的源代碼。然而,由于其“可能導致社會主體鉆算法的空子,采用各種方式來‘算計’算法的問題”,以及公眾對算法知識的掌握程度不夠,而導致算法公開并不能真正達到監(jiān)督目的等原因,源代碼的公開往往不被提倡。在此背景下,算法的可解釋性被認為是增強算法透明度的更優(yōu)解。通常而言,算法的可解釋性“是算法模型的客觀屬性,即某一算法在技術架構上是否具備了作算法解釋的條件”。算法只有具有可解釋性,建構起人工智能和人類之間的對話機制,才能使人們的認識達成共識。
然而,我們從上述分析可以看出,無論是算法公開或是算法解釋,均站在技術主義的立場,而忽視了其中的法治主義邏輯。在技術主義的立場上,“評價人工智能技術導致的后果,只有客觀上的‘對與錯’,而無行為人主觀上的‘故意’或‘過失’”。而依循法治主義邏輯,算法公開關注的是:依照法律,行政機關在算法公開方面具有怎樣的義務,行政機關做什么、做到什么程度,才能達到法律上公開透明的要求。換言之,自動化行政中的算法公開并不是為了監(jiān)督算法運行,而是以監(jiān)督政府為目標。算法可公開性的基本邏輯是規(guī)制行政機關的算法權力,其本質是為實現(xiàn)透明政府,而非追求透明算法。反對者可能會認為,實現(xiàn)了透明算法,就等于是實現(xiàn)了政府的行政公開義務。但實際上,這就混淆了手段與目的:采取了算法透明的手段,并不一定代表行政機關履行公開義務就達到了法律的要求,亦不代表公眾的知情權和監(jiān)督權就能夠實現(xiàn)。
基于算法可公開性與可解釋性的差異,在落實行政公開原則時,二者亦具有不同的制度適用。自動化行政中的算法解釋對應著行政行為說明理由制度。《中華人民共和國個人信息保護法》第24條第3款規(guī)定了行政機關對算法決策的依申請說理義務:“通過自動化決策方式作出對個人權益有重大影響的決定,個人有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定。”置于行政法體系之下,這一規(guī)定實為行政行為說明理由制度的變體,“旨在苛以決策者負擔對其作出事關數(shù)據主體和利益相關者權益的決定說明理由之義務”。然而,上述算法依申請解釋路徑,卻造成了監(jiān)督的真空。技術規(guī)則才是自動化行政中實際發(fā)揮作用的規(guī)則,如果只是通過說明理由制度進行監(jiān)督和追溯,那么其重點便會聚焦于算法的文本規(guī)則,作為算法實質性規(guī)則的技術規(guī)則,將幾乎無法得到審查。行政機關是否設置“陰陽規(guī)則”以實現(xiàn)與其外在目的不一致的內在目的,是否存在濫用職權行為,以及受委托的技術公司是否如實實現(xiàn)文本規(guī)則,是否假借公益追求私益等問題,無法簡單地通過說明理由制度使公眾得以知曉。然而有學者認為,“算法即使向社會公開,普通公眾同樣難以理解”??墒?,公開算法的行為本身對于行政機關的監(jiān)督作用更為重大:公開算法,政府的實際意圖便呈現(xiàn)在公眾面前,就有被監(jiān)督和質疑的可能,其行使權力時便能“有所忌憚”;而不公開算法,公眾永遠無法得知算法實際上如何運作,則行政機關利用算法實現(xiàn)其他目的就具有了空間。
算法公開在行政法體系中對應著政府信息公開制度。在現(xiàn)代行政法治中,政府信息公開是規(guī)范行政權力,保障公民知情權、參與權、監(jiān)督權等民主權利的重要制度。我國政府信息公開的制度目的,一是服務生產、生活或科研的需要;二是突發(fā)事件的應急管理需要;三是貫徹世界貿易組織透明度原則的要求;四是行政公開的需要;五是反腐倡廉和推進民主政治建設的需要;六是保障公民知情權。由此可知,政府信息公開的制度內核與行政行為說明理由制度并不相同。其并非要求對具體行政行為的結果“給出交代”或“自證清白”,而是公開政府信息這一行為本身就可以實現(xiàn)其制度目標。政府信息公開制度下算法公開的主要目的是實現(xiàn)公民的知情權與監(jiān)督權,以及滿足公民生產生活或科研的需要。
?。ǘ┳詣踊姓兴惴ǖ目晒_性證成
自動化行政中算法的可公開性是由其行政規(guī)則的本質所決定的?!吨腥A人民共和國政府信息公開條例》(以下簡稱《政府信息公開條例》)規(guī)定政府信息以公開為常態(tài),不公開為例外,同時,行政規(guī)則亦屬于第20條規(guī)定的主動公開的范疇?!墩畔⒐_條例》第20條采取正面列舉與兜底列舉相結合的方式,說明了法定主動公開的內容。其中第1款便是“行政法規(guī)、規(guī)章和規(guī)范性文件”。而行政規(guī)則以行政法規(guī)、規(guī)章和規(guī)范性文件為文本載體。因此,作為一種行政規(guī)則的算法自然應屬于主動公開的政府信息。雖然并非所有算法都有其文本載體,但從立法目的上看,各種形式的行政規(guī)則均應屬于主動公開的范圍,算法亦不例外。
然而,在解決算法公開問題時,行政機關可能會主張行政行為是由算法自動作出的,因算法黑箱具有不可解釋性,或者以商業(yè)秘密或危及國家安全為由拒絕解釋。對于行政行為中亦存在“算法黑箱具有不可解釋性”這一說法,可從兩方面予以回應:一方面,“算法黑箱是刻意保密的結果,是人為制造的,是權力的表達而非算法的本質”。自動化行政中更是如此。行政規(guī)則是既定的,而是否選擇使用算法、選擇使用復雜程度如何的算法,都取決于行政機關。申言之,行政機關使用算法行政,即使是具有高度自動化能力的系統(tǒng),“亦系公務員預先輸入之程式及資料而運作”。此時,“行政機關仍為行政程序之主宰,所為之表示或決定,皆為行政機關之行為,并非以‘物’役‘人’”。另一方面,算法的文本規(guī)則決定了算法能否存在。無規(guī)則即無算法,因此無論技術規(guī)則如何,皆不能否定算法由其規(guī)則本質所決定的可公開性。而公開后可能導致算法系統(tǒng)被攻擊、算計等問題,皆為技術規(guī)則可能導致的缺陷,可以通過調整公開的范圍予以規(guī)避,而不應因此否定算法的可公開性。
算法欲真正實現(xiàn)公開,還需破除政府信息公開制度的豁免條款障礙,其中最主要的是商業(yè)秘密豁免。在美國,用于量刑的算法被法官認定為商業(yè)秘密予以嚴格保護,也就是將算法黑箱看作一種正常情形,既不要求企業(yè)公開算法代碼,更不會要求企業(yè)向公眾說明該算法的工作原理。對于自動化行政中的算法是否被認定為商業(yè)秘密的問題,筆者認為,自動化行政中的算法與商業(yè)算法有別,其性質不應被認定為商業(yè)秘密。理由有兩項:第一,自動化行政中的算法往往不能保持秘密性。在算法較為簡單的情況下,大多都可以通過反向工程推出。因為“許多算法決策不依賴于難以理解的深度神經網絡,而是較不復雜和更易解釋的模型,例如決策樹”。此時,該算法便不具有秘密性。第二,即使算法較為復雜,也不應認定為商業(yè)秘密。原因在于,盡管某些機器學習算法系統(tǒng)生成的結果難以在事前預測,并且難以用傳統(tǒng)方法進行解釋,但采用機器學習這一決定本身就是設計系統(tǒng)時的人為選擇。換言之,由于目前算法決策多具有可解釋性,受委托制作算法的第三方機構在明知算法公共性的情況下,仍使用極為復雜、不可解釋的算法,同時又要求認定為商業(yè)秘密,這便屬于消極應對公開。既想要賺取制作算法的巨大收益,又不愿尊重行政公開的要求,故不應對此進行保護。其中的根本邏輯是:在算法行政中,行政優(yōu)先于算法,算法應在行政法治價值所設定的范圍內使用。當算法能夠助益行政時,則可以優(yōu)先使用;但當使用算法可能破壞長期以來形成的行政法治價值時,便應秉持更為審慎的態(tài)度。
三、自動化行政中算法公開的范圍
自動化行政中,算法應以源代碼方式公開,還是以解釋的方式公開,這表面上是形式問題,實為公開范圍問題。解釋得越多,概括性便越強,實際公開的范圍越小。在我國現(xiàn)階段的自動化行政實踐中,算法公開至何種范圍,亦無制度規(guī)范。在算法公開的立場之下,如何既保證自動化行政中算法的公開透明,又能夠不影響政府信息系統(tǒng)安全,這是亟須解決的難題。在世界范圍內,關于算法公開問題已有多種做法或學界較認同的方案,或許可以為我國確定算法公開范圍提供參考。
?。ㄒ唬┳詣踊姓兴惴ü_范圍的方案檢視
第一種方案是文本規(guī)則的公開+技術規(guī)則的詮釋,其對應著最小范圍的算法公開。法國2016年頒布的《數(shù)字共和國法》,賦予了公民對關于個人的、基于算法的行政決定要求解釋的權利,即在“基于算法處理的決定”的情況下,必須在要求時提供定義這種處理及其主要特征的規(guī)則;此外,在2017年,法國進一步明確行政機關還應提供算法對行政決定的影響程度和方式、算法參數(shù)及其權重等信息。該路徑規(guī)定了一條算法公開的底線,即對于算法的文本規(guī)則應當公開。而對于技術規(guī)則,則采取以結果為導向的文字化概括,力求算法規(guī)則的明晰與過程的各階可控。
然而,“公開文本規(guī)則+釋明技術規(guī)則”的路徑與我國政府信息公開制度不相兼容。我國政府信息公開制度的核心在于“公開”,而非“說理”。如果要求政府在依申請公開的基礎上對其解釋說明,相當于超越了政府信息公開制度的規(guī)定,賦予了行政機關另外的義務,這可能會造成成本過載。在信息公開制度中,“主動公開信息方式的確定應當遵循一條基本原則,既要方便公眾周知,又不能過高增加公開成本和妨礙行政效率”。前述方式置于算法解釋制度尚且可行。但在信息公開制度框架內,強調說理則顯得成本過高。即使在非常重視行政公開的英國,也有學者指出,“要求決定者對日常的行政事務提供最基本理由之外的理由,可能是一項繁重的負擔”。
第二種路徑是公開算法的源代碼,其對應著最大范圍的公開。在美國紐約市,有議員提出議案,要求通過立法強制政府機構披露算法的源代碼。無條件地公開源代碼,實際上是一種最大范圍的公開。此種方式雖然具有公開的必要性,但仍常被批判為過于激進。紐約市亦因此采取了以個人權利保護為導向的算法解釋路徑作為替代。然而,公開源代碼的方式在我國卻得到了支持。有學者認為,對于一般公眾可理解、不存在技術隔閡的自動化行政算法,應當無條件公開,除非該算法因特定治理需要經法定程序被認定為應當保密。實踐中,也有部分行政機關向公眾提供了代碼信息訪問渠道,例如上海市公共數(shù)據開放平臺提供了2000多個數(shù)據接口。如前所述,我國政府信息公開制度的基本原則是以公開為常態(tài),不公開為例外。從這一制度立場可知,我國自動化行政中的算法應進行最大范圍的公開,即在形式上采取算法源代碼公開的路徑選擇。因此,第二種路徑系對算法的代碼公開,符合我國政府信息公開制度的基本要求。
第三種路徑是向無利害關系的第三方“定向開源”,其對應著公開范圍的中間路徑。英國下議院科技委員會要求向無利害關系的第三方“定向開源”。其主張:“政府應當公布和印發(fā)中央政府系統(tǒng)中重要算法引擎的使用列表,并允許外界對這些算法進行審查。”我國亦有學者支持“定向開源”路徑,但其實施方式與范圍與上述方案略有所不同。例如,有學者主張根據算法的類型來區(qū)分:“對于存在技術門檻、常人難以理解的學習型算法,應面向專業(yè)且中立的第三方技術人員公開,由其進行影響評估,這可以引入以技術制約技術的機制。”又如,“考量私益和公益的平衡,實施有限度的公開,即僅對政府治理決策者以及對行政決定持不信任態(tài)度的直接行政相對人公開”。上述幾種“定向開源”的方式,或是縮小公開范圍,或是限制公開類型,相當于附條件的算法公開,屬于算法公開范圍的中間路徑。
然而,無論是何種“定向開源”,都反映出信息公開覆蓋對象的不全面。這恰恰與政府信息公開制度的修正背道而馳。2007年《政府信息公開條例》第13條設定了“根據自身生產、生活、科研等特殊需要”這一限定申請人目的的“三需要”條款,由于限定只有與信息具有特殊關聯(lián)的人才享有獲取該政府信息的權利和利益,而被學者所詬病。其原因在于,“政府信息公開的目的不僅在于為人民群眾生產、生活和經濟社會活動提供服務,更在于提高政府工作的透明度,監(jiān)督行政機關依法行政”。故此,2019年修訂的《政府信息公開條例》第13條刪除了“三需要”的限定條件,意在擴大申請人范圍,充分體現(xiàn)出我國政府信息公開對象的普遍性追求。因而無論是何種形式的“定向”,都缺乏制度根據,亦與政府信息公開制度的基本價值相背離。因此,經信息公開制度的檢視可知,其要求自動化行政中的算法應當實現(xiàn)“最大范圍的公開”,即選擇算法源代碼公開的形式路徑。
?。ǘ┳詣踊姓兴惴ú挥韫_的衡量標準
雖然應對自動化行政中的算法實施最大范圍的公開,但《政府信息公開條例》中仍有第14條的“三安全一穩(wěn)定”事由可以阻礙算法的最大范圍公開。由于算法公開較難撼動社會穩(wěn)定,因此下文將著重分析阻礙算法公開的“三安全”因素,并將其統(tǒng)稱為安全因素或安全事由。筆者認為,滿足如下三項利益衡量標準,才能以危害安全為由拒絕公開算法。
第一,利益沖突標準,即利益沖突是否實際存在,且無可避免。如行政機關以安全事由為由拒絕算法公開,則利益雙方之中,一方代表著國家安全、公共安全、經濟安全,另一方則代表著公民對算法的知情權與監(jiān)督權。由此,以危及公共安全的衡量過程為例,此階段的利益衡量需要以下兩個步驟:其一,需要明確公共安全的范疇。在刑法“危害公共安全罪”中,公共安全是指不特定人的生命、健康和財產的安全,包括不特定的少數(shù)和不特定的多數(shù)在內。由此可見,公共安全所指涉的利益實際上是不特定人的生命、健康和財產權益。除此之外,危及其他權益并不能稱之為危及公共安全。其二,明確算法公開與危及公共安全構成法律上的因果關系。根據相當因果關系理論可知,具備法律上的因果關系,即所謂的“客觀蓋然性”標準,需要滿足以下兩個條件:一是該事件為損害發(fā)生之“不可欠缺的條件”,即必要條件;二是該事件實質上增加了損害發(fā)生的客觀可能性。一個較為典型的例證是預測型警務算法。如果將其公開,即符合危及公共安全的客觀蓋然性標準:將要危害公共安全的人員可能根據已公開的算法推測出警力的調配而選擇實施地點,故而危及公共安全的客觀可能性將隨之增加。如若無法達到客觀蓋然性標準,則不能認為兩者具有因果關系,利益沖突便不存在。
第二,價值比較標準,即拒絕公開算法擬維護的利益是否具有位階上的優(yōu)勢。“利益衡量的過程就是對相關利益進行比較和取舍的過程,而這一過程屬于典型的價值判斷。”在政府信息公開的制度語境下,價值比較標準通常被描述為:“越接近信息公開的立法目的,公開的分量越重;越接近例外事項的利益,不公開的可能性越大,公開的公共利益超越公開造成的損害時,選擇公開信息,反之,選擇不公開信息。”在算法公開的議題下,這便意味著安全利益與公民對算法的知情監(jiān)督權益之間的“分量”比較,進而得出孰輕孰重的結論。從已有的通識性價值排序可知,以人性尊嚴為基點,按照接近性原則,區(qū)分基本權利的位階秩序,即越能接近人性尊嚴的權利,其位階越高,反之越低。具言之,生命權及人格權位階最高,人身自由和言論自由緊隨其后,接續(xù)排列的依次是生存權、民主社會中有利于政治意志形成的權利,以及其他基本權利。按照此種位階秩序,安全利益關涉生命權、人格權、人身自由、生存權,等等。而知情權與監(jiān)督權對應的是“民主社會中有利于政治意志形成的權利”,位階稍低。據此似乎可以得出一項結論,即安全法益優(yōu)于知情權與監(jiān)督權的法益。然而,安全的范圍過于宏大,其背后的利益亦太過寬泛,仍需要在個案中對其進行具體把握,才能最終確定利益位階。如果確有必要因安全因素而判定算法不予公開,那么還需以第三項標準的檢驗作為前置條件。
第三,替代方案標準,即是否存在部分公開或區(qū)別處理的方案。利益衡量要在諸多利益中進行協(xié)調和兼顧。在許多情況下,行政機關選擇一種價值的同時,并不一定要放棄其他價值,而是要盡量在沖突利益之間尋找平衡。在算法公開衡量中,行政機關在作出不予公開的決定之前,應考量是否還有部分公開或區(qū)別處理的方案,此系行政均衡原則的具體要求。行政均衡原則是利益衡量的一般準則,要求行政機關在權衡各種利益時,應當綜合衡量各種利益因素,充分協(xié)調各種利益關系,使之有機地統(tǒng)一起來,在盡可能的范圍內保護各種合法利益。同時,根據《政府信息公開條例》第37條規(guī)定的“區(qū)分處理”規(guī)則,行政機關“應當向申請人提供可以公開的政府信息內容,并對不予公開的內容說明理由”。依此規(guī)定,行政機關可以選擇將部分信息抹除,向社會公開并不危及安全的內容,最大限度地保證公眾的知情與監(jiān)督權益。
結語
隨著自動化行政的發(fā)展,算法公開成為愈發(fā)重要的議題,關乎算法時代的透明政府建設,亦是算法行政的監(jiān)督基礎。無論自動化行政中的算法公開以政府信息公開為依托,抑或在立法中直接將其規(guī)定為一種信息公開的類型,均應堅持與算法解釋不同的公開進路,并秉持最大范圍公開的基本立場,充分履行公開義務。從長遠考慮,對于自動化行政中的算法公開,可以通過公私法協(xié)同機制予以落實。我國已有學者探討了算法專利適格性,其認為應確認算法“公開換保護”的價值意涵,通過算法專利權的法律保護,建立算法創(chuàng)新的合理保護基礎。此種機制更有利于處理信息公開與商業(yè)秘密保護之間的利益沖突,也能夠保障算法的實質公開。但無論制度怎樣設計,都不應破壞現(xiàn)代行政法治價值,應使算法真正助力行政,促進數(shù)字政府與透明政府的同步建設。
我要收藏
個贊
評論排行