如果說網(wǎng)絡立法1.0時代美國《千禧年數(shù)字版權法》建立的安全港制度,旨在保護以信息網(wǎng)絡傳播權為主要服務內容的互聯(lián)網(wǎng)企業(yè),那么網(wǎng)絡立法2.0時代則開啟了以個人數(shù)據(jù)和個人信息為重要保護對象的用戶權利時代。在這個圍繞數(shù)據(jù)收集、加工、利用和分發(fā)為核心的世界數(shù)據(jù)工廠中,網(wǎng)絡企業(yè)利益和個人利益的此消彼長既可能影響私法主體的個體利益,也可能影響不特定群體的利益,甚至會觸及作為社會基本行為規(guī)范邊界的法律制度。因此,一些早期網(wǎng)絡立法中不被重視的內容才在人工智能技術圖景日漸擴大的版圖上再次顯露出來,并彰顯了越來越強的重要性。自動化決策的算法解釋權正是其中之一。

目前自動化決策算法的主要應用場景有:定制信息的推送、顧問型服務(如智能投顧、機器人醫(yī)生)、自動化駕駛汽車、搜索引擎服務等。盡管法律本體論專家正在努力將規(guī)范約束植入機器人的開發(fā)協(xié)議或計算機芯片之中,但客觀情況是,法律對產品型算法和服務型算法采取了完全不同的責任構成要求。換言之,在具有實體基礎依歸或載體的算法責任事件中,人們過于依賴現(xiàn)行的產品侵權責任的立法,而沒有充分考慮自動化決策算法本身的侵權責任。盡管機器人醫(yī)生未必在接入互聯(lián)網(wǎng)的狀態(tài)下進行工作,但其所用以訓練的數(shù)據(jù)集和執(zhí)行具體手術的深度學習算法,可以很容易地同步該領域最新的線上、線下研究成果。因此,建立在技術中立原則基礎上的網(wǎng)絡1.0立法,主要是一種責任免除型而非責任構成型立法,意圖促進當時正處于萌芽和發(fā)展期的互聯(lián)網(wǎng)企業(yè)。然而,隨著時間的推移,不僅資本大舉進入該行業(yè),人工智能技術的發(fā)展也令算法服務的相對人在服務中越來越處于客體化和被邊緣化的地位。算法解釋權可看作人類為捍衛(wèi)人的自我決定權,對抗數(shù)據(jù)控制者和處理者的一種努力。

與網(wǎng)絡立法1.0時代的接入、傳輸、轉發(fā)服務所引起的間接侵權不同,網(wǎng)絡立法2.0時代,算法服務提供者更多地以直接侵權行為主體的面目出現(xiàn)。算法服務提供者需要從網(wǎng)絡用戶的個人信息、行為軌跡,甚至投訴過程中,全方位將用戶作為機器學習的樣本、大數(shù)據(jù)的來源、人機交互的模仿對象和虛擬社會構建的現(xiàn)實場景。在設計、制造和完善算法的過程中,在構建獨立于現(xiàn)實經濟社會之外的虛擬經濟社會時,需要近距離觀察、研究、追蹤、分析,甚至是監(jiān)測(如各種傳感器、衛(wèi)星遙感技術、攝像頭等物聯(lián)網(wǎng)技術)用戶的全場景的活動。這些數(shù)據(jù)的碎片共同構成了以自動學習算法為代表的智能工業(yè)熔爐的燃料,以甄別、預測、激發(fā)用戶需求,從而為用戶定制服務或拒絕服務。用戶在服務中的主動權也不斷被弱化??梢?,上述代表性算法服務(產品)都可看作一種廣義的算法技術為核心的服務合同。由此,算法服務提供者便具有了合同法上的從給付義務和附隨義務。

出于保護企業(yè)商業(yè)秘密和減輕負擔的角度,不可能要求提供算法服務的企業(yè)對所有算法均進行解釋。因此,歐盟對自動化決策的算法解釋權作出了限制。該制度最早見于歐盟《數(shù)據(jù)保護指令》第15條,由于該條僅規(guī)范特定類型的算法,而訴訟中爭議最大的是決策是否純粹由機器(人)做出。因此,該條款既沒有在歐洲法院受到太多重視,更鮮有被歐洲之外法律制度借鑒。隨著深度學習技術的廣泛應用,自動化決策場景增多,引發(fā)的爭議也日趨激烈。

歐盟《一般數(shù)據(jù)保護條例》在多個條款中規(guī)定了自動化決策算法的問題,包括“鑒于”的第71條(以下簡稱“第71條”),正文的第13條、第14條和第22條。作為同樣以“自動化決定”為標題的條款,第22條在第15條的基礎上沒有增加實質性的內容,只是補充了明示同意作為不受自動化決定的例外;并在第15條數(shù)據(jù)主體有權表達觀點之外,增加了對決定提出異議的權利,將二者概括為獲得人為干預的權利。這主要是機器學習算法的動態(tài)學習程度輸出結果不確定,人類難以有效監(jiān)督,而人工標簽等歧視性輸入變量,也有導致算法偏見潛在風險??梢姡惴ń忉寵啾举|是一種基于基本人權而衍生的意志自決權和受到公平對待的權利。有學者僅以第71條來理解算法解釋權,也有學者將正式條文的第13條第2款f項和第14條第2款g項的算法邏輯、數(shù)據(jù)處理重要性和后果的告知義務看作解釋權,還有學者把第22條解讀為反自動化決策權。誠然,這幾個與自動化決策算法有關的條文具有一定聯(lián)系,其區(qū)別于非自動化決策的算法,但它們也有顯著不同。

《一般數(shù)據(jù)保護條例》第13條和第14條的算法邏輯、數(shù)據(jù)處理重要性和后果的告知義務,是一種未產生不公平后果的一般性的、為保護知情權的說明義務。而第71條和第22條則是基于評估結果做出決定的保障措施及其例外條款。第71條和第22條均以將對數(shù)據(jù)主體產生法律后果或類似重大影響作為前提,并包含了該決定對雙方合同的達成和履行的必要性原則,或決定經過數(shù)據(jù)主體明示同意的隱性條件??梢姡?1條承擔的更多是保護數(shù)據(jù)主體的權利的立法職能,而第22條則為自動化決策算法設置了必要性和同意的例外條款。從二者的關系來看,根據(jù)第71條,即使在例外條款存在時,數(shù)據(jù)主體依然享有解釋權,僅應受該決定的約束。如果將第71條第2段看成對算法透明原則進行事先規(guī)定的話,則第71條第1段所指的,對評估后作出的決定做出解釋的算法解釋權,其實是內含于對抗自動化決定算法的“適當?shù)姆婪洞胧?rdquo;之一,是與明確告知相關信息并告知其有要求人工干預、表達觀點、異議權相并列的一種請求說明的權利。

它不同于算法透明原則項下的知情權。根據(jù)美國計算機協(xié)會2017年公布的算法治理七項原則,知情權是應該披露算法設計、執(zhí)行、使用過程中可能存在的偏見和可能造成的潛在危害。顯然,它未必與自動化決策和以個人敏感信息評估為前提的決定有關。而該解釋權不僅是一種被動性防御的權利,可視為與表達觀點、提出異議并列的權利,從而成為獲得人為干預等替代選擇的基礎。若按這個邏輯進行解釋,可將算法解釋權看成一種對合同履行行為符合雙方締約目的或合同基礎的說明義務。由此,作為提供算法服務的一方主體,根據(jù)《民法典》第496條,對于對方有重大利害關系的條款,除參考歐盟《一般數(shù)據(jù)保護條例》第13條、第14條進行告知外,還負有法定的說明義務,否則對方可以主張該條款不構成合同的內容。故算法解釋權兼具算法服務者說明義務與數(shù)據(jù)主體自決權的雙重屬性。

《個人信息保護法(草案)》第25條未規(guī)定例外條款,這可能使算法提供者失去了在對方提出異議時,根據(jù)必要性原則和明示同意進行抗辯的可能性。更為重要的是,第25條將限縮了解釋權的適用場景,僅規(guī)定了產生重大影響,未規(guī)定產生法律效力,且將證明是否重大的舉證負擔分配給了數(shù)據(jù)主體。這對于數(shù)據(jù)主體行使解釋權十分不利。第54條要求信息處理者對自動化決策進行事前風險評估,并對處理情況進行記錄,這是一種事前的行政性的算法風險評估措施,只能從算法設計角度起到一定的預防性作用,但不能與個人的具體解釋權的權利請求相結合,仍難以實質上成為主張算法服務提供者進行人工干預,或提供不針對個人特征的選項的條件。盡管第25條第2款規(guī)定了算法服務提供者進行商業(yè)營銷、信息推送時,提供無個人特征選項的義務,但信息推送服務以外的人工干預可能性很難通過對該款的擴張解釋,或根據(jù)第54條的算法評估來實現(xiàn)。

(作者單位:北京化工大學法律系)