【ZiDongHua 之人文化天下收錄關(guān)鍵詞:林睿堯  算法自動(dòng)化決策  算法 自動(dòng)化決策 個(gè)人信息保護(hù)法     智能決策 】

林睿堯丨論算法自動(dòng)化決策中“不合理的差別待遇”的認(rèn)定

林睿堯

中央財(cái)經(jīng)大學(xué)法學(xué)院碩士研究生

要目

一、問(wèn)題的提出

二、不合理差別待遇規(guī)則的基本構(gòu)造及主要問(wèn)題

三、不合理差別待遇概念的厘清

四、不合理差別待遇的具體認(rèn)定方法

結(jié)論

個(gè)人信息保護(hù)法第24條第1款規(guī)定了禁止不合理差別待遇規(guī)則,但是該款沒(méi)有厘清不合理差別待遇概念的具體內(nèi)涵外延,同時(shí)也缺少具體的判斷標(biāo)準(zhǔn),在實(shí)踐中一方面導(dǎo)致當(dāng)事人舉證困難而難以得到救濟(jì),另一方面導(dǎo)致該條款難以適用而被架空。對(duì)此,應(yīng)在區(qū)分其他近似概念與不合理差別待遇概念的基礎(chǔ)上,將其界定為“以自動(dòng)化決策為前提、以‘合理’為衡量標(biāo)準(zhǔn)、以算法個(gè)性化定價(jià)為典型表現(xiàn)形式且無(wú)涉身份權(quán)的算法偏見(jiàn)”。在此基礎(chǔ)上,可以通過(guò)透明度標(biāo)準(zhǔn)和公平性標(biāo)準(zhǔn)共同作用于不合理差別待遇的認(rèn)定,通過(guò)動(dòng)態(tài)體系論對(duì)透明程度、選擇其它信息處理者的難度和信息偏在程度、是否符合行業(yè)慣例、產(chǎn)生的風(fēng)險(xiǎn)大小等諸要素進(jìn)行考量,綜合認(rèn)定不合理差別待遇,以求降低當(dāng)事人舉證難度、平衡保護(hù)數(shù)據(jù)提供者和數(shù)據(jù)處理者的合法權(quán)益。

一、問(wèn)題的提出

近年來(lái),我國(guó)數(shù)字經(jīng)濟(jì)發(fā)展迅猛,以大數(shù)據(jù)為基礎(chǔ)的算法自動(dòng)化決策逐步融入生活的方方面面。其在帶來(lái)便利的同時(shí)也產(chǎn)生了不合理差別待遇、算法偏見(jiàn)、大數(shù)據(jù)殺熟等諸多爭(zhēng)議。根據(jù)北京市消協(xié)發(fā)布的大數(shù)據(jù)“殺熟”調(diào)查結(jié)果來(lái)看,高達(dá)88.32%的被調(diào)查者認(rèn)為大數(shù)據(jù)“殺熟”現(xiàn)象普遍存在,有82.54%的被調(diào)查者認(rèn)為“殺熟”會(huì)透支消費(fèi)者信任,而僅有1.16%的被調(diào)查者認(rèn)為會(huì)提升用戶消費(fèi)體驗(yàn)。因此,法律應(yīng)當(dāng)及時(shí)對(duì)不合理差別待遇、大數(shù)據(jù)殺熟進(jìn)行規(guī)制,以在個(gè)人信息的保護(hù)與合理利用之間形成適當(dāng)?shù)钠胶狻?/p>

雖然我國(guó)學(xué)理上對(duì)不合理差別待遇、大數(shù)據(jù)殺熟的概念、性質(zhì)等內(nèi)容仍存在較大爭(zhēng)議而未形成普遍共識(shí)。但在司法實(shí)踐中,我國(guó)已經(jīng)相繼出臺(tái)了不少規(guī)制“不合理的差別待遇”的指導(dǎo)性文件和規(guī)范性文件,前者包括《國(guó)務(wù)院反壟斷委員會(huì)關(guān)于平臺(tái)經(jīng)濟(jì)領(lǐng)域的反壟斷指南》《浙江省平臺(tái)企業(yè)競(jìng)爭(zhēng)合規(guī)指引》等,后者包括《在線旅游經(jīng)營(yíng)服務(wù)管理暫行規(guī)定》《關(guān)于加強(qiáng)網(wǎng)絡(luò)預(yù)約出租汽車(chē)行業(yè)事前事中事后全鏈條聯(lián)合監(jiān)管有關(guān)工作的通知》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》及價(jià)格法、反壟斷法等。在此基礎(chǔ)上,個(gè)人信息保護(hù)法第24條第1款明確規(guī)定禁止不合理差別待遇規(guī)則,將之前的法律實(shí)踐經(jīng)驗(yàn)予以了合理吸收和承認(rèn),整體上有利于對(duì)基于個(gè)人信息的自動(dòng)化決策進(jìn)行必要規(guī)制。這些規(guī)范性文件雖然從不同的角度對(duì)不合理的差別待遇進(jìn)行了規(guī)制,但整體上都缺乏對(duì)“不合理差別待遇”概念的內(nèi)涵及外延的明晰界定,導(dǎo)致司法實(shí)務(wù)中難以統(tǒng)一認(rèn)定何謂不合理的差別待遇,實(shí)務(wù)上通常只能進(jìn)行個(gè)案分析進(jìn)行認(rèn)定,但這一做法在實(shí)踐中經(jīng)常存在不適當(dāng)提高交易相對(duì)人的舉證難度,并降低法律適用的確定性的問(wèn)題,難謂合理。在個(gè)人信息保護(hù)法適用的大背景下,下文擬在歸納整理禁止不合理差別待遇規(guī)則基本構(gòu)造及其主要問(wèn)題的基礎(chǔ)上,對(duì)個(gè)人信息保護(hù)法第24條第1款規(guī)定的“不合理的差別待遇”展開(kāi)研究,并將討論的問(wèn)題聚焦于兩方面:一是厘清“不合理差別待遇”的具體內(nèi)涵;二是明確“不合理差別待遇”的判斷標(biāo)準(zhǔn)、考量因素及其作用方式,希冀以此推動(dòng)關(guān)于不合理差別待遇認(rèn)定標(biāo)準(zhǔn)的共識(shí)的形成,從而增強(qiáng)第24條的可適用性。

二、不合理差別待遇規(guī)則的基本構(gòu)造及主要問(wèn)題

數(shù)字時(shí)代算法自動(dòng)化決策導(dǎo)致的差別待遇并不鮮見(jiàn)。對(duì)此,價(jià)格歧視說(shuō)認(rèn)為,個(gè)性化定價(jià)屬于經(jīng)濟(jì)學(xué)意義上的價(jià)格歧視,本身并無(wú)貶義。該說(shuō)認(rèn)為,一般情況下應(yīng)當(dāng)由市場(chǎng)進(jìn)行調(diào)節(jié),如果過(guò)度強(qiáng)調(diào)運(yùn)用“有形的手”進(jìn)行規(guī)制而忽視市場(chǎng)作用,那么政府失靈可能成為一種成本高昂的替代。在此意義上,《反壟斷指南》第17條規(guī)定了數(shù)種豁免情形,體現(xiàn)了對(duì)市場(chǎng)自我調(diào)節(jié)的尊重。但在“不合理”價(jià)格歧視的語(yǔ)境之下,經(jīng)營(yíng)者能夠通過(guò)價(jià)格歧視掠奪消費(fèi)者,由于消費(fèi)者對(duì)經(jīng)營(yíng)者的信任,這種不合理的差別待遇帶來(lái)的不公平感會(huì)極大地增加對(duì)經(jīng)營(yíng)者的反感,透支消費(fèi)者的信任并引發(fā)信任危機(jī)。與價(jià)格歧視說(shuō)不同,算法權(quán)力濫用說(shuō)認(rèn)為,作為差別待遇核心的算法體現(xiàn)的是設(shè)計(jì)者和運(yùn)行者的個(gè)人意志和私人利益,經(jīng)營(yíng)者利用數(shù)字鴻溝所產(chǎn)生的信息不對(duì)稱(chēng)的絕對(duì)優(yōu)勢(shì)精準(zhǔn)識(shí)別用戶畫(huà)像,并利用消費(fèi)者對(duì)平臺(tái)的信任和信息的缺乏,對(duì)消費(fèi)者進(jìn)行掠奪。

從兩種學(xué)說(shuō)的共性來(lái)看,不論是價(jià)格歧視說(shuō)還是算法權(quán)力濫用說(shuō),一方面都承認(rèn)算法自動(dòng)化決策差別待遇存在的合理性,另一方面也都認(rèn)為在“不合理”的情況之下,消費(fèi)者會(huì)被掠奪并產(chǎn)生信任危機(jī),對(duì)市場(chǎng)經(jīng)濟(jì)產(chǎn)生負(fù)面影響,因此需要對(duì)不合理的差別待遇進(jìn)行規(guī)制。也正是在此背景下,我國(guó)個(gè)人信息保護(hù)法第24條第1款對(duì)算法自動(dòng)化決策的不合理差別待遇作了明確規(guī)定。

個(gè)人信息保護(hù)法中不合理差別待遇規(guī)則的基本構(gòu)造

如前所述,個(gè)人信息保護(hù)法第24條第1款明確禁止自動(dòng)化決策領(lǐng)域不合理的差別待遇。在該條的制定過(guò)程中,對(duì)于究竟應(yīng)當(dāng)如何具體表述,曾存在爭(zhēng)議。例如,個(gè)人信息保護(hù)法(一次審議稿)及個(gè)人信息保護(hù)法(二次審議稿)中均將之表述為“利用個(gè)人信息進(jìn)行自動(dòng)化決策,應(yīng)當(dāng)保證決策的透明度和處理結(jié)果的公平合理”,將算法領(lǐng)域的自動(dòng)化決策與決策的公平合理聯(lián)系起來(lái),有助于保護(hù)個(gè)人信息權(quán)人特別是消費(fèi)者,但這種表述是否會(huì)影響個(gè)人信息處理者的行為自由,導(dǎo)致對(duì)個(gè)人信息利用的過(guò)度負(fù)擔(dān),使利用與保護(hù)二者的平衡關(guān)系被破壞,在理論與實(shí)務(wù)上存在分歧。因此,個(gè)人信息保護(hù)法第24條第1款在保持之前審議稿條文內(nèi)容的基礎(chǔ)上,增加了“不得對(duì)個(gè)人在交易價(jià)格等交易條件上實(shí)行不合理的差別待遇”。這一方面承認(rèn)個(gè)人信息處理者在利用個(gè)人信息進(jìn)行自動(dòng)化決策時(shí)可以進(jìn)行合理的差別待遇,有利于數(shù)字時(shí)代對(duì)個(gè)人信息進(jìn)行合理利用的主題,也與個(gè)人信息保護(hù)法第1條追求的個(gè)人信息的保護(hù)與利用應(yīng)予平衡的目標(biāo)相一致。另一方面,個(gè)人信息保護(hù)法第24條增加禁止不合理的差別待遇的表述,在現(xiàn)行個(gè)人信息保護(hù)法律體系中,與《在線旅游經(jīng)營(yíng)服務(wù)管理暫行規(guī)定》、《關(guān)于加強(qiáng)網(wǎng)絡(luò)預(yù)約出租汽車(chē)行業(yè)事前事中事后全鏈條聯(lián)合監(jiān)管有關(guān)工作的通知》、《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》、反壟斷法、價(jià)格法等規(guī)范性文件中關(guān)于禁止不合理差別待遇的規(guī)則一致,具有體系上的協(xié)調(diào)性,符合現(xiàn)行法秩序關(guān)于外在體系應(yīng)銜接一致而無(wú)沖突矛盾之虞的基本要求,應(yīng)予肯定。

從個(gè)人信息保護(hù)法第24條第1款的具體內(nèi)容來(lái)看,該款規(guī)定屬于義務(wù)性規(guī)則,其中前半句明確了個(gè)人信息處理者的應(yīng)為事項(xiàng),屬于命令性規(guī)則,后半句禁止個(gè)人信息處理從事不合理的差別待遇行為,屬于禁止性規(guī)則。這種正面要求與反面禁止,雙向結(jié)合的義務(wù)性規(guī)則,從內(nèi)容上劃定了個(gè)人信息處理者利用個(gè)人信息進(jìn)行自動(dòng)化決策的自由限度,即其可以利用個(gè)人信息進(jìn)行自動(dòng)化決策,但此種利用應(yīng)當(dāng)符合法律的要求,并且禁止為特定行為。因此,從第24條第1款的具體內(nèi)容出發(fā),可以將本條的內(nèi)在結(jié)構(gòu)區(qū)分為“一體兩面”:

所謂“一體”即“個(gè)人信息處理者利用個(gè)人信息進(jìn)行自動(dòng)化決策”,明確個(gè)人信息處理者可以利用個(gè)人信息進(jìn)行自動(dòng)化決策,賦予了個(gè)人信息處理者利用個(gè)人信息的自由,并且明確了該款調(diào)整對(duì)象為利用個(gè)人信息進(jìn)行自動(dòng)化決策的行為,即利用個(gè)人信息形成數(shù)據(jù)畫(huà)像以“分析、評(píng)估、并進(jìn)行決策”的行為,不屬于該行為的不在本款的涵攝范圍;所謂“兩面”,包括正面命令與反面禁令,為個(gè)人信息處理者處理個(gè)人信息的行為自由設(shè)定限制,從而在個(gè)人信息的利用與保護(hù)之間實(shí)現(xiàn)平衡。其中,正面命令即“應(yīng)當(dāng)保證決策的透明度和結(jié)果公平、公正”,規(guī)定了個(gè)人信息處理者的當(dāng)為內(nèi)容,要求個(gè)人信息處理者利用個(gè)人信息進(jìn)行自動(dòng)化決策時(shí),必須滿足法律明確規(guī)定的關(guān)于決策過(guò)程與結(jié)果的基本要求,具體表現(xiàn)為過(guò)程透明,結(jié)果公平、公正;反面禁令即“不得對(duì)個(gè)人在交易價(jià)格等交易條件上實(shí)行不合理的差別待遇”明確了個(gè)人信息處理者在利用個(gè)人信息進(jìn)行自動(dòng)化決策時(shí)的自由界限,強(qiáng)化對(duì)個(gè)人信息的保護(hù)。

從個(gè)人信息保護(hù)法第24條第1款規(guī)定的前述內(nèi)容及其基本構(gòu)造來(lái)看,其主要是關(guān)于個(gè)人信息處理者利用個(gè)人信息進(jìn)行自動(dòng)化決策的規(guī)定,在法律規(guī)則的具體構(gòu)造上表現(xiàn)為行為模式,因此該款要發(fā)揮對(duì)相關(guān)行為展開(kāi)法律效果評(píng)價(jià)的規(guī)范作用,還應(yīng)當(dāng)與其他規(guī)定法律效果的條款相結(jié)合,共同發(fā)揮創(chuàng)設(shè)法效果的作用。

不合理差別待遇規(guī)則理解與適用中存在的主要問(wèn)題

從個(gè)人信息保護(hù)法第24條第1款的具體內(nèi)容及相應(yīng)的核心概念使用來(lái)看,由于不合理差別待遇規(guī)則理解與適用的核心判斷標(biāo)準(zhǔn)即過(guò)程方面的要求與結(jié)果方面的要求都具有抽象性而缺乏具體的內(nèi)涵,導(dǎo)致不合理差別待遇規(guī)則在實(shí)踐中適用標(biāo)準(zhǔn)難以統(tǒng)一,既影響司法裁判的權(quán)威性,也不利于個(gè)人信息保護(hù)法第1條所追求的個(gè)人信息保護(hù)與利用的平衡。

1.不合理差別待遇規(guī)則過(guò)于抽象導(dǎo)致的缺乏現(xiàn)實(shí)可操行問(wèn)題

除個(gè)人信息保護(hù)法第24條第1款外,現(xiàn)行法秩序下還有其他規(guī)范性文件對(duì)不合理差別待遇進(jìn)行了規(guī)定,如2020年出臺(tái)的《在線旅游經(jīng)營(yíng)服務(wù)管理暫行規(guī)定》第15條對(duì)不合理差別待遇做了比較明確的規(guī)定,2022年8月新修訂的反壟斷法第9條以及第22條第2款等將對(duì)算法、大數(shù)據(jù)運(yùn)用領(lǐng)域的自動(dòng)化決策問(wèn)題作了概括性規(guī)定,體現(xiàn)了現(xiàn)行法秩序下個(gè)人信息保護(hù)法律規(guī)則對(duì)于利用個(gè)人信息進(jìn)行自動(dòng)化決策領(lǐng)域的不合理差別待遇現(xiàn)象的關(guān)注,整體值得肯定。存在的問(wèn)題是,這些規(guī)范性法律文件雖然在關(guān)于自動(dòng)化決策領(lǐng)域的不合理差別待遇規(guī)定上采用了類(lèi)似的表述,即將不合理差別待遇表述為“利用算法自動(dòng)化決策對(duì)交易價(jià)格等交易條件上實(shí)施不合理的差別待遇”。但對(duì)于該規(guī)則具體適用所涉及的核心概念,即個(gè)人信息保護(hù)法第24條第1款命令性規(guī)則中的“決策透明度”“結(jié)果公平、公正”的判斷,卻缺乏具體的可操作的標(biāo)準(zhǔn),“決策透明度”具體到什么程度,如何判斷,“結(jié)果公平、公正”涉及的考量因素為何,如何使這些考量因素相互作用以展開(kāi)相應(yīng)的法律效果判斷,都需要進(jìn)一步明確。

2.不合理差別待遇規(guī)則的適用范圍有限或不清晰問(wèn)題

在現(xiàn)行法秩序下,關(guān)于利用個(gè)人信息進(jìn)行自動(dòng)化決策的法律規(guī)范,除個(gè)人信息保護(hù)法第24條外,還散見(jiàn)于其他規(guī)范性法律文件,但這些規(guī)范性法律文件中的規(guī)定普遍存在適用范圍有限或不清晰的問(wèn)題。例如,《在線旅游經(jīng)營(yíng)服務(wù)管理暫行規(guī)定》《關(guān)于加強(qiáng)網(wǎng)絡(luò)預(yù)約出租汽車(chē)行業(yè)事前事中事后全鏈條聯(lián)合監(jiān)管有關(guān)工作的通知》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等規(guī)范性文件雖然明確禁止不合理差別待遇,但是其適用范圍僅集中在“旅游經(jīng)營(yíng)”“網(wǎng)約車(chē)”“算法推薦”等領(lǐng)域。新修訂的反壟斷法第17條以及相應(yīng)的反壟斷指南第17條則要求受不合理差別待遇規(guī)則調(diào)整的主體是“具有市場(chǎng)支配地位的平臺(tái)經(jīng)濟(jì)領(lǐng)域經(jīng)營(yíng)者”。個(gè)人信息保護(hù)法雖然可以作為利用個(gè)人信息進(jìn)行自動(dòng)化決策領(lǐng)域關(guān)于禁止不合理差別待遇的一般規(guī)則,但其將適用對(duì)象限制為個(gè)人信息的處理者,這是否會(huì)導(dǎo)致該條的適用范圍受限,同樣存在疑問(wèn)。

3.不合理差別待遇規(guī)則適用中存在的舉證難及其被架空的問(wèn)題

在司法實(shí)踐中,“算法黑箱”的存在導(dǎo)致對(duì)不合理差別待遇判斷困難,集中體現(xiàn)在個(gè)人信息權(quán)人難以證明不合理差別待遇的存在。例如,在“攜某機(jī)票重搜貴1500元案”中,當(dāng)事人預(yù)訂機(jī)票之后又取消了預(yù)定,但是在航空公司官網(wǎng)顯示機(jī)票充足的情況下,作為第三方交易平臺(tái)的攜某卻顯示沒(méi)票、只能以加價(jià)1500元的價(jià)格購(gòu)買(mǎi)。經(jīng)用戶反饋后攜某發(fā)布了“致歉及情況聲明”,但其不承認(rèn)“殺熟”,而是聲稱(chēng)是“由于程序BUG”所導(dǎo)致。在“劉某訴北京某某科技有限公司”案中,原告聲稱(chēng)“在同一時(shí)間、同一騎手手中取得外賣(mài),但是卻多支付了1元配送費(fèi)”,因此主張被告利用大數(shù)據(jù)對(duì)其實(shí)行不合理的差別對(duì)待,應(yīng)當(dāng)進(jìn)行道歉、賠償。法院認(rèn)為,原告負(fù)有對(duì)差別待遇行為的舉證責(zé)任,然而原告僅提出“多出1元的證據(jù)”,且法院認(rèn)為“關(guān)鍵的下單時(shí)間不一致、被告對(duì)配送費(fèi)動(dòng)態(tài)調(diào)整是正常經(jīng)營(yíng)行為”,因此駁回了原告的訴訟請(qǐng)求。從此類(lèi)案件可以看出,由于自動(dòng)決策的算法具有高度專(zhuān)業(yè)性及秘密性,當(dāng)事人難以接觸到算法本身,并且也很難通過(guò)算法舉證存在不合理差別待遇的行為,導(dǎo)致當(dāng)事人陷入舉證不能的境地。同時(shí),處于優(yōu)勢(shì)地位的商業(yè)平臺(tái)往往采用保護(hù)商業(yè)秘密、程序本身BUG、交易成本浮動(dòng)導(dǎo)致售價(jià)不同等理由進(jìn)行抗辯,使當(dāng)事人主張的“不合理差別待遇”事實(shí)處于真?zhèn)尾幻鞯臓顟B(tài)。

在“胡女士訴攜某APP”一案中,原告多次通過(guò)攜某預(yù)訂酒店酒店,在通過(guò)攜程支付某酒店的價(jià)款時(shí)發(fā)現(xiàn)該價(jià)款為2889元,為該酒店官方網(wǎng)站價(jià)格的兩倍,因此以“大數(shù)據(jù)殺熟”為由訴至法院要求賠償。法院經(jīng)審理認(rèn)為,攜某APP自動(dòng)收集用戶的個(gè)人信息包括用戶的其他訂單信息形成用戶畫(huà)像,對(duì)于“預(yù)定酒店”的行為并不具有必要性,因此以侵犯?jìng)€(gè)人信息為由支持了原告的訴訟請(qǐng)求。從本案可以看出,雖然被告存在“大數(shù)據(jù)殺熟”的行為,但由于該行為原告舉證難度較大、法院認(rèn)定難度較高,法院并沒(méi)有直接對(duì)該行為進(jìn)行認(rèn)定,而是通過(guò)民法典第1034條以及個(gè)人信息保護(hù)法第6條認(rèn)定被告不合理收集個(gè)人信息進(jìn)而對(duì)原告的主張進(jìn)行支持。換言之,法院主要運(yùn)用“信息采集”環(huán)節(jié)的規(guī)定即“最小化原則”對(duì)不合理差別待遇進(jìn)行規(guī)制,雖然在個(gè)案中也能起到保護(hù)交易相對(duì)人的作用,但是此類(lèi)規(guī)定與第24條第1款所處的“算法定價(jià)歧視”環(huán)節(jié)不同,繞開(kāi)了對(duì)不合理差別待遇的判斷,可能會(huì)導(dǎo)致該條款在司法實(shí)踐中被架空。

小結(jié)

從個(gè)人信息保護(hù)法第24條第1款的表述來(lái)看,在利用個(gè)人信息進(jìn)行自動(dòng)化決策時(shí),應(yīng)當(dāng)區(qū)分對(duì)待因此產(chǎn)生的差別待遇。其中,合理的差別待遇可能提高社會(huì)福利,很多情況下差別定價(jià)是有益的,同時(shí)算法也涉及企業(yè)的商業(yè)秘密等合法權(quán)益的保護(hù)問(wèn)題,因此不應(yīng)當(dāng)對(duì)自動(dòng)化決策領(lǐng)域的差別待遇采取“一刀切”的方法禁止。個(gè)人信息保護(hù)法第24條第1款事實(shí)上對(duì)此亦予承認(rèn)。但不合理的差別待遇會(huì)使消費(fèi)者合法權(quán)利受到貶損,并導(dǎo)致消費(fèi)者與經(jīng)營(yíng)者之間的信任危機(jī)。因此,個(gè)人信息保護(hù)法第24條第1款禁止不合理的差別待遇。從個(gè)人信息保護(hù)法第24條第1款對(duì)差別待遇采取的區(qū)別處理的立場(chǎng)出發(fā),對(duì)于該條確立的不合理差別待遇規(guī)則的認(rèn)定標(biāo)準(zhǔn)應(yīng)當(dāng)圍繞“合理”與“不合理”的認(rèn)定展開(kāi)。另外,從不合理差別待遇的涉及的主體看,主要涉及經(jīng)營(yíng)者以及終端消費(fèi)者,因此在設(shè)計(jì)不合理的差別待遇的認(rèn)定標(biāo)準(zhǔn)時(shí),應(yīng)當(dāng)平衡經(jīng)營(yíng)者的商業(yè)秘密保護(hù)、增進(jìn)商業(yè)利益以及終端消費(fèi)者的合理利益;從個(gè)人利益和社會(huì)利益看,應(yīng)當(dāng)平衡自動(dòng)化決策為經(jīng)營(yíng)者、消費(fèi)者創(chuàng)造的利益以及對(duì)于消費(fèi)者個(gè)人利益的保護(hù)和對(duì)市場(chǎng)秩序的保護(hù)。因?yàn)?ldquo;當(dāng)規(guī)范使各種對(duì)社會(huì)利益的沖突要求之間有一恰當(dāng)?shù)钠胶鈺r(shí),這些制度就是正義的”。亦即言,設(shè)計(jì)相關(guān)的認(rèn)定標(biāo)準(zhǔn)應(yīng)當(dāng)以利益平衡為目標(biāo),形成一種“平衡的正義”。但是,從個(gè)人信息保護(hù)法第24條第1款規(guī)定的禁止不合理的差別待遇規(guī)則本身及其在司法實(shí)踐中存在的問(wèn)題可以看出,由于現(xiàn)行法對(duì)不合理差別待遇的規(guī)定較為模糊,缺乏明確的認(rèn)定標(biāo)準(zhǔn),導(dǎo)致難以認(rèn)定不合理差別待遇的存在與否,甚至導(dǎo)致第24條第1款被架空。因此,下文即以前述問(wèn)題為基礎(chǔ)展開(kāi)研究,為利用個(gè)人信息進(jìn)行自動(dòng)化決策的不合理差別待遇規(guī)則的理解與適用提供可供操作的標(biāo)準(zhǔn)。

三、不合理差別待遇概念的厘清

作為現(xiàn)行法秩序外在體系之基本構(gòu)成的具體法律規(guī)則,系由若干基礎(chǔ)概念依特定規(guī)則結(jié)合而來(lái),因此理解具體法律規(guī)則以對(duì)作為其基礎(chǔ)構(gòu)成的法律概念理解為前提。對(duì)于利用個(gè)人信息進(jìn)行自動(dòng)化決策的不合理差別待遇規(guī)則,學(xué)理上的爭(zhēng)議焦點(diǎn)亦首先在于如何界定不合理差別待遇的具體內(nèi)涵及外延。因此,對(duì)于不合理差別待遇概念的厘清可以從個(gè)人信息保護(hù)法第24條第1款的基本構(gòu)造以及與其他相似概念的比較的角度入手進(jìn)行界定。

不合理差別待遇概念的核心構(gòu)成概念

從個(gè)人信息保護(hù)法第24條第1款的具體規(guī)定來(lái)看,涉及的核心概念有三:“自動(dòng)化決策”“合理”“不合理的差別待遇”。

其中,“自動(dòng)化決策”是數(shù)字時(shí)代興起的新概念,主要是指以算法、大數(shù)據(jù)為基礎(chǔ),利用個(gè)人信息對(duì)個(gè)人的習(xí)慣、興趣愛(ài)好、經(jīng)濟(jì)狀況等,利用算法自動(dòng)分析、評(píng)估并進(jìn)行決策的活動(dòng)。從該內(nèi)涵可以看出,自動(dòng)化決策主要包括兩方面內(nèi)容,其一是以個(gè)人信息為核心的大數(shù)據(jù),其二是由計(jì)算機(jī)運(yùn)行的、以“把輸入轉(zhuǎn)換成輸出的計(jì)算步驟的一個(gè)序列”為內(nèi)涵的算法。因此,在對(duì)利用個(gè)人信息進(jìn)行自動(dòng)化決策場(chǎng)合的不合理差別待遇的規(guī)制,首先觸及的即是個(gè)人信息處理行為自由與個(gè)人信息權(quán)益保護(hù)的界限問(wèn)題。

“合理”是對(duì)差別待遇程度的要求,從個(gè)人信息保護(hù)法第24條第1款規(guī)定的命令性規(guī)則內(nèi)容來(lái)看,利用個(gè)人信息進(jìn)行自動(dòng)化決策是否“合理”的主要判斷標(biāo)準(zhǔn)有二:一是過(guò)程方面的要求,為“決策透明度”標(biāo)準(zhǔn);二是結(jié)果方面的要求,為“結(jié)果公平、公正”標(biāo)準(zhǔn)。從過(guò)程方面的要求看,人工智能算法具有不公開(kāi)、不透明的特點(diǎn),被稱(chēng)為“算法黑箱”,與本款命令性規(guī)則中要求的“透明度”標(biāo)準(zhǔn)相沖突。事實(shí)上,隨著商業(yè)秘密的范疇不斷擴(kuò)大,算法也納入了商業(yè)秘密的保護(hù)范疇,企業(yè)可以以保護(hù)商業(yè)秘密為由,拒絕公開(kāi)算法,這就增大了算法領(lǐng)域“透明度”標(biāo)準(zhǔn)實(shí)施的難度,并且一味的要求增加算法“透明度”也與保護(hù)企業(yè)合法權(quán)益的目的相沖突。從結(jié)果方面的要求看,利用個(gè)人信息進(jìn)行自動(dòng)化決策的結(jié)果公平、公正,是保護(hù)個(gè)人信息權(quán)人以及社會(huì)公眾利益的必然要求,其以算法“透明度”要求為前提,原因在于如果不要求算法具有一定的透明度,個(gè)人信息權(quán)人以及社會(huì)公眾即使受到了不合理的差別待遇也會(huì)存在舉證難度過(guò)高等問(wèn)題,難以通過(guò)個(gè)人信息保護(hù)法第24條第1款進(jìn)行救濟(jì)。亦即言,“合理”的概念應(yīng)當(dāng)包括過(guò)程上的透明度要求以及結(jié)果上的公平、公正要求,兩者相互結(jié)合才能使本條具有可適用性。

“不合理的差別待遇”包括“差別待遇”與“不合理”兩個(gè)層面,其中“不合理”的判斷標(biāo)準(zhǔn)與本款命令性規(guī)則中的“合理”一致,方向相反。而“差別待遇”主要指向不同的交易條件。從個(gè)人信息保護(hù)法第24條第1款規(guī)定的“禁止性規(guī)則”所處采用的立法技術(shù)來(lái)看,其主要采用了列舉+概括的模式,具體列舉了交易價(jià)格這樣的交易條件,并將該交易條件通過(guò)“等”向豐富的社會(huì)生活開(kāi)放,以涵攝數(shù)字時(shí)代各式各樣的差別待遇。因此,本款規(guī)定的交易條件上的差別待遇首先表現(xiàn)為交易價(jià)格的差別待遇,在當(dāng)前的法律實(shí)踐中主要表現(xiàn)為大數(shù)據(jù)“殺熟”或者“個(gè)性化定價(jià)”。但是,本款規(guī)定的交易條件的內(nèi)涵并不只包含交易價(jià)格,還包括其他在交易過(guò)程中所涉及的要素。例如,依據(jù)《國(guó)務(wù)院反壟斷委員會(huì)關(guān)于平臺(tái)經(jīng)濟(jì)領(lǐng)域的反壟斷指南》第17條規(guī)定,差別待遇包含交易價(jià)格等交易條件、差異性標(biāo)準(zhǔn)、規(guī)則、算法以及差異性付款條件及交易方式。因此,除交易價(jià)格之外,交易過(guò)程中的交易規(guī)則、付款條件及交易方式、甚至于提供的服務(wù)都可以構(gòu)成本款所規(guī)定的“交易條件”的內(nèi)涵。

不合理差別待遇概念所涉相似概念的厘清

在不合理差別待遇概念理解與適用中,主要涉及三組相似概念:一是與算法偏見(jiàn)的關(guān)系。在實(shí)踐中,不合理差別待遇以自動(dòng)化決策為前提,而自動(dòng)化決策的主要內(nèi)容為算法與大數(shù)據(jù)。由于算法運(yùn)作過(guò)程中可能會(huì)存在偏見(jiàn),導(dǎo)致算法結(jié)果偏見(jiàn),其與不合理差別待遇的表現(xiàn)相似,因此需要進(jìn)行區(qū)分。二是在大數(shù)據(jù)收集、推送的過(guò)程中會(huì)產(chǎn)生侵害公眾合法權(quán)益的情形,不合理差別待遇又以大數(shù)據(jù)為前提,因此也需要區(qū)分其與信息繭房概念的關(guān)系。三是從不合理差別待遇的外在表現(xiàn)看,交易價(jià)格上的差別待遇是典型的表現(xiàn)形式,其與大數(shù)據(jù)殺熟、個(gè)性化定價(jià)、價(jià)格欺詐等概念近似,如何區(qū)分,亦需考慮。

1.與算法偏見(jiàn)的關(guān)系

算法偏見(jiàn)由兩部分組成,包括算法和偏見(jiàn)。如前文所述,算法以數(shù)據(jù)驅(qū)動(dòng)為核心,是將輸入的數(shù)據(jù)轉(zhuǎn)化為符合某種需求的輸出結(jié)果的計(jì)算步驟。偏見(jiàn)與歧視含義相似,二者均包含了對(duì)部分群體的負(fù)面反應(yīng)、評(píng)價(jià)的含義。學(xué)理上對(duì)算法偏見(jiàn)有諸多不同的劃分方法。例如,從導(dǎo)致算法偏見(jiàn)的成因看,可以劃分為輸入數(shù)據(jù)相關(guān)的偏見(jiàn)以及算法自身的偏見(jiàn);從是否涉及身份權(quán)看,可以劃分為涉及身份權(quán)的算法偏見(jiàn)和無(wú)涉身份權(quán)的算法偏見(jiàn);從損害主體和涉及的利益范疇看,可以劃分為損害公眾基本權(quán)利的算法偏見(jiàn)、損害競(jìng)爭(zhēng)利益的算法偏見(jiàn)、損害特定個(gè)體權(quán)益的算法偏見(jiàn);從大數(shù)據(jù)的挖掘和使用方法看,可以劃分為偏見(jiàn)代理的算法歧視、特征選擇的算法歧視、大數(shù)據(jù)“殺熟”。比較這些不同標(biāo)準(zhǔn)的劃分類(lèi)型可以發(fā)現(xiàn),算法偏見(jiàn)產(chǎn)生的原因主要包括輸入數(shù)據(jù)所帶來(lái)的偏見(jiàn)和算法自身的偏見(jiàn),其包含了諸多表現(xiàn)形式,例如個(gè)性化定價(jià)、基于性別、種族的算法歧視等。個(gè)人信息保護(hù)法第24條第1款規(guī)定的不合理差別待遇的概念的核心為“交易條件”,其產(chǎn)生的原因與算法偏見(jiàn)相同,均由輸入數(shù)據(jù)的偏見(jiàn)或算法設(shè)計(jì)的偏見(jiàn)所導(dǎo)致,表現(xiàn)形式為算法偏見(jiàn)的一種,主要表現(xiàn)為“無(wú)涉身份權(quán)、損害個(gè)體利益的偏見(jiàn)”。因此,可以認(rèn)為不合理差別待遇包含于算法偏見(jiàn)這一概念之中,是算法偏見(jiàn)的一種具體表現(xiàn)形式。

2.與信息繭房的關(guān)系

從算法的運(yùn)用機(jī)制看,利用算法歧視消費(fèi)者可以劃分為信息采集、特定推送、定價(jià)算法歧視三個(gè)環(huán)節(jié)。其中,信息采集階段是特定推送階段以及定價(jià)算法歧視階段的前提,特定推送階段與定價(jià)算法歧視階段屬于平行關(guān)系。在特定推送階段,在商業(yè)平臺(tái)的利益驅(qū)使以及算法推薦引擎的影響下,將不可避免地產(chǎn)生了信息繭房效應(yīng),在信息繭房中的個(gè)體基于算法只能接收到同類(lèi)型的信息,這也就間接減損了其本應(yīng)享有的知情權(quán)。雖然信息繭房效應(yīng)以及定價(jià)算法歧視均是在利用算法的過(guò)程中所產(chǎn)生,但是其表現(xiàn)形式、產(chǎn)生的危害各不相同:信息推送階段涉及信息繭房問(wèn)題;個(gè)性化定價(jià)問(wèn)題則位于定價(jià)算法歧視環(huán)節(jié)。個(gè)人信息保護(hù)法第24條第1款所規(guī)定的不合理差別待遇以交易條件的差別待遇為表現(xiàn)形式,而交易條件處于算法行為機(jī)制的定價(jià)算法歧視環(huán)節(jié),無(wú)涉特定推送環(huán)節(jié)。因此,不合理差別待遇與信息繭房分屬于不同的算法運(yùn)行環(huán)節(jié),其運(yùn)行機(jī)制、產(chǎn)生的后果均不相同,兩者屬于平行關(guān)系而不具有直接聯(lián)系。

3.與大數(shù)據(jù)殺熟、個(gè)性化定價(jià)、價(jià)格欺詐的關(guān)系

大數(shù)據(jù)殺熟指的是個(gè)人信息處理者以其掌握的用戶信息為基礎(chǔ),利用大數(shù)據(jù)技術(shù)形成用戶畫(huà)像,通過(guò)算法自動(dòng)化決策對(duì)消費(fèi)市場(chǎng)進(jìn)行劃分并對(duì)終端消費(fèi)者進(jìn)行個(gè)性化定價(jià)的行為,主要表現(xiàn)為用戶多次瀏覽價(jià)格上漲、會(huì)員價(jià)高于非會(huì)員價(jià)、不同品牌手機(jī)不同價(jià)格等。個(gè)性化定價(jià)與大數(shù)據(jù)殺熟高度一致,是以大數(shù)據(jù)殺熟為典型表現(xiàn)的價(jià)格歧視行為,個(gè)性化定價(jià)是大數(shù)據(jù)殺熟的“官方名稱(chēng)”。如前文所述,不合理差別待遇的典型表現(xiàn)為個(gè)性化定價(jià),此外還包括了其他諸多交易條件上的差別待遇。因此,個(gè)性化定價(jià)以及大數(shù)據(jù)殺熟是不合理差別待遇的一個(gè)子概念。此外,不合理差別待遇的典型外在表現(xiàn)形式也與價(jià)格欺詐相近。有觀點(diǎn)認(rèn)為大數(shù)據(jù)殺熟違背了誠(chéng)實(shí)信用原則,侵害了消費(fèi)者的知情權(quán)和公平交易權(quán),是一種“新型價(jià)格欺詐行為”。民法典第148條對(duì)欺詐進(jìn)行了規(guī)定,其以欺詐方實(shí)施欺詐行為為構(gòu)成要件,主要表現(xiàn)為故意陳述虛假事實(shí)或故意隱瞞真相的行為?!督箖r(jià)格欺詐行為的規(guī)定》及其相關(guān)解釋也對(duì)價(jià)格欺詐行為進(jìn)行了闡述,價(jià)格欺詐行為的外在表現(xiàn)為“通過(guò)標(biāo)價(jià)或者價(jià)格手段虛構(gòu)事實(shí)、隱瞞真實(shí)情況”。在不合理差別待遇的語(yǔ)境下,由于經(jīng)營(yíng)者與其他消費(fèi)者進(jìn)行的交易價(jià)格不屬于消費(fèi)者知情權(quán)的內(nèi)容,經(jīng)營(yíng)者利用自動(dòng)化決策形成的個(gè)性化價(jià)格不存在“隱瞞真實(shí)情況”的情形,消費(fèi)者也沒(méi)有據(jù)此而陷入錯(cuò)誤認(rèn)知,因此不合理差別待遇不屬于“價(jià)格欺詐”的范疇。

小結(jié)

綜上所述,個(gè)人信息保護(hù)法第24條第1款所規(guī)定的“不合理差別待遇”概念以自動(dòng)化決策為前提,以“合理”為判斷標(biāo)準(zhǔn),以“無(wú)涉身份權(quán)的算法偏見(jiàn)”為內(nèi)涵,其屬于算法偏見(jiàn)的諸多表現(xiàn)形式的一種,以“大數(shù)據(jù)殺熟”“算法個(gè)性化定價(jià)”為典型表現(xiàn)形式,并且不包含“信息繭房”等推送階段的內(nèi)容。

四、不合理差別待遇的具體認(rèn)定方法

如前所述,自動(dòng)化決策領(lǐng)域合理的差別待遇可能會(huì)提高社會(huì)福利,并且算法本身也涉及企業(yè)的商業(yè)秘密保護(hù)問(wèn)題,因此對(duì)其規(guī)制不應(yīng)當(dāng)“一刀切”的予以全盤(pán)否定。當(dāng)然,不合理的差別待遇也會(huì)使消費(fèi)者合法權(quán)利受到貶損,導(dǎo)致消費(fèi)者與經(jīng)營(yíng)者之間的信任危機(jī)。這就要求,在明確不合理差別待遇的認(rèn)定方法時(shí),應(yīng)重點(diǎn)關(guān)注兩個(gè)方面的內(nèi)容:一是利益的平衡處理,即認(rèn)定不合理的差別待遇時(shí),應(yīng)當(dāng)衡量個(gè)人信息處理者利益和終端消費(fèi)者利益、社會(huì)利益和個(gè)人利益,回應(yīng)個(gè)人信息保護(hù)法第1條提出的關(guān)于個(gè)人信息保護(hù)與利用的平衡問(wèn)題;二是判斷方法的可操作性問(wèn)題,即應(yīng)當(dāng)明確認(rèn)定時(shí)的具體要素及其相互作用方式,使法律評(píng)價(jià)的過(guò)程“去神秘化和正當(dāng)化”,增加第24條第1款的可適用性,避免法官自由裁量權(quán)濫用可能導(dǎo)致的司法恣意性問(wèn)題。亦即言,不合理差別待遇的具體認(rèn)定方法應(yīng)當(dāng)以利益平衡為目標(biāo),綜合考量不合理差別待遇中的諸多要素并進(jìn)行價(jià)值判斷,形成一種“平衡的正義”。

如上文所述,個(gè)人信息保護(hù)法第24條第1款規(guī)定了以透明度、結(jié)果公平、公正為合理性的判斷標(biāo)準(zhǔn),差別待遇應(yīng)當(dāng)保證“決策的透明度和結(jié)果的公平、公正”。從比較法的視角來(lái)看,在自動(dòng)化決策(Automated Decision Making,ADM)的語(yǔ)境下,運(yùn)用“透明度”和“結(jié)果公平”標(biāo)準(zhǔn)來(lái)判斷自動(dòng)化決策結(jié)果的合理性也并不鮮見(jiàn)。歐盟在2016年制定的一般數(shù)據(jù)條例(General Data Protection Regulation,GDPR)第5條第1款(a)、第13條第2款均規(guī)定了個(gè)人數(shù)據(jù)處理應(yīng)當(dāng)具有“公平性”、“透明性”。歐洲議會(huì)和理事會(huì)《關(guān)于改善平臺(tái)工作工作條件的指令提案》在“期望達(dá)到的目標(biāo)”部分明確提到,該提案的總體目標(biāo)是確保“算法管理的公平、透明和問(wèn)責(zé)”。加拿大政府于2019年出臺(tái)的《自動(dòng)化決策指令》(Directiveon Automated Decision-Making,DADM)第4.2.1條款指出“……數(shù)據(jù)驅(qū)動(dòng)的決策應(yīng)當(dāng)符合公平性和正當(dāng)性的要求。”該條款對(duì)算法決策的過(guò)程及結(jié)果持續(xù)性評(píng)估,產(chǎn)生的預(yù)期結(jié)果包括使自動(dòng)化決策的過(guò)程具有透明度、結(jié)果具有公平性。從“透明度”和“結(jié)果公平”標(biāo)準(zhǔn)的作用來(lái)看,“透明度”主要從形式上對(duì)不合理差別待遇行為進(jìn)行判斷,明確了自動(dòng)化決策的可追責(zé)性,將責(zé)任主體確定為利用個(gè)人信息進(jìn)行自動(dòng)化決策的處理者,使對(duì)算法自動(dòng)化決策進(jìn)行司法審查成為可能;“結(jié)果公平”主要從實(shí)質(zhì)上進(jìn)行判斷,要求利用個(gè)人信息進(jìn)行的自動(dòng)化決策對(duì)其個(gè)人信息被處理的個(gè)人所產(chǎn)生的事實(shí)上和法律上的影響結(jié)果應(yīng)當(dāng)是公平公正的,不能有不合理的差別待遇。采用“透明度”和“結(jié)果公平”為標(biāo)準(zhǔn)進(jìn)行判斷不僅是各國(guó)的司法共識(shí),其自身也具有合理性,因此本文采用“透明度”和“公平性”為判斷標(biāo)準(zhǔn),以此完善不合理差別待遇的認(rèn)定方法。

透明度標(biāo)準(zhǔn)

透明度標(biāo)準(zhǔn)是判斷不合理差別待遇的前提,使當(dāng)事人舉證、法院進(jìn)行司法審查成為可能。透明度標(biāo)準(zhǔn)主要涉及兩方面的內(nèi)容:其一,個(gè)人信息處理者實(shí)現(xiàn)透明度的方式;其二,在保證透明度的基礎(chǔ)上,個(gè)人信息處理者使算法透明的程度。

1.實(shí)現(xiàn)透明度的方式

本文認(rèn)為,應(yīng)當(dāng)以告知同意規(guī)則為基礎(chǔ)確立實(shí)現(xiàn)透明度的方式,通過(guò)告知同意規(guī)則有利于實(shí)現(xiàn)收集和處理個(gè)人信息過(guò)程的透明化并保證當(dāng)事人同意權(quán)之行使。個(gè)人信息保護(hù)法第13條確立了告知同意規(guī)則,將告知同意規(guī)則作為個(gè)人信息處理的合法性基礎(chǔ),充分體現(xiàn)了尊重和保護(hù)民事權(quán)益的精神和意思自治原則。歐盟一般數(shù)據(jù)條例第6條中也規(guī)定了告知同意規(guī)則,要求處理個(gè)人信息以同意為原則。由于不合理差別待遇以自動(dòng)化決策為前提,其屬于“數(shù)據(jù)處理”的范疇,因此不合理差別待遇認(rèn)定標(biāo)準(zhǔn)應(yīng)當(dāng)包含告知同意規(guī)則。如上文所述,信息采集環(huán)節(jié)是實(shí)施差別待遇的前置環(huán)節(jié),在信息采集階段將告知同意規(guī)則納入判斷標(biāo)準(zhǔn)能夠有效地保證算法的透明度。在算法自動(dòng)化決策的語(yǔ)境下,個(gè)人信息處理者在個(gè)人信息采集階段就應(yīng)當(dāng)告知個(gè)人信息提供者存在利用個(gè)人信息進(jìn)行決策并實(shí)現(xiàn)差別待遇的情形,并且應(yīng)當(dāng)取得個(gè)人信息提供者的明確同意。即使是目前普遍存在的“消費(fèi)者——第三方平臺(tái)——賣(mài)家”三方結(jié)構(gòu)中,第三方平臺(tái)或者賣(mài)家也應(yīng)當(dāng)遵守告知同意規(guī)則,告知消費(fèi)者存在利用自動(dòng)化決策實(shí)現(xiàn)差別待遇的情形并取得消費(fèi)者同意。例如在Fashion ID GmbH&Co.KG v. Verbraucherzentrale NRW e.V案中,被告在其網(wǎng)站中嵌入了一個(gè)插件:一個(gè)Facebook的“Like”按鈕。當(dāng)用戶點(diǎn)擊該按鈕時(shí),該插件在沒(méi)有告知的情況下便將用戶的IP地址等數(shù)據(jù)傳輸?shù)紽acebook公司。最終法院認(rèn)定傳輸數(shù)據(jù)也屬于處理個(gè)人信息的一種,也應(yīng)當(dāng)受到告知同意規(guī)則的約束。因此,在不合理差別待遇的情形中,即使第三方平臺(tái)不是最終的個(gè)人信息處理者,也應(yīng)當(dāng)遵守告知同意規(guī)則,以確保自動(dòng)化決策的透明度。

2.透明度的程度

如上文所述,告知同意規(guī)則的適用是保證透明度的前提,在保證透明度的基礎(chǔ)上應(yīng)當(dāng)進(jìn)一步探討透明度的程度,即個(gè)人數(shù)據(jù)處理者告知義務(wù)的范圍。由于“算法黑箱”的存在,打開(kāi)算法黑箱是保證算法具有一定透明度的關(guān)鍵。對(duì)于算法的源代碼而言,一方面要求個(gè)人信息處理者公開(kāi)全部源代碼不利于保護(hù)商業(yè)秘密,“勢(shì)必遭到大量的反對(duì)而缺乏可執(zhí)行性”;另一方面即使公開(kāi)了源代碼,對(duì)其進(jìn)行解讀難度過(guò)高,例如,杜倫警察局部署的自動(dòng)化決策系統(tǒng)中,就存在420萬(wàn)個(gè)決策點(diǎn),并且每個(gè)決策點(diǎn)都依賴(lài)于以前的數(shù)據(jù),直接對(duì)其進(jìn)行解讀“不具有可能性”。因此不應(yīng)當(dāng)采取公開(kāi)源代碼的方式打開(kāi)算法黑箱而實(shí)現(xiàn)透明度標(biāo)準(zhǔn)。關(guān)于算法透明度的標(biāo)準(zhǔn),各國(guó)法律都對(duì)其作出了規(guī)定。我國(guó)個(gè)人信息保護(hù)法第17條規(guī)定了告知的一般標(biāo)準(zhǔn)和具體事項(xiàng),加拿大《自動(dòng)化決策指令》第6條要求向數(shù)據(jù)提供者“作出通俗易懂且有意義的說(shuō)明”,說(shuō)明“作出決策的方法和依據(jù)”,法國(guó)數(shù)字共和國(guó)法案中規(guī)定對(duì)算法決策的解釋需要包括“處理數(shù)據(jù)的來(lái)源”“算法的處理方式”“各個(gè)數(shù)據(jù)的權(quán)重”幾個(gè)方面。對(duì)比各國(guó)的法律規(guī)定可以發(fā)現(xiàn),在個(gè)人信息采集階段不應(yīng)當(dāng)要求個(gè)人信息處理者承擔(dān)過(guò)重的告知義務(wù),即在此階段透明度不應(yīng)當(dāng)過(guò)高,否則不利于平衡保護(hù)公共利益和個(gè)人信息處理者的利益。對(duì)此,個(gè)人信息處理者應(yīng)當(dāng)以清晰易懂的語(yǔ)言對(duì)算法進(jìn)行有意義的說(shuō)明,一方面說(shuō)明算法決策的具體理由,包括決策需要考慮的因素以及各因素的比重;另一方面應(yīng)當(dāng)說(shuō)明算法的計(jì)算方式,包括各因素在算法中是如何被計(jì)算和處理的。在不合理差別待遇的語(yǔ)境下,個(gè)人信息處理者應(yīng)當(dāng)告知個(gè)人信息提供者“收集何種個(gè)人信息”、“各個(gè)人信息在最終決策結(jié)果中所占的比重”、“得出最終結(jié)果的計(jì)算方法”等作出算法決策所必要的內(nèi)容。

以上為個(gè)人信息收集階段個(gè)人信息處理者應(yīng)當(dāng)告知的內(nèi)容,但是在司法實(shí)踐中,為了對(duì)事實(shí)進(jìn)行查明、對(duì)當(dāng)事人進(jìn)行救濟(jì),還應(yīng)當(dāng)要求個(gè)人信息處理者進(jìn)一步公開(kāi)算法的內(nèi)容以保證透明度。例如,在許某某訴杭州某某某某軟件服務(wù)有限公司案中,法院指出“僅記載源代碼和相關(guān)數(shù)據(jù)的報(bào)告不具有合理性”,基于權(quán)利義務(wù)相一致的原則用戶有權(quán)要求“進(jìn)一步追溯自動(dòng)化決策”。在Ewert v. Canada案中,加拿大最高法院指出用于訓(xùn)練自動(dòng)化決策系統(tǒng)的數(shù)據(jù)不具有準(zhǔn)確性,進(jìn)而導(dǎo)致自動(dòng)化決策系統(tǒng)的處理結(jié)果不具有正當(dāng)性,因此“用于訓(xùn)練算法系統(tǒng)的數(shù)據(jù)也應(yīng)當(dāng)具有足夠的透明度”。從此類(lèi)案例可以看出,在個(gè)案中法院可以基于查明事實(shí)的考量要求個(gè)人信息處理者在一般應(yīng)當(dāng)告知的內(nèi)容的基礎(chǔ)上,進(jìn)一步披露與案件相關(guān)的、影響算法結(jié)果的算法內(nèi)容,以此保證透明度。

綜上所述,透明度標(biāo)準(zhǔn)以告知同意規(guī)則為實(shí)現(xiàn)方式,告知對(duì)作出相關(guān)決策有意義的要素,在個(gè)案中還應(yīng)當(dāng)進(jìn)一步披露對(duì)與案件密切相關(guān)的算法內(nèi)容。

公平性標(biāo)準(zhǔn)

不合理差別待遇的認(rèn)定標(biāo)準(zhǔn)還包含了公平性標(biāo)準(zhǔn)。由于公平性本身是“不可被量化的概念”,其往往代表了需要法官進(jìn)行價(jià)值判斷的內(nèi)容,并且可能導(dǎo)致多種不同的解釋?zhuān)虼斯叫詷?biāo)準(zhǔn)無(wú)法被“簡(jiǎn)化為幾行代碼”。公平性標(biāo)準(zhǔn)的構(gòu)建一方面在價(jià)值取向上應(yīng)當(dāng)平衡個(gè)人信息處理者和個(gè)人信息提供者的利益、平衡市場(chǎng)規(guī)制和市場(chǎng)自發(fā)調(diào)節(jié)的關(guān)系,另一方面應(yīng)當(dāng)對(duì)在不合理差別待遇中常見(jiàn)的要素進(jìn)行考量,以此形成法律共識(shí)。在不合理差別待遇的情況下,主要涉及如下幾個(gè)要素:個(gè)人信息提供者更換個(gè)人信息處理者的難度以及信息偏在程度;是否符合行業(yè)慣例;差別待遇導(dǎo)致的風(fēng)險(xiǎn)大小。

1.更換個(gè)人信息處理者的難度以及市場(chǎng)信息偏在程度

對(duì)于更換個(gè)人信息處理者的難度而言,如果個(gè)人信息處理者具有市場(chǎng)支配地位,那么可以認(rèn)為個(gè)人信息提供者更換數(shù)據(jù)處理者的難度較大;如果個(gè)人信息處理者雖然不具有市場(chǎng)支配地位,但是個(gè)人信息提供者由于習(xí)慣等原因產(chǎn)生了依賴(lài)而難以更換,即所謂“熟客”,也可以認(rèn)為更換個(gè)人信息處理者的難度較大,可能導(dǎo)致“殺熟”。在此種情況下,個(gè)人信息提供者選擇市場(chǎng)中其它個(gè)人信息處理者的難度增大,難以選擇其它更符合個(gè)人信息提供者利益的處理者、發(fā)揮市場(chǎng)的調(diào)節(jié)作用,因此更容易遭受不合理差別待遇。例如,在日本亞馬遜公司不當(dāng)價(jià)格表示案中,亞馬遜公司設(shè)定了以商業(yè)競(jìng)爭(zhēng)對(duì)手價(jià)格為參照對(duì)象決定自身商品價(jià)格的程序,當(dāng)其完不成既定的盈利目標(biāo)時(shí),亞馬遜公司要求其供應(yīng)商補(bǔ)全這一部分利潤(rùn)。由于亞馬遜公司具有市場(chǎng)支配地位,其供應(yīng)商難以選擇退出或者更換交易對(duì)象,因此遭受了不合理差別待遇。歐盟數(shù)字市場(chǎng)法(Digital Markets Act,DMA)規(guī)定了“看門(mén)人”制度,對(duì)大型在線平臺(tái)課以更重的義務(wù)。在公平性標(biāo)準(zhǔn)的語(yǔ)境下,如果認(rèn)定更換個(gè)人信息處理者的難度較高,則應(yīng)當(dāng)適當(dāng)提高其公平性的判斷標(biāo)準(zhǔn)以保障個(gè)人信息提供者的合法利益。同理,如果相關(guān)市場(chǎng)信息嚴(yán)重不對(duì)稱(chēng),則可以認(rèn)為個(gè)人信息提供者難以知曉并選擇其它同質(zhì)的個(gè)人信息處理者、難以發(fā)揮市場(chǎng)的調(diào)節(jié)作用,此時(shí)應(yīng)當(dāng)提高公平性的判斷標(biāo)準(zhǔn)。相反,如果個(gè)人信息提供者能夠輕易知曉其它同質(zhì)的個(gè)人信息處理者提供的內(nèi)容,則可以適當(dāng)降低判斷標(biāo)準(zhǔn)。例如“滴滴出行”APP和“高德地圖”APP中,均提供了“第三方打車(chē)”的選項(xiàng)并標(biāo)注了多方打車(chē)的價(jià)格。在此種情況下,由于消費(fèi)者能夠很容易對(duì)多方價(jià)格進(jìn)行比對(duì),即使服務(wù)提供者利用算法采取了不合理的差別定價(jià),消費(fèi)者也能自由選擇其它更便宜的服務(wù)提供者、發(fā)揮市場(chǎng)的自發(fā)調(diào)節(jié)作用,此時(shí)公平性的標(biāo)準(zhǔn)可以適當(dāng)降低。

2.是否符合行業(yè)慣例

該要素主要涉及公平性標(biāo)準(zhǔn)的內(nèi)容:其一,自動(dòng)化決策所考慮的要素是否符合行業(yè)慣例;其二,所提供服務(wù)的內(nèi)容是否符合行業(yè)慣例。透明度標(biāo)準(zhǔn)要求個(gè)人信息處理者披露作出自動(dòng)化決策所考慮的要素,如果考慮的要素不符合一般的行業(yè)慣例,那么作為一般理性人的數(shù)據(jù)提供者就難以知曉,并可能導(dǎo)致最終的決策結(jié)果不符合預(yù)期,不利于對(duì)個(gè)人信息提供者進(jìn)行保護(hù),因此在公平性標(biāo)準(zhǔn)中應(yīng)當(dāng)對(duì)是否符合行業(yè)慣例要素進(jìn)行考量。例如在申請(qǐng)貸款的情形下,將貸款申請(qǐng)人所處地區(qū)的郵政編碼、貸款人的膚色、人種等要素納入考量范圍就不符合行業(yè)慣例,不具有公平性。而在計(jì)算車(chē)輛保險(xiǎn)費(fèi)的情形下,將車(chē)輛是否發(fā)生事故的要素納入自動(dòng)化決策的考量范圍中則符合行業(yè)慣例,也符合一般理性人的預(yù)期,因此可以認(rèn)為其符合公平性要件。此外,所提供服務(wù)的內(nèi)容是否符合行業(yè)慣例也應(yīng)當(dāng)納入考量范圍。在趙某某與浙江某網(wǎng)絡(luò)公司網(wǎng)絡(luò)服務(wù)合同糾紛案中,法院認(rèn)為被告提供的檢索服務(wù)與其它網(wǎng)絡(luò)公司提供的檢索服務(wù)結(jié)果類(lèi)似,不違反法律強(qiáng)制規(guī)定,不違反行業(yè)慣例。在此種情形下由于個(gè)人信息處理者提供服務(wù)的內(nèi)容不與行業(yè)慣例相違背,作為一般理性人的個(gè)人信息提供者對(duì)服務(wù)的內(nèi)容具有穩(wěn)定的預(yù)期,因此不需要對(duì)其進(jìn)行特別保護(hù),只需市場(chǎng)自發(fā)調(diào)節(jié)即可。因此在考量公平性標(biāo)準(zhǔn)時(shí),應(yīng)當(dāng)考量自動(dòng)化決策的要素和提供的服務(wù)的內(nèi)容是否符合行業(yè)慣例,如果與行業(yè)慣例不相符則可以認(rèn)為不符合公平性標(biāo)準(zhǔn)。

3.差別待遇導(dǎo)致的風(fēng)險(xiǎn)大小

不合理差別待遇所導(dǎo)致的風(fēng)險(xiǎn)最直接的表現(xiàn)就在于導(dǎo)致相關(guān)當(dāng)事人的合法財(cái)產(chǎn)利益受到貶損,間接表現(xiàn)于對(duì)市場(chǎng)秩序的影響,包括影響消費(fèi)者對(duì)個(gè)人信息處理者的信任和市場(chǎng)自身的正常交易秩序?;诒Wo(hù)市場(chǎng)秩序的價(jià)值選擇,判斷公平性標(biāo)準(zhǔn)時(shí)應(yīng)當(dāng)將影響范圍和風(fēng)險(xiǎn)性大小納入考量范圍。因此,應(yīng)當(dāng)對(duì)風(fēng)險(xiǎn)進(jìn)行評(píng)估,算法的影響評(píng)估“既可以是事前的,側(cè)重于前瞻性分析,也可以是事后的,側(cè)重于歷史分析”。當(dāng)差別待遇可能導(dǎo)致的社會(huì)風(fēng)險(xiǎn)較大時(shí),應(yīng)當(dāng)對(duì)個(gè)人信息處理者課以更重的注意義務(wù),減少差別待遇帶來(lái)的負(fù)面影響。

透明度標(biāo)準(zhǔn)和公平性標(biāo)準(zhǔn)之間的關(guān)系

透明度標(biāo)準(zhǔn)的諸要素和公平性標(biāo)準(zhǔn)的諸要素共同構(gòu)成了不合理差別待遇認(rèn)定標(biāo)準(zhǔn)。正如動(dòng)態(tài)體系論所強(qiáng)調(diào)的,法律效果評(píng)價(jià)的諸要素并非構(gòu)成要件,不是絕對(duì)的和僵化的,在法律效果的評(píng)價(jià)過(guò)程中,若某一因素能夠以特殊強(qiáng)度作用于法律效果評(píng)價(jià)的過(guò)程與結(jié)果,那么其本身甚至就足以正當(dāng)化法律效果評(píng)價(jià)。因此,對(duì)于不合理差別待遇的認(rèn)定標(biāo)準(zhǔn)而言,一方面要關(guān)注透明度標(biāo)準(zhǔn)和公平性標(biāo)準(zhǔn)之間的協(xié)動(dòng)關(guān)系,例如,雖然個(gè)人信息處理者沒(méi)有盡到告知義務(wù)、不符合透明度標(biāo)準(zhǔn),但是差別待遇屬于個(gè)人信息提供者自愿接受或者符合一般交易慣例,此時(shí)也無(wú)需認(rèn)定為不合理;另一方面要關(guān)注透明度標(biāo)準(zhǔn)和公平性標(biāo)準(zhǔn)內(nèi)部諸要素的關(guān)系,對(duì)于“協(xié)動(dòng)”或者“沖突”的個(gè)要素進(jìn)行權(quán)衡取舍,以各要素自身的充足度為基礎(chǔ)結(jié)合其它要素作出綜合的評(píng)價(jià)。此外,透明度標(biāo)準(zhǔn)和公平性標(biāo)準(zhǔn)的內(nèi)容是開(kāi)放的,隨著社會(huì)實(shí)踐的深入不斷加入相關(guān)的判斷要素,并在司法實(shí)踐中形成共識(shí),以達(dá)到減輕個(gè)案中判斷難度、當(dāng)事人舉證難度的作用,平衡保護(hù)個(gè)人信息處理者和個(gè)人信息權(quán)人。

結(jié)論

概言之,個(gè)人信息保護(hù)法第24條第1款規(guī)定的不合理差別待遇規(guī)則以算法自動(dòng)化決策為前提,以透明度、結(jié)果公平為判斷標(biāo)準(zhǔn),以交易條件為適用范圍。在構(gòu)建不合理差別待遇的認(rèn)定標(biāo)準(zhǔn)時(shí),應(yīng)當(dāng)以平衡個(gè)人信息處理者的利益和終端消費(fèi)者的利益、社會(huì)利益和個(gè)人利益為進(jìn)路,綜合考量透明度標(biāo)準(zhǔn)和公平性標(biāo)準(zhǔn)。通過(guò)明確透明度標(biāo)準(zhǔn)和公平性標(biāo)準(zhǔn)的具體要素構(gòu)建具體認(rèn)定方法,增加個(gè)人信息保護(hù)法第24條第1款的可適用性,從而為規(guī)制不合理差別待遇提供更具說(shuō)服力的法律論證。