【ZiDongHua 之人文化天下收錄關(guān)鍵詞:丁曉東 自動(dòng)化決策 算法 法與自動(dòng)化   人工智能】

丁曉東:基于信任的自動(dòng)化決策:算法解釋權(quán)的原理反思與制度重構(gòu)

丁曉東

(中國(guó)人民大學(xué)法學(xué)院、未來法治研究院副教授,法學(xué)博士)

一、引言

大數(shù)據(jù)與人工智能時(shí)代,基于個(gè)人信息的算法自動(dòng)化決策越來越普遍。如,在網(wǎng)約車的場(chǎng)景下,算法可以為乘客派送不同的司機(jī),設(shè)置不同的線路;在資訊分發(fā)的場(chǎng)景下,算法可以為不同用戶推薦不同的視頻、新聞與廣告;在搜索場(chǎng)景下,算法可以為每個(gè)用戶呈現(xiàn)不同的搜索結(jié)果;在電商場(chǎng)景下,算法可以結(jié)合用戶的搜索、瀏覽、購買等記錄,為用戶推薦符合其偏好的商品。算法自動(dòng)化決策在給個(gè)人帶來便捷服務(wù)的同時(shí),其黑箱屬性和可解釋性也引起了社會(huì)的普遍關(guān)注。當(dāng)乘客利用網(wǎng)約車打車時(shí),乘客可能希望知曉,算法為何給其派送了較遠(yuǎn)的車輛,而給其他乘客派送了較近的車輛。當(dāng)外賣騎手被困算法系統(tǒng),不斷被壓縮送餐時(shí)間的外賣騎手可能希望了解,算法如何對(duì)其進(jìn)行考核。當(dāng)貨車司機(jī)因?yàn)榉乐蛊隈{駛的自動(dòng)記錄儀掉線而被罰款,貨車司機(jī)可能希望了解,此類自動(dòng)化決策儀器的算法如何設(shè)置。當(dāng)特斯拉等自動(dòng)駕駛車輛遭遇剎車失靈,此時(shí)車主可能希望了解,車輛所遭遇的問題是車輛的問題還是自身的問題。

為了應(yīng)對(duì)與個(gè)人信息相關(guān)的算法黑箱問題,各國(guó)都在個(gè)人信息或個(gè)人數(shù)據(jù)保護(hù)法中規(guī)定了相關(guān)的算法解釋權(quán)條款。如,我國(guó)《個(gè)人信息保護(hù)法》在第24條等條款對(duì)拒絕自動(dòng)化決策的權(quán)利與解釋說明的權(quán)利進(jìn)行了規(guī)定,國(guó)家互聯(lián)網(wǎng)信息辦公室制定的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定(征求意見稿)》第12條規(guī)定,算法推薦服務(wù)提供者應(yīng)保證和優(yōu)化算法決策規(guī)則的透明度和可解釋性;歐盟《一般數(shù)據(jù)保護(hù)條例》也在若干條款中對(duì)算法解釋權(quán)進(jìn)行了規(guī)定。

但是,有關(guān)算法解釋權(quán)的內(nèi)容、程度、時(shí)間、方式等制度問題仍然存在很大爭(zhēng)議。就內(nèi)容而言,算法解釋權(quán)應(yīng)視為一般性的算法解釋主張,還是應(yīng)視為拒絕自動(dòng)化決策等限定權(quán)利主張?就程度而言,個(gè)體可否要求自動(dòng)化決策者對(duì)算法進(jìn)行系統(tǒng)性解釋,還是可以要求更為具體的個(gè)案解釋?就時(shí)間而言,個(gè)體是否可以要求自動(dòng)化決策者在算法決策前進(jìn)行算法解釋,還是只能要求算法決策的事后解釋?就方式而言,當(dāng)個(gè)人提起算法解釋,自動(dòng)化決策者是否必須對(duì)個(gè)體提供人工解釋,還是也可以提供機(jī)器解釋?

目前,學(xué)術(shù)界已經(jīng)對(duì)部分上述問題進(jìn)行了研究。有的研究探討《個(gè)人信息保護(hù)法》是否引入了一般性的算法解釋權(quán),有的研究分析歐盟《一般數(shù)據(jù)保護(hù)條例》中算法解釋權(quán)的性質(zhì), 有的研究從算法治理的角度進(jìn)行了分析,還有的研究特定行業(yè)的算法解釋權(quán) 等。這些研究指出,算法解釋權(quán)面臨爭(zhēng)議和挑戰(zhàn),并且從不同角度提出了解釋方法與應(yīng)用對(duì)策。本文試圖對(duì)算法解釋權(quán)的解釋爭(zhēng)議與應(yīng)用困境作更系統(tǒng)性闡述,在原理層面借鑒信任與溝通機(jī)制理論對(duì)算法解釋權(quán)進(jìn)行新的反思,并在此基礎(chǔ)上進(jìn)行制度重構(gòu)。

具體而言,本文認(rèn)為算法解釋權(quán)不應(yīng)建立在算法個(gè)體控制的基礎(chǔ)之上。因?yàn)樗惴ǖ膹?fù)雜性、不確定性以及場(chǎng)景多元性,強(qiáng)化個(gè)體算法控制面臨種種挑戰(zhàn)。作為替代,應(yīng)以信任機(jī)制重構(gòu)自動(dòng)化決策中的算法解釋權(quán),將算法解釋權(quán)視為一種信任溝通機(jī)制。當(dāng)相關(guān)算法解釋權(quán)主張有利于促進(jìn)二者之間的信任關(guān)系時(shí),此時(shí)應(yīng)支持算法解釋權(quán)的主張;相反,當(dāng)算法解釋權(quán)無助于二者信任關(guān)系建構(gòu)時(shí),或者當(dāng)算法解釋權(quán)主張?zhí)魮芏哧P(guān)系,則應(yīng)審慎對(duì)待算法解釋權(quán)的主張。從信任溝通機(jī)制出發(fā),算法解釋權(quán)的性質(zhì)應(yīng)被視為一種相對(duì)性與程序性權(quán)利,而非絕對(duì)性和實(shí)體性權(quán)利。在制度層面,可以根據(jù)算法自動(dòng)化決策所位于的行業(yè)領(lǐng)域、市場(chǎng)化程度、個(gè)案影響、企業(yè)能力而對(duì)算法解釋權(quán)的內(nèi)容、程度、時(shí)間和方式作不同要求。

三、算法解釋權(quán)的適用困境

算法解釋權(quán)的困境不僅存在于法律解釋層面,也存在于法律適用與效果層面。無論將算法解釋權(quán)界定為一般性權(quán)利主張還是限定性權(quán)利主張、系統(tǒng)性解釋還是個(gè)案性解釋、事前解釋還是事后解釋、人工解釋還是機(jī)器解釋,都存在法律適用的有效性難題。一旦對(duì)算法解釋權(quán)的內(nèi)容要求、程度要求、時(shí)間要求、方式要求作剛性的規(guī)則要求,就會(huì)帶來各類問題。

(一)算法解釋權(quán)的權(quán)利內(nèi)容

就權(quán)利內(nèi)容而言,將算法解釋權(quán)界定為一般性權(quán)利主張,首先可能面臨知情同意原則帶來的問題。以“知情—同意”模式保護(hù)個(gè)人信息相關(guān)權(quán)益,本身就面臨著很多困境,可能同時(shí)引發(fā)個(gè)人信息權(quán)益保護(hù)不足或者保護(hù)過度的問題。目前,已有不少文獻(xiàn)對(duì)此進(jìn)行了論述。如,有學(xué)者指出,對(duì)于信息處理者的告知,個(gè)人一般沒有興趣、時(shí)間、專業(yè)能力進(jìn)行閱讀。即使個(gè)體了解相關(guān)告知,也往往因?yàn)檎J(rèn)知偏差而過高估計(jì)有的風(fēng)險(xiǎn),過低判斷有的風(fēng)險(xiǎn)。還有學(xué)者指出,在個(gè)人信息收集與處理中,個(gè)人信息往往涉及多個(gè)不同主體,其風(fēng)險(xiǎn)往往具有累積性效應(yīng)(aggregating effect)。因此,個(gè)人未必能通過“知情—同意”的方式來維護(hù)自身權(quán)益,個(gè)人既可能很容易就同意信息的收集與處理,從而不能有效保護(hù)自身權(quán)益,也可能高估或者誤判某些信息收集與處理行為,拒絕本來可能為個(gè)人提供更好服務(wù)或利益的相關(guān)活動(dòng)。

在涉及算法的自動(dòng)化決策中,上述問題更為明顯。相比個(gè)人信息的收集與非自動(dòng)化決策的信息處理,涉及算法的規(guī)則往往更為復(fù)雜。算法往往由很多程序員共同完成,每個(gè)程序員可能僅僅負(fù)責(zé)其中一部分,很少有人能夠完整地解釋算法的所有細(xì)節(jié)。尤其是在涉及大數(shù)據(jù)的算法中,由于基于大數(shù)據(jù)的算法奠基于相關(guān)關(guān)系,而非因果關(guān)系之上,對(duì)算法的解釋往往難以滿足人類因果關(guān)系思維的解釋。在機(jī)器學(xué)習(xí)的年代,算法又增加了不確定性的特征。機(jī)器學(xué)習(xí)的特征是,運(yùn)用海量數(shù)據(jù)對(duì)機(jī)器學(xué)習(xí)算法進(jìn)行訓(xùn)練,讓機(jī)器學(xué)習(xí)算法進(jìn)行自我調(diào)整,以獲得更好的性能。機(jī)器學(xué)習(xí)算法可以隨時(shí)間的推移而改變處理數(shù)據(jù)的方式,就像人類可以通過學(xué)習(xí)改變處理數(shù)據(jù)的方式一樣。因此,如果將絕對(duì)透明視為算法解釋權(quán)的要求,未必現(xiàn)實(shí)。就效果而言,也未必能很好地維護(hù)個(gè)人的相關(guān)性權(quán)益,促使企業(yè)為個(gè)人提供更優(yōu)服務(wù)。

此外,將算法解釋權(quán)視為一種限定性權(quán)利的主張,以拒絕算法自動(dòng)化處理權(quán)作為核心,也面臨不少困境與挑戰(zhàn)。首先,在有的場(chǎng)景下,個(gè)人反對(duì)權(quán)的行使并不合理。如,在自動(dòng)駕駛的場(chǎng)景下,行人主張脫離算法自動(dòng)化處理,要求自動(dòng)駕駛汽車避免使用算法,就不現(xiàn)實(shí)。因?yàn)樽詣?dòng)駕駛在遇到行人時(shí),必然需要即時(shí)性的算法處理。其次,在原理層面,將反對(duì)或脫離算法決策上升為一種權(quán)利也需要進(jìn)一步論證。很多人可能更愿意采用自動(dòng)化決策算法,而非人工算法。他們可能更加擔(dān)心人工審核會(huì)帶來歧視、腐敗與效率低下,或者出于認(rèn)知上的惰性,更愿意選擇基于算法的自動(dòng)化決策,而非人類決策。如果拒絕自動(dòng)化決策可以作為一種權(quán)利,那么反對(duì)人類決策和采取自動(dòng)化決策權(quán)是否也應(yīng)該成為一種權(quán)利?

(二)算法解釋權(quán)的解釋程度

就算法解釋權(quán)的解釋程度而言,算法的系統(tǒng)性解釋除了上文提到的算法復(fù)雜性之外,還存在如下幾方面的難題。

首先,算法的系統(tǒng)性解釋面臨時(shí)時(shí)更新的難題。以機(jī)器學(xué)習(xí)為代表的人工智能算法可以從數(shù)據(jù)中學(xué)習(xí),并隨著時(shí)間的推移而提高其準(zhǔn)確性。因此,在機(jī)器學(xué)習(xí)算法中,算法隨著時(shí)間的演進(jìn)而變化,而非一成不變。要對(duì)這樣的算法進(jìn)行系統(tǒng)性解釋,就意味著必須對(duì)算法進(jìn)行實(shí)時(shí)跟蹤,不斷進(jìn)行解釋。

其次,算法的系統(tǒng)性解釋常常難以引起個(gè)人注意,為個(gè)人提供有效信息。在自動(dòng)化決策者進(jìn)行自動(dòng)化決策之前對(duì)個(gè)人的告知中,個(gè)人對(duì)算法自動(dòng)化決策系統(tǒng)的邏輯、意義、預(yù)期后果和一般功能往往就沒有多大興趣,更不用說去了解和閱讀相關(guān)告知。而在個(gè)人遭遇自動(dòng)化決策,對(duì)算法產(chǎn)生相應(yīng)疑慮之后,關(guān)于算法的一般系統(tǒng)解釋也未必能打消個(gè)人疑慮。特別是當(dāng)系統(tǒng)解釋與個(gè)人的算法決策結(jié)果相關(guān)性不高時(shí),系統(tǒng)解釋對(duì)于個(gè)人就沒有太多意義。

最后,算法的系統(tǒng)性解釋還面臨知識(shí)產(chǎn)權(quán)與“算計(jì)”算法的難題。算法的系統(tǒng)性解釋,往往意味著算法決策機(jī)制一定程度的公開,會(huì)對(duì)企業(yè)的知識(shí)產(chǎn)權(quán)保護(hù)帶來一定的挑戰(zhàn)。而算法如果向包括社會(huì)公眾在內(nèi)的人員完全公開,則可能導(dǎo)致社會(huì)主體鉆算法的空子,采取各種方式來“算計(jì)”算法的問題。如,Google最初采取一種叫做PageRank的算法,用于在搜索引擎結(jié)果中對(duì)網(wǎng)頁進(jìn)行排名。Google公司曾經(jīng)向社會(huì)公開這種算法,但結(jié)果是有的網(wǎng)站利用這一算法而將自己的網(wǎng)站排在Google搜索結(jié)果前列。為了應(yīng)對(duì)這一問題,Google只能采取其他算法與PageRank算法混合,不再唯一使用某種算法。

相比算法的系統(tǒng)性解釋,算法的個(gè)案性解釋需要解釋某個(gè)具體算法決策的邏輯,因而更貼近個(gè)人訴求。但個(gè)案性解釋首先面臨系統(tǒng)性解釋同樣的問題,因?yàn)閭€(gè)案性解釋以系統(tǒng)性解釋為前提,其需要首先解釋算法決策系統(tǒng)的一般規(guī)則。其次,個(gè)案性解釋的解釋難度更大、成本更高。因?yàn)閭€(gè)案性解釋除了要掌握算法的系統(tǒng)性運(yùn)作,還需要掌握針對(duì)某個(gè)個(gè)體決策的具體情況。最后,算法的個(gè)案性解釋需要多具體?從邏輯上說,個(gè)案性解釋可以無限具體,個(gè)人可以無限追問。以個(gè)性化推薦算法為例,個(gè)人可能希望知道,為何自己收到植發(fā)廣告?企業(yè)可能告訴某個(gè)個(gè)人,企業(yè)并沒有設(shè)置“掉發(fā)”“禿頭”之類的標(biāo)簽,植發(fā)廣告是算法的自動(dòng)化分發(fā)。但個(gè)人可能會(huì)進(jìn)一步追問,企業(yè)是否設(shè)置了“頭發(fā)”“中年”等標(biāo)簽,或者要求企業(yè)解釋,為何其電腦上收到了植發(fā)廣告,而手機(jī)上沒有收到?為何對(duì)他推送了植發(fā)廣告,而沒有對(duì)其他人推送?如果個(gè)案解釋以個(gè)人的徹底滿意為標(biāo)準(zhǔn),個(gè)案解釋可能會(huì)無窮無盡。

(三)算法解釋權(quán)的時(shí)間要求

就算法解釋的時(shí)間要求而言,事前解釋的意義有限。事前解釋只能是一般解釋。個(gè)體往往對(duì)于告知不太在意或難以理解,而機(jī)器學(xué)習(xí)等算法又可能時(shí)時(shí)發(fā)生變化,在這樣的背景下,對(duì)算法進(jìn)行事前解釋,無助于個(gè)體理解算法和作出理性決策。對(duì)于個(gè)體而言,事前解釋最多等同于告知個(gè)體“存在自動(dòng)化算法決策”。這種解釋既無法向個(gè)體告知演進(jìn)后的算法規(guī)則,也無法針對(duì)具體個(gè)體的情況,向個(gè)體解釋針對(duì)其個(gè)人的具體算法決策如何作出。

同時(shí),事后解釋也面臨難題。一方面,事后解釋是在算法決策已經(jīng)作出之后進(jìn)行。自動(dòng)化決策者無需提前告知個(gè)體其運(yùn)行機(jī)制,那么個(gè)人對(duì)自動(dòng)化決策與個(gè)人信息處理的選擇權(quán)將形同虛設(shè)。缺乏知情與了解,個(gè)人的選擇權(quán)與決定權(quán)可能成為一種任意行使的情緒性主張,缺乏理性基礎(chǔ)。此外,在一些具有風(fēng)險(xiǎn)性的算法決策中,事后解釋可能面臨更大的問題。因?yàn)榇祟愃惴Q策可能給個(gè)體帶來重大風(fēng)險(xiǎn),需要個(gè)體采取措施進(jìn)行積極預(yù)防,事后解釋顯然無法幫助個(gè)體理解和防范此類風(fēng)險(xiǎn)。

另一方面,事后解釋應(yīng)當(dāng)以體系性解釋作為要求,還是應(yīng)當(dāng)以個(gè)案性解釋作為要求,也是一個(gè)兩難問題。在機(jī)器學(xué)習(xí)等算法中,算法可能在經(jīng)過大數(shù)據(jù)訓(xùn)練后發(fā)生變化,因此,算法的事后解釋既可以要求自動(dòng)化決策者對(duì)算法進(jìn)行一般解釋,也可以針對(duì)決策時(shí)的算法系統(tǒng)進(jìn)行個(gè)案解釋。如果將事后解釋的要求界定為體系性解釋,那么企業(yè)等算法主體需要對(duì)算法的演化進(jìn)行追蹤了解,將決策時(shí)的算法告知用戶即可。其好處是企業(yè)等算法主體的負(fù)擔(dān)相對(duì)合理,但問題在于,個(gè)體對(duì)算法決策的困惑可能很難消除。而如果將事后解釋的要求界定為個(gè)案解釋,則企業(yè)不但需要追蹤算法的演化,還需要針對(duì)成千上萬用戶進(jìn)行個(gè)性化的解釋。此類解釋雖然有利于用戶消除疑慮,但也會(huì)給企業(yè)等算法主體施加不現(xiàn)實(shí)的負(fù)擔(dān)。

(四)算法解釋權(quán)的方式要求

在解釋方式要求上,機(jī)器解釋與人工解釋也難以作統(tǒng)一要求。如果將人工解釋作為強(qiáng)制性與統(tǒng)一性要求,并不現(xiàn)實(shí)。這意味著在個(gè)人信息的收集、處理、申訴等各個(gè)階段,使用算法的企業(yè)都需要單獨(dú)通知個(gè)人,并在個(gè)人行使訪問權(quán)、更正權(quán)、刪除權(quán)、拒絕自動(dòng)化決策權(quán)等權(quán)利時(shí)都設(shè)置人工服務(wù)。在用戶量有限的醫(yī)療算法、信貸算法等場(chǎng)景下,醫(yī)院或大型銀行或許可以滿足這一要求,因?yàn)榇祟悎?chǎng)景更類似于一對(duì)一或一對(duì)多服務(wù)。但在其他場(chǎng)景下,人工解釋會(huì)給某些算法主體帶來難以承擔(dān)的壓力。有的互聯(lián)網(wǎng)與科技企業(yè)的用戶超過數(shù)億,每天存在無數(shù)的自動(dòng)化處理。如果人工解釋或服務(wù)是強(qiáng)制性要求,那么只要有千分之一的用戶提起算法解釋請(qǐng)求,企業(yè)就將不堪重負(fù)。

事實(shí)上,即使對(duì)算法解釋權(quán)最為推崇的歐盟,也將很多自動(dòng)化決策視為符合法定要求的個(gè)人信息處理,毋需人工介入或人工解釋。如,歐盟第29條數(shù)據(jù)保護(hù)工作組發(fā)布的《個(gè)人自動(dòng)化決策和用戶畫像指南》認(rèn)為,如果企業(yè)海量的自動(dòng)化處理是企業(yè)所必須,那么此類處理可以被視為《一般數(shù)據(jù)保護(hù)條例》第6(1) (b)所規(guī)定的“為履行合同而必需”這一處理的合法性基礎(chǔ)。對(duì)于《一般數(shù)據(jù)保護(hù)條例》規(guī)定的知情權(quán)、訪問權(quán)、更正權(quán)以及拒絕自動(dòng)化決策權(quán),此類處理將不再適用。歐盟第29條數(shù)據(jù)保護(hù)工作組以招聘中的自動(dòng)化算法為例,指出如果某企業(yè)工作很受歡迎,收到了數(shù)以萬計(jì)的申請(qǐng),那么企業(yè)可以合法使用純粹的自動(dòng)化決策篩除不相關(guān)的申請(qǐng),以確定合適的候選人。

但是如果完全不作要求,允許企業(yè)以純機(jī)器解釋的方法來進(jìn)行算法解釋,那么算法解釋制度設(shè)計(jì)的初衷就可能大打折扣。在一定程度上,算法解釋制度就是為了引入人類的解釋說明機(jī)制,消除個(gè)人對(duì)算法的疑慮。如果允許以機(jī)器解釋機(jī)器決策,則算法解釋機(jī)制毋寧說是另一種自動(dòng)化決策,未必能夠消除個(gè)人疑慮。特別是當(dāng)算法對(duì)個(gè)人的“權(quán)益造成重大影響”,而個(gè)人又對(duì)機(jī)器的算法解釋感到困惑與質(zhì)疑,希望有人工解釋介入時(shí),此時(shí)企業(yè)如果仍然未能提供人工解釋的選項(xiàng),則所謂的算法解釋制度將形同虛設(shè)。

五、算法解釋權(quán)的制度重構(gòu)

從算法解釋權(quán)的原理出發(fā),可以重新建構(gòu)算法解釋權(quán)制度。算法解釋權(quán)可以根據(jù)其權(quán)利內(nèi)容、解釋程度、解釋時(shí)間、解釋方式不同而分為一般性主張與限定性主張、系統(tǒng)性解釋與個(gè)案性解釋、事前解釋與事后解釋、機(jī)器解釋與人工解釋,而且每種分類均存在法律解釋層面與法律有效性層面的難題。要回應(yīng)這些難題,可以結(jié)合算法解釋權(quán)的溝通信任原則與程序性性質(zhì),對(duì)算法解釋權(quán)的內(nèi)容、程度、時(shí)間與方式作不同類別的要求。

首先,就權(quán)利內(nèi)容而言,算法解釋權(quán)不應(yīng)被視為一種內(nèi)容邊界完全清晰的權(quán)利。無論是一般性主張還是限定性主張,其權(quán)利主張都是程序性的,其實(shí)體性邊界應(yīng)該根據(jù)具體場(chǎng)景下個(gè)人與算法決策者之間的溝通信任關(guān)系而確定??傮w而言,當(dāng)算法決策所處的場(chǎng)景具有嚴(yán)重的信任危機(jī),且難以通過市場(chǎng)競(jìng)爭(zhēng)改善算法時(shí),應(yīng)當(dāng)賦予個(gè)體一般性的算法解釋權(quán)主張,而不僅僅是拒絕算法自動(dòng)化決策的權(quán)利。同時(shí),個(gè)體主張算法說明解釋的權(quán)利也不應(yīng)設(shè)置前提。例如,當(dāng)人們對(duì)外賣算法系統(tǒng)存在普遍不信任時(shí),或者對(duì)網(wǎng)約車的算法派單感到困惑時(shí),應(yīng)賦予個(gè)體以算法解釋權(quán),這類一般性主張將有利于督促自動(dòng)化決策者對(duì)算法進(jìn)行改善,重新贏取社會(huì)與用戶的信任。相反,當(dāng)算法決策所處的場(chǎng)景本身具有相對(duì)較高的信任度,或者該行業(yè)具有良性互動(dòng)的競(jìng)爭(zhēng)機(jī)制,則此時(shí)應(yīng)將算法解釋權(quán)限定為某些特定的權(quán)利主張。一部分群體可能對(duì)自動(dòng)化決策本身存在懷疑,當(dāng)自動(dòng)化決策對(duì)他們產(chǎn)生重大影響,賦予他們以拒絕自動(dòng)化處理的權(quán)利或算法說明解釋權(quán),有利于進(jìn)一步促進(jìn)二者之間的信任。

其次,就解釋程度而言,一方面應(yīng)要求企業(yè)充分了解和掌握算法的系統(tǒng)性解釋?,F(xiàn)代互聯(lián)網(wǎng)企業(yè)和銀行的算法往往“由眾多工程師設(shè)計(jì)組成的復(fù)雜公式?jīng)Q定”,企業(yè)或規(guī)制機(jī)構(gòu)掌握其算法的整體運(yùn)行機(jī)制,這是算法解釋權(quán)有效實(shí)施的前提。為了實(shí)現(xiàn)這一目標(biāo),企業(yè)或運(yùn)用算法決策的規(guī)制機(jī)構(gòu)就應(yīng)打通其內(nèi)部壁壘,在企業(yè)內(nèi)部樹立算法倫理與合規(guī)實(shí)踐,真正將企業(yè)向消費(fèi)者告知的隱私政策和對(duì)用戶的回應(yīng)落實(shí)到企業(yè)的每一個(gè)環(huán)節(jié)。換句話說,企業(yè)需要不斷進(jìn)行內(nèi)部的自我監(jiān)管,既需要在事前解釋環(huán)節(jié)就對(duì)算法設(shè)計(jì)進(jìn)行內(nèi)部溝通,也需要在事后解釋中倒查企業(yè)內(nèi)部的算法運(yùn)作機(jī)制,保持對(duì)算法的內(nèi)部動(dòng)態(tài)監(jiān)管。另一方面,可以根據(jù)算法所處的領(lǐng)域特征、影響性不同而要求不同程度和類別的算法個(gè)案解釋。對(duì)于那些用戶具有較多選擇權(quán)、個(gè)案影響一般的算法決策,應(yīng)允許自動(dòng)化決策者自身設(shè)定個(gè)案解釋的規(guī)則。對(duì)于企業(yè)應(yīng)用算法進(jìn)行不涉及意識(shí)形態(tài)與公共倫理的娛樂資訊的分發(fā),應(yīng)允許企業(yè)在個(gè)案解釋中進(jìn)行自我規(guī)制,避免國(guó)家過多的強(qiáng)制性監(jiān)管。但對(duì)于具有公共性影響的算法以及對(duì)個(gè)體造成重大影響特別是實(shí)際傷害的算法決策,國(guó)家則應(yīng)強(qiáng)制自動(dòng)化決策者進(jìn)行個(gè)案解釋,以保護(hù)公共利益與個(gè)人的核心權(quán)益。如,在醫(yī)療場(chǎng)景下利用機(jī)器人進(jìn)行手術(shù),此時(shí)應(yīng)當(dāng)充分保障患者對(duì)于算法的個(gè)案知情權(quán),患者不僅有權(quán)知曉手術(shù)機(jī)器人算法決策的一般規(guī)則,而且應(yīng)當(dāng)有權(quán)了解該機(jī)器人對(duì)其個(gè)人進(jìn)行手術(shù)的決策機(jī)制、過程與效果。又如,在涉及外賣騎手人身安全、卡車司機(jī)罰款或者自動(dòng)駕駛汽車安全的算法決策中,個(gè)人應(yīng)當(dāng)有權(quán)在這些情形中提出算法解釋的請(qǐng)求。

再次,就解釋時(shí)間要求而言,在告知環(huán)節(jié)可以要求或倡導(dǎo)企業(yè)在事前進(jìn)行模糊性解釋。由于算法的自我演化與不確定性,算法向公眾的告知可以描述算法的整體運(yùn)行,讓用戶或消費(fèi)者感知算法的具體運(yùn)行情況,幫助個(gè)體作出更佳決策,而非對(duì)算法的所有參數(shù)和所有細(xì)節(jié)進(jìn)行描述。例如,網(wǎng)約車的算法可以向用戶告知,其算法是否會(huì)將性別、收入、年齡、高峰期的車輛運(yùn)行等情況納入算法規(guī)則的解釋說明中,但沒有必要對(duì)某一個(gè)參數(shù)如何影響算法進(jìn)行具體告知。此類描述不僅可以在一定程度上克服算法的不確定性問題,而且有利于克服系統(tǒng)性解釋的針對(duì)性不強(qiáng)、侵犯商業(yè)秘密、被人利用等難題。因?yàn)榇祟惤忉尶梢栽谝欢ǔ潭壬舷脩糨^為普遍的疑慮,同時(shí),由于此類描述較為原則,此類解釋也不會(huì)對(duì)企業(yè)的商業(yè)秘密造成嚴(yán)重侵害,一些鉆空子的個(gè)人與企業(yè)也無法“算計(jì)”算法。

最后,就解釋方式而言,自動(dòng)化決策者可以根據(jù)自身能力、行業(yè)特征、用戶數(shù)量與算法影響程度而選擇人工解釋或機(jī)器解釋。在理念層面,人工解釋具有一定的優(yōu)先性,專業(yè)高效的人工解釋更有利于信任的建立。同時(shí),對(duì)于一些對(duì)個(gè)人或社會(huì)造成重大影響的算法,人工解釋應(yīng)成為兜底性要求,以便消費(fèi)者或監(jiān)管機(jī)構(gòu)對(duì)企業(yè)或算法運(yùn)用的主體進(jìn)行算法監(jiān)督。但對(duì)于其他并未產(chǎn)生重大影響、用戶數(shù)量龐大的算法,要求企業(yè)或算法主體對(duì)所有個(gè)體都采取人工解釋,并不現(xiàn)實(shí)。如果強(qiáng)行施加此類要求,其結(jié)果可能反而是企業(yè)關(guān)閉所有的解釋與溝通渠道。因此,應(yīng)當(dāng)允許企業(yè)在一般情況下運(yùn)用機(jī)器解釋或自動(dòng)化客服。機(jī)器解釋如果運(yùn)用得當(dāng),例如在事先充分設(shè)想場(chǎng)景,為用戶提供各類“反事實(shí)解釋”或針對(duì)性解釋,則機(jī)器解釋也能有效起到提供“有效性信息”、溝通解惑的功能。此外,還可以鼓勵(lì)企業(yè)或算法主體建立機(jī)器與人工的混合解釋機(jī)制。機(jī)器解釋與人工解釋的混合使用,將有助于減小自動(dòng)化決策者的現(xiàn)實(shí)壓力,更有效推動(dòng)算法解釋權(quán)的落地。

文章來源:《中國(guó)法學(xué)》

2022年第1期