2020年12月,荷蘭期刊《信息政體》(Information Polity)推出了一期特刊《政府中的算法透明性:多層視角方向》(Algorithmic Transparency in Government: Towards a Multi-Level Perspective)。其中的六篇論文分析了不同層級政府在運用算法作決策的過程中經(jīng)歷的挑戰(zhàn),旨在幫助人們在概念和實證層面更好地理解如何在政府決策中使用算法。

部分算法系統(tǒng)存在偏向性

據(jù)特刊客座編輯、荷蘭萊頓大學公共管理學院助理教授薩拉·蓋斯特(Sarah Giest)和荷蘭烏得勒支大學治理學院副教授斯蒂凡·格雷姆里克懷森(Stephan Grimmelikhuijsen)介紹,以往的研究顯示,機器學習技術(shù)以及算法有望提高政府服務的公平性、有效性,將決策從人類的主觀性中“解脫”出來。如今,算法在醫(yī)療、司法等許多公共服務領(lǐng)域日益普及。例如,在司法系統(tǒng)中,由算法預測犯罪者再犯概率的準確性高于人類法官。

但是,基于算法的決策或建議也可能給弱勢群體帶來過多負面影響。例如,荷蘭一些地方政府曾引入一個系統(tǒng),用算法篩選可能實施社會福利詐騙行為的人群。該系統(tǒng)的應用遭到了一部分人反對,并于2020年被荷蘭一家法院判定“具有歧視性”“不透明性”,因為弱勢群體往往被預測為具有詐騙嫌疑的行為人。這種偏倚(bias)現(xiàn)象背后的一大問題是算法的透明性不足。實際上,政府決策中所用的算法大多由商業(yè)機構(gòu)開發(fā),這些算法被視為知識產(chǎn)權(quán),不會對民眾公開。政府基于不透明的算法作決策是有風險的,因為具有偏向性的決策會侵蝕民眾對政府的信任。蓋斯特談到,針對政府算法決策不透明的批評迅速增加,僅揭示算法的技術(shù)細節(jié)是不夠的,還需考察算法運行的制度、機構(gòu)、個人背景,如此才能真正確保政府透明、負責任地使用算法。

透明性涉及各個政府層級

格雷姆里克懷森稱,算法使用的透明性挑戰(zhàn)貫穿政府的不同層級。立法機構(gòu)可以設立算法透明性機制,行政機構(gòu)可以出臺算法使用的新政策,政府工作人員個人可以有自己的知識技能庫,所有這些層級相互作用并影響著公共機構(gòu)內(nèi)的算法透明性。透明性挑戰(zhàn)還可能呈現(xiàn)不同的形式,技術(shù)工具、監(jiān)管指導方針、機構(gòu)政策既能增加透明性,也能限制透明性。特刊收錄的文章在宏觀(macro-)、中觀(meso-)、微觀(micro-)三個層級上探討了透明性挑戰(zhàn)。宏觀層級在制度視角下描述現(xiàn)象:國家體制、法律法規(guī)、文化在算法決策中起到什么作用?中間層級關(guān)注機構(gòu)和團隊:政府機構(gòu)大體上是如何應對算法透明性問題的?制定了哪些機構(gòu)和團隊策略?微觀層級聚焦信仰、動機、互動、行為等個人屬性,例如,社區(qū)工作人員是如何使用算法的?透明的算法是否會讓他們作出不同或更好的決策?

在宏觀層級上,芬蘭赫爾辛基大學政治學教授佩爾蒂·阿霍寧(Pertti Ahonen)和泰羅·厄吉拉(Tero Erkkil?覿)考察了與政府算法決策透明性相關(guān)的觀念沖突和概念轉(zhuǎn)變。通過分析國家性和國際性的官方文件,開展半結(jié)構(gòu)化的專家訪談,他們發(fā)現(xiàn)歐盟和芬蘭的法律法規(guī)以復雜的方式相互交織。雖然存在具有約束力的規(guī)范,例如《通用數(shù)據(jù)保護條例》(GDPR),但成員國在如何制定和實施具體政策上有一定的自由空間。在芬蘭國內(nèi),算法透明性及其他自動化決策的透明性概念處在法律、倫理、政治、政策、管理、技術(shù)領(lǐng)域的復雜交界地帶,人們對相關(guān)法律的解讀存在理念沖突。阿霍寧和厄吉拉的研究提供了兩點重要啟示:第一,在算法和算法決策的透明性問題上,歐盟和國家法律框架以及成員國的公共領(lǐng)域(public sphere)傳統(tǒng)之中既有制約因素也有促進因素,應就這一主題開展比較研究。第二,為了讓研究人員擁有更大的監(jiān)督管控力度,同時提供專業(yè)見解,有必要考察專家顧問機構(gòu)的作用。

荷蘭萊頓大學公共管理學院助理教授亞歷克斯·英格拉姆斯(Alex Ingrams)采用無監(jiān)督機器學習(unsupervised machine learning)方法分析了美國運輸安全管理局(TSA)收到的數(shù)千條公眾評論。經(jīng)過分析,研究人員發(fā)現(xiàn)了突出的話題群(topic cluster),可幫助政策制定者在公開征求意見過程中了解大量信息。這項研究表明,不僅算法本身應具有透明性,算法還可作為提高政府決策透明性的工具。

在中觀層級上,基于半結(jié)構(gòu)化訪談和文獻分析的定性研究方法,西班牙馬德里自治大學政治學與國際關(guān)系學教授J.伊格納西奧·克里亞多(J. Ignacio Criado)等學者分析了瓦倫西亞自治區(qū)政府使用的一種算法系統(tǒng)。他們希望回答兩個問題:算法在多大程度上影響政府工作人員作決策時的自由裁量權(quán)?算法透明性對政府工作人員的自由裁量權(quán)有何影響?這項研究顯示,算法對政府工作人員的自由裁量權(quán)有積極作用。讓他們積極參與到法律承認的研發(fā)或?qū)徍诉^程中,有助于增強算法透明性。

愛爾蘭都柏林圣三一大學信息系統(tǒng)副教授弗蘭克·班尼斯特(Frank Bannister)和愛爾蘭都柏林城市大學信息系統(tǒng)教授雷吉娜·康納利(Regina Connolly)提出,隨著人工智能的發(fā)展,人類決策正在越來越多地依賴算法和機器學習技術(shù)。能夠檢測到算法決策的風險并將風險分類,對于系統(tǒng)化地、精準地應對風險至關(guān)重要。

在微觀層級上,墨西哥經(jīng)濟研究與教育中心(CIDE)公共管理教授里克·皮特斯(Rik Peeters)提出,如果不能理解算法如何影響人類決策,算法設計如何影響透明性和人類自主判斷的實際可能性,“保持人類知情”(keep humans in the loop)的呼吁或?qū)⑹菬o力的。通過回顧近期的學術(shù)文獻,皮特斯發(fā)現(xiàn),透明性和人類自主判斷的前提由三個關(guān)鍵的設計變量(自動化程度、算法類型、組織范圍)決定,有限理性(bounded rationality)、滿意行為(satisficing behavior)、自動化偏倚(automation bias)、一線應對機制(frontline coping mechanism)對人類如何使用算法中的監(jiān)督和超馳控制(override)選項起到關(guān)鍵性影響。

美國得克薩斯農(nóng)工大學公共服務與管理系副教授賈斯汀·布洛克(Justin Bullock)等學者設計了一個將關(guān)于人工智能、人類自主判斷、公共機構(gòu)行政制度形式的研究整合起來的理論框架,并以此考察了公共部門使用人工智能的兩個非常不同的領(lǐng)域(醫(yī)療保險審計和警務)。研究結(jié)果顯示,人工智能對人類自主判斷的影響是非線性、非單調(diào)的(nonmonotonic)。

蓋斯特和格雷姆里克懷森表示,為倡導負責任的、透明的算法使用,接下來的研究應探索上述宏觀、中觀、微觀層面之間的相互作用。