人工智能立法的“技術—社會+經(jīng)濟”范式
內(nèi)容提要:人工智能立法應以立法范式轉型引領科技立法進入新時代。這一轉型是對近代以來科技立法形成的“技術—經(jīng)濟”范式的重大超越。既有科技立法范式,簡單強調經(jīng)濟主義的單一維度,雖然兩三百年以來成功地刺激了科技應用和經(jīng)濟增長,但是現(xiàn)在明顯具有很大的不適應性。一方面,這種過度經(jīng)濟主義模式本身導致了對科技社會性的忽視,引發(fā)越來越嚴重的科技與社會風險;另一方面,正在興起的人工智能科技具有前所未有的強社會面相,它的巨大顛覆潛力和認知能力等特性,使得其應用面臨著復雜而迫切的社會規(guī)范要求,特別是引發(fā)了對人的價值性的關切,因此應該向“技術—社會+經(jīng)濟”新范式轉變,以經(jīng)濟性、社會性的雙重架構以及相應的四項原則等,來推進對人工智能的合理規(guī)范。
關 鍵 詞:人工智能立法/科技立法/“技術—經(jīng)濟”范式/“技術—社會+經(jīng)濟”范式/自主化技術/人的價值性/人工智能倫理
作者簡介:龍衛(wèi)球,法學博士,北京航空航天大學法學院教授,博士生導師,教育部長江學者特聘教授。北京 100191
基金項目:國家社會科學基金重大項目(16ZDA075)。
法律與科技自近代以來存在緊密的聯(lián)系,人類基于對于科技作用的重視,自近代起設立了專門以科技作為規(guī)范事項的科技法。但是,我們可能注意到一個有關科技法的事實,那就是在其得以興起和發(fā)展的過去兩三百年間,科技法一直秉持的是一種“技術—經(jīng)濟”的立法范式,就是說關注的主要只是技術的經(jīng)濟規(guī)范意義。這種立法模式與人類關于科技的長期以來占主流地位的思維是一致的,即技術經(jīng)濟主義。這種思維對于科技的認知傾向是,“僅僅以經(jīng)濟學和經(jīng)濟史的術語來對待這一問題”①。即,技術主要作為具有巨大經(jīng)濟意義的工業(yè)革命的推動要素而受重視。隨著人類對技術經(jīng)濟意義追求不斷升級,甚至引發(fā)了對于技術的膜拜,促成一種技術統(tǒng)治乃至技術壟斷的技術意識形態(tài)后果[3](P43-62)。
一、問題的提出:人工智能時代科技立法范式轉型的背景
人工智能因機器學習等新方法和新技術的突破,成為當前最引人關注的新科技主題之一。人工智能科技最新和未來一個時期發(fā)展的意義,首先是其被認識到正在取得主導科技的地位,在技術和經(jīng)濟維度上形成了巨大的迭代力量,具有極端顛覆性的經(jīng)濟應用前景,由此不斷引發(fā)投資風暴[4]。其次,則是它引起了作為新興科技事物正在產(chǎn)生前所未有的社會關注。人們開始意識到,它的發(fā)展影響不應該僅僅是技術經(jīng)濟的,更應該是社會的。對人工智能的這種社會關注,有積極方面的期待。計算社會學、人工智能化社會理論正在揭示新社會發(fā)展和建構的可能性:例如,通過新計算方法和人工智能,可以發(fā)展更好測量世界的全新思維工具;通過引入不斷升級的智能化,可以使得世界互聯(lián)、萬物互聯(lián)、人機互動關系更加嫻熟。這些使得進行大規(guī)模社會協(xié)作成為可能,社會共享、社會合作的前景誘人[5](P199)??傊?,在人工智能和新計算方法之下,社會智能化發(fā)展方興未艾,一個“超級全球化”時代似乎就在眼前[6](P2)。
但目前人們對于人工智能的社會關切,更多還是消極方面的憂慮。首先是人類的適應性問題。美國科技社會思想家蘭登·溫納早前指出,當代新技術領域的發(fā)展,其導致的現(xiàn)代社會日益增長的復雜性和快速變化,超出了個人和社會形態(tài)的適應能力,“與社會技術系統(tǒng)日益增長的復雜性合在一起,這些變化使得人們越來越難以開展當代社會生活中某些最為基本的活動:規(guī)劃、設計以及功能上的協(xié)調合作”[1](P2)。其次則是科技自身風險及科技簡單經(jīng)濟化引發(fā)的社會風險問題。風險理論家貝克便關注到,在當前發(fā)達科技條件下,一方面,令人擔憂的生態(tài)風險和高科技風險不斷具備新的特點,導致不可計算的威脅的后果;另一方面,在所謂現(xiàn)代性之中,還出現(xiàn)了財富的社會化生產(chǎn)與風險的社會化系統(tǒng)相伴的情況。“相應地,稀缺社會的分配問題和分配沖突,也同科技引發(fā)的風險在生產(chǎn)、界定及分配過程中產(chǎn)生的問題和沖突疊合在一起”“換言之,在風險社會中,未知的、意圖之外的后果成了歷史和社會的主宰力量”[7](P3,8)。就人工智能來說,其對社會的影響尤為重大和特殊。人工智能技術新發(fā)展,由于對計算方法極為推崇,導致了一種“計算主義”新思潮,似乎世界不過是計算或信息流構成的[8](P2,20)。這種信息簡化主義世界觀,引發(fā)了有識之士對“技術致死”的憂懼:如果我們的道德、倫理和公共事務等問題被所謂的技術重構,變得這樣簡單可控,那么世界究竟會變成什么樣[9](P92)?此外,人工智能基于它在認知能力上的發(fā)展而具有與人的相通性,還帶來了棘手的重新塑造“人與人造物關系”的全新課題②。
人工智能鑒于其科技事項屬性,從立法歸屬而言,自然應該納入科技立法的特別范疇[11]。由上可知,人工智能作為正逢其時的技術新領域,其發(fā)展可能帶來經(jīng)濟迭代福利的同時,也正在產(chǎn)生社會正反方面的巨大效應,因此從立法上來說必然導致更加復雜的要求。人工智能最新和未來發(fā)展具有的經(jīng)濟和社會的雙重影響,使得既有科技立法的所謂“技術—經(jīng)濟”范式明顯具有不適應性。本文提出,人工智能立法范式具有由傳統(tǒng)科技立法的“技術—經(jīng)濟”范式轉向“技術—社會+經(jīng)濟”范式,實是勢所必然。本文擬就這種轉型的歷史規(guī)律進行觀察和分析,并試圖在此基礎上探究新范式的基礎、內(nèi)涵及其開展。
二、科技立法“技術—經(jīng)濟”傳統(tǒng)范式的流變及其規(guī)范原理
科技立法專門化的最初基礎是人類對于科技在經(jīng)濟上重要性的發(fā)現(xiàn)??萍季哂薪?jīng)濟的重要性不等于就會產(chǎn)生科技立法,只有當技術發(fā)展到一定階段、人們形成了關于其重要性的認識,科技立法才會水到渠成,科技事項才會成為相對獨立的規(guī)范對象。
技術的重要性對于人類來說不言而喻。近代開始,人文理性主義的意識崛起,科學意識也隨之覺醒,人類技術開始與科學思維與方法緊密相關,從而由單純的技術發(fā)展為科技。這一時期,科學、科技先是作為人文理性主義的演繹產(chǎn)物得到發(fā)展,但很快就喧賓奪主,成為人文理性的替代形態(tài)而得到高舉。這種傾向在笛卡爾那里就有了端倪,這位17世紀的歐洲哲學家和科學家,倡導科學主義,提出了一種普遍懷疑的哲學主張,因此被譽為“近代科學的始祖”③。漸漸地,科學主義思想占據(jù)統(tǒng)治地位,理性主義幾乎等于科學主義。與此同時,英國的亞當·斯密等在理性主義的基礎上,提出了初始的自由市場理論,很快推動了市場經(jīng)濟實踐。于是,在科學主義和市場主義的結合下,英國不僅最早出現(xiàn)了科技的發(fā)明自覺,而且因為市場需要,科技發(fā)明的經(jīng)濟重要性也很快被認識到,于是導致了科技發(fā)明的勃發(fā),而為了鼓勵這種科技發(fā)明的自覺以及確保其市場經(jīng)濟效應的發(fā)揮,英國生發(fā)了相應的科技立法自覺,最早的科技法產(chǎn)生了,其形態(tài)就是鼓勵科技發(fā)明及其經(jīng)濟利用的專利法——通過授予發(fā)明人以專利權和相關的財產(chǎn)、人身利益,以便極大地刺激和鼓勵科技發(fā)明和經(jīng)濟應用④。一批直接與現(xiàn)實經(jīng)濟需要密切相關的新發(fā)明應運而生,包括紡織機、蒸汽機等,它們在專利法的保障下發(fā)揮巨大的經(jīng)濟潛力,支持英國最早開展工業(yè)革命,成為最早的工業(yè)強國。人類的科技立法也由此滾滾向前。
科技立法這種基于科學主義和經(jīng)濟主義結合的產(chǎn)物,順理成章地導致了此后“技術—經(jīng)濟”的立法范式的形成和不斷升級。一開始,二者之間是一種完全市場式的結合。立法者通過采取授予專利權等科技產(chǎn)權、確立有限責任公司等適合科技產(chǎn)業(yè)化規(guī)模風險經(jīng)營的組織形態(tài)等市場化激勵方式,對于科技發(fā)明和應用加以刺激。專利制度和公司制度先從英國興起,后逐漸發(fā)展到美國、德國等國家,形成了科技立法國際發(fā)展的第一輪高潮。在“技術—經(jīng)濟”范式鼓勵下,工業(yè)企業(yè)為了追求更加先進的科技產(chǎn)業(yè)利益,開始成立專門的工業(yè)實驗室進行有組織的科技研究,導致了大量工業(yè)發(fā)明出現(xiàn)。到19世紀中葉,除了傳統(tǒng)的煤炭、紡織業(yè),電氣、化工等新的科技領域得到突破,進而促成了新科技產(chǎn)業(yè)的出現(xiàn)和繁榮。19世紀80年代以后,由于科技壟斷帶來的競爭優(yōu)勢,在石油、采煤、榨油、煙草、制糖等部門出現(xiàn)了卡特爾、康采恩或托拉斯組織,這些不斷崛起的大型企業(yè)聯(lián)合,具有經(jīng)濟集中的優(yōu)勢,這種情況受到主流地位的自由市場理論抨擊,導致了旨在維護市場公平競爭的反壟斷法的出臺。但是,反壟斷法卻產(chǎn)生了更加促進有組織的工業(yè)研究的效果,因為大型企業(yè)只有不斷做出新領域的科技發(fā)明,才能夠避免陷入專一技術經(jīng)營形成的壟斷。這種競爭利益雖然表面上看具有一定的社會性,被譽為社會經(jīng)濟利益,但是本質上仍然是市場經(jīng)濟利益,因為旨在保護市場競爭。從這個意義上說,科技立法的“技術—經(jīng)濟”模式不斷在得到深化⑤。
科技立法的“技術—經(jīng)濟”范式在20世紀中葉,被以一種強化國家干預科技進步和轉化的方式,推進到一個新階段。20世紀三四十年代,各國基于二戰(zhàn)的需要,集中科技資源備戰(zhàn),強化有組織的攻關研究,旨在保障和促進對于戰(zhàn)時工業(yè)經(jīng)濟特別是軍工有優(yōu)先支持作用的科技的發(fā)展和競爭。為此,各國政府紛紛引入科技與產(chǎn)業(yè)結合的干預政策,此即科技政策。例如,美國成立了國防研究委員會,組織科技資源以增強國防能力,后來建立科學研究和發(fā)展局。二戰(zhàn)后,各國有的以戰(zhàn)后恢復和重建為需要,有的以提升國家競爭力和促進產(chǎn)業(yè)升級為目標,繼續(xù)干預科技發(fā)展,以促進科技在期待的領域進步、轉化和創(chuàng)新。20世紀50年代,通過科技政策機制,大力投資基礎研究和高等教育,重建和發(fā)展打造知識資源和人力資源的基礎,并且著力電子、石化、原子能等新技術領域的科技創(chuàng)新和轉化,形成了新一輪科技產(chǎn)業(yè)化。原先以市場自由主義為基礎的“技術—經(jīng)濟”模式,調整為以國家科技政策為基礎的干預式“技術—經(jīng)濟”模式⑥[12](P99-100)。這種情況持續(xù)到60年代經(jīng)濟復蘇之后,才開始向科技的市場自由化做調整,科技政策也開始關注市場需求;到80年代,更加強調科技資源供應和市場需求的結合,導致在微電子、生物技術和新材料等新領域又形成新一輪“技術—經(jīng)濟”高峰。20世紀初,面對新一輪科技大發(fā)展的機遇期,各國為了快速提升和確保國家競爭力,更是大力推進科技創(chuàng)新政策,甚至上升到推行科技創(chuàng)新戰(zhàn)略的高度⑦。
這里需要提到,中國在歷史上由于種種原因,近代以來處于科技發(fā)展的被動局面,并與工業(yè)革命失之交臂,因此長期以來都處于科技落后狀態(tài),科技立法自然也是缺席的。1949年新中國建政后,動用國家體制力量,集中科技資源,就一些急需重大戰(zhàn)略科研進行了攻關,但科技發(fā)展和工業(yè)發(fā)展總體較為薄弱。20世紀70年代末開始,中國啟動經(jīng)濟體制改革,提出“科技是第一生產(chǎn)力”論斷,以經(jīng)濟建設為中心,并毫不遲疑引入“技術—經(jīng)濟”模式,采取國家干預和市場發(fā)展相結合,強化科技政策作用,確立了“經(jīng)濟建設必須依靠科學技術、科學技術工作必須面向經(jīng)濟建設”的科技服務于經(jīng)濟的方針,并以此啟動科技體制改革,全面助力經(jīng)濟體制改革[12](P107)。此后,還先后制定了《科學技術進步法》和《促進科技成果轉化法》。之后,科技政策不斷升級,經(jīng)歷了1995年實施“科教興國”戰(zhàn)略、加強國家創(chuàng)新體系建設和2006年“自主創(chuàng)新戰(zhàn)略”、增強自主創(chuàng)新能力的兩次提升⑧。
科技立法基于“技術—經(jīng)濟”范式,其規(guī)范原理歸納起來有四個方面:其一,堅持科技立法的專門化,形成了科技立法體系,逐漸形成科技市場法、科技風險法(主要是應對科技應用導致的工業(yè)風險、事故安全和特殊科技安全)、科技政策法三大具體領域。其二,主要以鼓勵、刺激科技的經(jīng)濟實用價值為目標。最典型的是不斷發(fā)展和完善專利法、技術合同以及其他技術市場制度。其三,基于不同時期的政治經(jīng)濟環(huán)境,靈活運用市場原則和國家干預原則。總體上早期以市場自由為主,到了后來逐漸重視國家干預,不斷出臺自上而下的促進科技進步、轉化和創(chuàng)新的政策機制,20世紀中葉達到頂峰,之后又逐漸回調,目前處于平衡狀態(tài)。其四,科技立法在“技術—經(jīng)濟”范式下,對于科技社會問題并非完全棄之不顧,但在規(guī)范上是附帶的,而且很多是為了減緩貫徹科技經(jīng)濟主義的社會后果。最早大概從19世紀開始,通過勞工運動,與當時科技應用相關的工業(yè)風險和勞動安全開始得到關注。英國政府于1802年推出第一部《工廠法》,提出了工廠生產(chǎn)安全的早期規(guī)范要求,到了1860年代相關立法保護范圍擴大到“有雇傭勞動的任何地方”,旨在適當改善被雇傭者的境遇。其他國家也陸續(xù)發(fā)展這種工廠法和勞工保護法規(guī)。這是早期科技立法的微弱社會性的一些體現(xiàn)。20世紀80年代之后,各種科技社會問題的不斷爆發(fā),加上越來越多的社會運動的壓力,科技立法才加速納入科技社會問題的進程。具體體現(xiàn)為:工廠法、勞工保護法、工業(yè)事故法等進一步社會化[13](P1)。除了上述部分,國際社會也開始關注環(huán)境和生態(tài)保護,以及特殊科技安全如核安全等⑨,但是總體上仍然處于邊緣位置。
三、科技立法“技術—經(jīng)濟”范式下的社會問題及其自主化技術后果
科技立法強調科技經(jīng)濟意義實際上是強調一種效率導向[14](P98-102),這一點本身無可非議。人類在很長的一個時期內(nèi)需要加強的確實就是自己的經(jīng)濟生存能力問題,從功利主義的角度來說,讓人類具備吃飽穿暖的能力,這大概應該成為一條底線。很多經(jīng)典學者對于國家意義的討論,很大一個基點就是經(jīng)濟生存問題,所以就有了財產(chǎn)權設計的原初正當性。例如,洛克就認為,個人權利應該是從父權和財產(chǎn)權共同起源的,政府作為一種可以使得財產(chǎn)的自然狀態(tài)變成受保護的權利狀態(tài)的方式受到人們歡迎,所以才有了政府的必要,才有了政治社會和公民國家[15](P63-68)??档乱舱J為,對財產(chǎn)利益的保護是最初核心的誘導性因素,它引領處于自然狀態(tài)的人們走向聯(lián)合并形成政府或市民社會⑩[16](P186)??萍际侨祟愖陨砜梢詣?chuàng)造的具備提升經(jīng)濟能力的事物,所以在促進經(jīng)濟意義上得到利用、受到重視,應該說是順理成章的。但科技具有經(jīng)濟意義本身,并不等于科技僅僅具有經(jīng)濟意義,或者說我們對于科技的關注唯其經(jīng)濟意義即可??萍蓟顒蛹捌淞⒎ǖ?ldquo;技術—經(jīng)濟”范式的問題正在于此,簡單片面地強調對于科技經(jīng)濟意義的追求,而忽視科技具有的其他方面的意義,甚至為了科技的經(jīng)濟意義而不顧其他的后果。這種科技活動及其立法范式,在這二三百年的實踐中,帶來了許多負面的后果。
科技活動及其立法的“技術—經(jīng)濟”范式,使得技術的社會性基本被忽略,引發(fā)甚至誘發(fā)許多社會問題包括社會政治問題。它通過與資本的結盟,在工業(yè)革命初期導致的社會災害問題就已經(jīng)凸顯,比如說工業(yè)事故、勞動安全以及嚴重的社會不公平問題。這些也導致了社會的不安定,損害了社會團結。技術經(jīng)濟主義,進而也會導致從技術支配經(jīng)濟到技術支配人的問題???middot;馬克思在《資本論》中,深刻揭示了這種資本倚重工業(yè)技術的經(jīng)濟主義單邊結構,不斷導致社會分化乃至社會關系異化,從而導致資本家或企業(yè)主與工人的對立關系。工人的主體性,被資本作用下的“技術—經(jīng)濟”架構以及資本家經(jīng)濟利益單邊結構所支配。這是非??膳碌模沟觅Y本主義社會長期陷入對抗之中而不能自拔[17](P1)。技術經(jīng)濟主義,也促成了國家之間的惡性競爭和極差,導致了歐洲國家之間的多次爭霸,導致了技術先進國家對技術落后國家的技術支配和殖民,惡化國際社會關系。建立在技術經(jīng)濟主義基礎上的政治秩序,無論國內(nèi)還是國際,一直以來都處于惡性的競爭格局之中,雖然在每次劇烈沖突之后都有所調整和節(jié)制,但是總體上并不能有效控制,更談不上消除問題。到今天為止,世界仍然處于一種基于科技逐利的、通過科技極差壓制掠奪他國的極為互不信任的關系之中。正在進行的中美貿(mào)易戰(zhàn)就是一個典型例子。技術經(jīng)濟主義,還使得其不能及時回應科技及其應用引發(fā)的不斷升級的環(huán)境和安全問題。工業(yè)革命以來,科技立法對于環(huán)境破壞問題長期處于沉默狀態(tài),直到20世紀60年代在環(huán)境社會運動的壓力下,才逐漸將環(huán)境保護問題提上議程,但直到今天這個問題解決起來其實還很困難,包括開展環(huán)境治理的國際合作十分不易。工業(yè)革命以來,科技發(fā)展的安全和威脅問題,也一直處于邊緣位置,直到20世紀中葉,當航空航天科技、核技術、生化技術等對人類生存構成嚴重威脅時,相關議題才進入視野。
科技活動及其“技術—經(jīng)濟”立法范式,其產(chǎn)生的最根本上威脅人類自身存在價值的一種后果,是技術結構的自主性滋長。技術在一種自主性結構邏輯里面為所欲為,進而發(fā)展為失去人的控制的主體化僭越。雅克·埃呂爾將這種技術失去控制的情況,稱為“自主化技術”后果,即“技術已經(jīng)成為自主的;它已經(jīng)塑造了一個技術無孔不入的世界,這個世界遵從技術自身的規(guī)律,并已拋棄了所有的傳統(tǒng)”[18](P13)。自主化技術后果,首先對于個人的自主性具有致命的威脅[19](P1)。海德格爾就此描述說:“人都將比以往更緊密被技術力量包圍。這些力量,它們要求、束縛、拖曳、逼迫和強制著,將人置于這樣或那樣的技術發(fā)明形式的控制之下——這些力量……自從超越他的意志以來已經(jīng)走了很遠,他的決策能力已經(jīng)落后了。”[18](P12)自主化技術的后果,對于人類文化自主性形成壓制,最終促成技術統(tǒng)治乃至技術壟斷。美國學者尼爾·波斯曼在《技術壟斷》一書中提出,人類技術文明以來可以劃分為三個時代,即工具時代、技術統(tǒng)治時代和技術壟斷時代。人類直到17世紀,都是處于工具時代,技術成為人類自身文化的工具;進入工業(yè)革命之后,技術地位不斷上升,逐漸取得統(tǒng)治權,開啟技術統(tǒng)治時代,對人類文化產(chǎn)生了極大的改造效應,雖然表面上促進了平等和自由,但也出現(xiàn)了產(chǎn)業(yè)化和科技競爭的狂熱;今天則開始進入技術壟斷時代,文化向技術投降,技術幾乎要徹底壟斷人類文化觀[3](P21-62)。
四、人工智能立法“技術—社會+經(jīng)濟”新范式的基礎及其開展
人工智能科技作為第四次工業(yè)革命引燃的新科技之一,是以機器學習算法(如人工神經(jīng)網(wǎng)絡和深度學習方法)和自動發(fā)現(xiàn)技術為基礎的,這些技術讓智能的機器人與計算機獲得認知能力,可以通過設計實現(xiàn)自我編程,形成從基本原理中找到最佳解決方案的能力。現(xiàn)在應用的領域突飛猛進,從智能助手向環(huán)境智能急速轉進[20](P9)。前者,包括人機交談(如蘋果公司的Siri語音服務)、文字輸入預測、歸納文本信息、診斷疾病、選擇推送廣告、搜索算法(谷歌)、翻譯軟件、智能法務等;后者,則包括正在開發(fā)或不斷改進的作為單體使用的無人機、無人駕駛汽車、警務機器人、伙伴機器人等,也包括作為提供管理和服務的智慧交通管理平臺、智慧城市管理平臺、司法服務自助和分發(fā)平臺等[21](P152)。
(一)人工智能科技的“強社會面相”與立法范式轉變基礎
世界經(jīng)濟論壇創(chuàng)始人施瓦布提出,要關注科技革新或工業(yè)革命可能導致負外部性,即對于社會的損害或威脅。他認為,此前的第三次工業(yè)革命,雖然取得了巨大的發(fā)展,但是在科技競爭、經(jīng)濟一體化和全球化的情勢下,卻付出了損害自然環(huán)境、弱勢群體等沉重代價,而以人工智能等新科技為表征的第四次工業(yè)革命如果不想重蹈覆轍,那么最好是要管理好這種外部性效應,防范和避免科技應用的意外后果、變革成本、二級影響以及蓄意濫用的傷害等[21](P3,11)。
人工智能發(fā)展基于其科技特點以及極具顛覆性的經(jīng)濟應用潛能,如果不提前應對和防范,其可能帶來的社會負外部性,毫無疑問會比既有的任何科技都更加復雜和嚴重。人工智能科技作為新興科技,自身在應用上具有許多其他科技無法比擬的迭代效應,存在巨大的應用場景和產(chǎn)業(yè)化空間,此外還具有滲透其他幾乎所有領域的效用,即通過“人工智能+”方式,可以放大其他領域的效用。這是積極方面的。但是消極面來講,如果處理不好,也會帶來許多可能意想不到的負外部性后果,包括甚至放大其他領域的社會問題。因此需要預先布局,提前做好化解和應對,以避免貪功冒進、陷入社會危機。已經(jīng)有不少人工智能社會學家對之做出了嚴肅的關注和研究,并且做出了許多中肯的揭示或預測。中國政府2017年7月8日發(fā)布《新一代人工智能發(fā)展規(guī)劃》也關注了人工智能發(fā)展的不確定性帶來新挑戰(zhàn),提出“人工智能是影響面廣的顛覆性技術,可能帶來改變就業(yè)結構、沖擊法律與社會倫理、侵犯個人隱私、挑戰(zhàn)國際關系準則等問題,將對政府管理、經(jīng)濟安全和社會穩(wěn)定乃至全球治理產(chǎn)生深遠影響。在大力發(fā)展人工智能的同時,必須高度重視可能帶來的安全風險挑戰(zhàn),加強前瞻預防與約束引導,最大限度降低風險,確保人工智能安全、可靠、可控發(fā)展”[22]。
首先,人工智能發(fā)展可能帶來的負外部性,許多是整體性或共同性的。主要體現(xiàn)為兩個方面,即可能引發(fā)系統(tǒng)的社會公平和平等問題以及可能引發(fā)社會安全和風險問題。其一,人工智能基于其應用可能導致社會不公平、不平等,主要是因為人工智能作為一種更具顛覆性的技術,容易使得先用者取得一種科技極差優(yōu)勢和事實上的科技壟斷優(yōu)勢。從而,不僅會使得財富和福祉分配不公平,甚至導致贏者通吃的吸利效應,使得后用者或者各種原因被排除在人工智能技術之外的人,特別是利益相關者,成為新技術的弱勢群體,進而成為社會弱勢群體(11)[23](P7-8)。一般而言,最大的受益者應該是科技創(chuàng)造者、投資人、股東,以及控制了作為人工智能運行基礎的數(shù)據(jù)的為數(shù)不多的大平臺;而具體的勞動者、消費者(12)甚至一般生產(chǎn)者等則容易淪為不幸者[20](P9-12)。其中,勞動力市場公平問題目前最令人關注。面對人工智能可能帶來的產(chǎn)業(yè)消失、從業(yè)人口減少和為釋放出來的勞動力尋找出路,該如何縮短轉型周期,是擺在政府面前的一個現(xiàn)實命題。人工智能將導致傳統(tǒng)勞動力的大量失業(yè),合理安排、疏導或是通過培訓再次利用這些勞動力,將是對政府的重大考驗。但在另一方面,人工智能人才短缺又成為制約人工智能產(chǎn)業(yè)發(fā)展的短板(13)。所以,勞動力體制改革已經(jīng)是迫在眉睫。2016年12月奧巴馬政府出臺《人工智能、自動化和經(jīng)濟》報告,便涉及培養(yǎng)人工智能人才和同時解決勞動力失業(yè)難題兩個方面(14)[24]。歐盟委員會發(fā)布了2018《關于人工智能的通訊》,也關注了自動化、機器人和AI的出現(xiàn)正在改變勞動力市場,提出現(xiàn)階段做出量化的評估還不具備條件,但歐盟必須為此變革做好準備[25]。中國2017年《新一代人工智能發(fā)展規(guī)劃》在保障措施部分的第五點提到,大力發(fā)展勞動力培訓,但目前這方面的舉措還有待實化和明確(15)。其二,人工智能基于應用特別是濫用,比以往許多科技都可能更容易使得社會陷入不安全或巨大風險。這是因為,人工智能的研發(fā)和應用,無論從系統(tǒng)穩(wěn)定、功能還是應對復雜社會環(huán)境、防范人為濫用或者破壞等來講,都具有更加的不確定性[21](P10-11)。廣義上的社會風險,還包括人們對于人工智能時代的不適應性。因為人工智能帶來的變化速度,可能已經(jīng)超出了人類基因選擇和文化選擇的適應能力[26](P22)。中國《新一代人工智能發(fā)展規(guī)劃》第一部分的總體部署,提到了人工智能發(fā)展與風險防范的并舉要求,即“把握人工智能技術屬性和社會屬性高度融合的特征。既要加大人工智能研發(fā)和應用力度,最大程度發(fā)揮人工智能潛力;又要預判人工智能的挑戰(zhàn),協(xié)調產(chǎn)業(yè)政策、創(chuàng)新政策與社會政策,實現(xiàn)激勵發(fā)展與合理規(guī)制的協(xié)調,最大限度防范風險”[22]。
其次,人工智能可能的負外部性,更多是具體的,體現(xiàn)在人工智能特定化的具體應用場景。所以,場景細分研究很重要。例如,在人工智能決策領域,可能導致的負效應就包括問責不合理、引發(fā)失業(yè)、誘發(fā)網(wǎng)絡入侵和網(wǎng)絡犯罪、缺乏責任義務、決策過程不透明或難以理解、加劇該領域的不平等、違反算法合理、對人性化形成根本威脅等;在人工智能替代白領工作領域可能導致的負效應,主要包括失業(yè)、問責和義務不合理、法律財務信息披露風險加劇、工作自動化等;在人工智能服務領域,其負效應則可能有失業(yè)、責任和義務不合理、向全天候服務轉變、誘發(fā)黑客和網(wǎng)絡安全風險等[20](P161-166)。具體場景中,至于無人機、自動駕駛汽車、警務機器人、自動致命武器等則更加復雜,正處于熱議之中,目前的研究似乎離形成清晰化認識還有很大差距。限于篇幅,這里不予贅述。
上面這些社會問題,還不是人工智能科技最復雜的消極問題。人工智能新科技與其他許多科技有一個很不同的特點,就是它是一種以認知能力為基礎的技術,為此是具有與人相通的特點,因此引發(fā)極強的倫理關切。在應用面向上說,這種與人的相通性可能帶來不可估量的潛在效用,能夠替代人類發(fā)揮智慧作用,可以想象,從經(jīng)濟增進上來說功效可期,厚利在望。但是,它以與人相通性以及以人機互動或者對人的替代作為效用設計的特點,也可能導致對人的混淆甚至取代的后果。由此,引發(fā)令人困惑的人與人造物的關系難題,導致人自身存在的危機感,這是前所未有的問題。第四次工業(yè)革命的新科技之中,能與人工智能科技對人自身形成威脅近似的,還有生物科技、神經(jīng)科技。以生物科技為例,生物技術經(jīng)過過去20年的發(fā)展,在數(shù)字技術和新材料的支持下,基因組、基因工程、診斷學、制藥開發(fā)等方面都取得了質的飛躍,出現(xiàn)了能夠改變生物系統(tǒng)的技術或生物設計技術,在DNA測序、DNA合成等DNA操縱下,轉基因植物技術、干細胞技術、克隆技術、胚胎技術、基因治理技術、基因編程技術等可謂層出不窮,這些對于生物工程、精密醫(yī)學、農(nóng)業(yè)、環(huán)境、人體健康等顯然具有極大的應用價值,但是它們同時帶來了對于人本的威脅,因為極有可能改變?nèi)酥疄槿说脑瓨?,所以也引發(fā)了極為深刻的人本主義觀念下的倫理和安全危機[21](P187)。神經(jīng)科技,也有類似之憂[21](P199)。這個倫理性問題不好處理,值得加強研究,要盡快拿出可以確信的兼顧倫理設計的方案來。我們固然不能過于保守地處理人工智能帶來的“人的危機”問題,但是引入必要的監(jiān)管設計應該不可避免。遺憾的是,目前各國和有關國際組織雖然在倡導一些人工智能倫理標準,包括所謂機器人安全原則,但還沒有形成總括性的行之有效的全球標準。
人工智能科技在“技術經(jīng)濟”模式下可能形成的負效應,可以歸結為人工智能的科技社會風險。科技如果僅在經(jīng)濟主義的刺激下,作為改善物質需求發(fā)展和應用,脫離對社會價值的考量,那就必定會使技術與社會嚴重脫節(jié),導致嚴重的社會風險,廣義上包括對人自身的風險。自近代以來,科技風險概念就以特殊的形態(tài)不斷升級,這都與所謂科技現(xiàn)代化采取單邊經(jīng)濟主義相關。風險社會理論家貝克稱之為“工業(yè)社會的自反性”或“自反性現(xiàn)代化”。即,“生產(chǎn)力在現(xiàn)代化進程中的指數(shù)式增長,使風險和潛在自我威脅的釋放達到了前所未有的程度”“在工業(yè)社會中,財富生產(chǎn)的‘邏輯’支配風險生產(chǎn)的‘邏輯’”“從現(xiàn)代化進程自反性角度來看,生產(chǎn)力喪失了其清白無辜的面目。技術—經(jīng)濟‘進步’帶來的力量,日益為風險生產(chǎn)的陰影所籠罩。”[7](P7)科技社會風險演進到今天,早已不再是從前的潛在的副作用,而是達到極端泛濫或突變的程度;這種風險也顯然不同于19世紀20世紀上半葉的工廠或職業(yè)危機,而是成為對于自然界和人類自身包括生命重大威脅,且成為跨越國界和族群的全球性危害[7](P3,7)。
人工智能科技的強社會面相,也體現(xiàn)在其積極方面的協(xié)同需要。人工智能無論從研發(fā)還是應用,都包含了巨大的共享和協(xié)同需求,同時也蘊含了巨大的共享和協(xié)同價值,還暗含新時代的普惠追求。因此,人工智能無論是其自身的研發(fā)、應用,還是對于其他領域的滲透,都高度依賴于協(xié)同性的資源配置安排或者運行合作。人工智能開發(fā)和應用需要的協(xié)同,包括基礎方面的協(xié)同,例如數(shù)據(jù)協(xié)同、平臺協(xié)同、管理協(xié)同,也包括具體應用功能和主體的協(xié)同,還包括人機協(xié)同等等。這些甚至要落到具體行為、管理、權利、義務、責任的協(xié)同上來,導致人工智能相關的權力、職責、權利、義務、責任等不會簡單地像既有范式那樣去設計,而是需要基于協(xié)同的要求做出必要合理的變化。僅以數(shù)據(jù)資源為例,人工智能的開發(fā)和應用,離不開大數(shù)據(jù)集聚和及時更新,數(shù)據(jù)越豐富越動態(tài)就越好,因此有必要通過設計為人工智能開發(fā)者創(chuàng)造合理獲取數(shù)據(jù)的機會,除了盡可能開放可公開資源之外,也需要為人工智能開發(fā)者提供在具體場景中動態(tài)獲取必要數(shù)據(jù)的便利。但是這些會與數(shù)據(jù)管理、數(shù)據(jù)權屬、個人信息保護等既有法律秩序產(chǎn)生沖突,因此需要進行巧妙的協(xié)同設計,實現(xiàn)雙贏,以便最終使得協(xié)同成為可能并且圓滿(16)。目前,存在一種因關注共享而完全否認數(shù)據(jù)權屬化的觀點,筆者認為這種觀點對于共享設計架構有簡單化嫌疑,難以提供合理的主體間數(shù)據(jù)合作的根源和動力[27](P1-12)。基于人工智能的信任機制也很重要,應當配合協(xié)同需要完善相應的信任機制。馬克·格蘭諾維特在《社會與經(jīng)濟:信任、權力和制度》一書中提到,個人行為雖然存在自利和受規(guī)則與價值體系影響之間的微妙關系,但信任和權力也會潛移默化地塑造個人的心智結構,所以信任也是個人行為非常重要的社會因素[28](P91-140)。人工智能的信任機制體現(xiàn)在許多方面,但往往是具體場景化的,例如在人工智能決策領域,理性的數(shù)據(jù)驅動,決策過程的透明、可理解以及決策可問責等,大概都具有增進信任的功效(17)。目前人工智能自動駕駛汽車行業(yè)比較注重在關鍵點上、如隱私問題,通過宣示自律措施確立信任機制(18)。
總之,人工智能科技以一種強社會面相,展示了前所未有的社會規(guī)范需求性,這既是科技經(jīng)濟主義發(fā)展到今天,導致科技應用勢必陷入極大風險的警示結果,也是人工智能科技自身發(fā)展到現(xiàn)階段,需要更加特殊的社會協(xié)作和信任機制加以支持的要求使然??梢?,人工智能科技立法作為科技立法發(fā)展到當下的特殊新領域,其轉型勢在必行。由上述論證邏輯可知,應當超越既有科技立法的“技術—經(jīng)濟”范式,而以兼顧社會的新面相,跨入“經(jīng)濟—社會+經(jīng)濟”的新階段。
(二)人工智能立法“技術—社會+經(jīng)濟”新范式的開展
人工智能立法的新范式,以技術社會性的兼顧,從架構上總體上需要堅持兩重性。一方面,仍然致力促進人工智能科技的經(jīng)濟意義。人類在很長一個時期之內(nèi),需要通過科技提升自己的經(jīng)濟能力,這本身并沒有錯。只要在我們的世界還存在物質短缺或財富增長的需求,那么科技的經(jīng)濟效應就值得我們追求。我們今天還沒有到可以摒棄科技經(jīng)濟效用的時候,只是不宜取經(jīng)濟主義而單兵冒進,而是應予制度創(chuàng)新,兼顧必要的社會性以有所節(jié)制。何況,目前階段,人工智能科技只是形成了巨大的潛力,還有重要的技術突破和擴展時期,從經(jīng)濟意義特別是國家處于機遇期需要提升競爭力上說,還存在一個極具關鍵的需要鼓勵和引導期間。當然,不同國家或不同階段存在差異性,導致經(jīng)濟需求的迫切程度、正當化程度會有所不同。例如,發(fā)達國家經(jīng)歷二三百年工業(yè)化的經(jīng)濟主義追求之后,經(jīng)濟增長進入了一個新的階段,而發(fā)展中國家卻仍然有不少還掙扎在貧困線上[7](P5)。這恐怕也是國際社會要就科技事項進行平衡規(guī)范,難以取得合作共識的原因之一。另一方面,必須引入和提升人工智能科技社會規(guī)范。這是極為急迫而重要的。對應社會積極和消極的規(guī)范需求,體現(xiàn)為兩大方面。一是積極的人工智能科技社會規(guī)范,重點是其合理研發(fā)和應用需要的社會協(xié)作、信任的規(guī)范體系建設。二是消極的人工智能科技社會規(guī)范,重點是如何防范和應對前述人工智能可能帶來的社會問題。這一部分其實就是人工智能科技及社會風險立法范疇。通過加強并且系統(tǒng)化防范和治理的方式,達成風險可控。按照貝克的說法,就是要將過去稀缺社會的財富分配邏輯,向發(fā)達現(xiàn)代性的風險分配邏輯轉變,或者說從財富生產(chǎn)支配風險生產(chǎn)的邏輯,轉變?yōu)轱L險控制支配財富生產(chǎn)的邏輯[7](P3-48)。
人工智能立法新范式的兩重性布局,應以全新的價值觀和更加合理的原則體系作為基礎。鑒于人工智能的巨大科技風險,特別是基于其具有與人相通的認知能力,對于人本身構成了混淆或者替代威脅。一種正在成為主流的聲音認為,關于人工智能立法的價值基礎,需要提升一個高度,即應從最基本的人本主義來思考,以人的基本安全為底線,提出入與人工智能這種特殊人造物(也可以是打引號的“人造人”)的最低關系準則。學者和機構將之稱為人工智能和機器人應用的基本倫理框架,作為人工智能規(guī)范和政策的最高指導。當然,也有還在觀望之中的(19)[29](P25)。堅持人的價值觀的重點是,堅持人的價值的原初本體性,堅持人工智能的價值與人的價值一致性,在二者發(fā)生沖突時以人的價值為優(yōu)先?!堵?lián)合國世界人權宣言》和一系列相關文本宣示的,是人的價值的重要國際規(guī)范來源,但人的價值性應該不限于此。這也是第四次工業(yè)革命的新價值觀。施瓦布研究第四次工業(yè)革命的實踐時,呼吁要“確保對第四次工業(yè)革命由人類主導、以人文本。技術的開發(fā)必須尊重人類價值觀本身,而不是只考慮經(jīng)濟價值。此外,以人為本意味著賦能于人,而不是支配人類的命運”[21](P11,32-55)。
雖然在人工智能立法的價值體系中,人的價值觀居于最高位階,但還存在對于其他功能性或類型化價值追求。比如,從人工智能作為科技自身角度的促進科技創(chuàng)新與競爭力的價值,從經(jīng)濟角度的提升生產(chǎn)力和經(jīng)濟效率的價值,從社會意義角度的維護社會基本公平與安全的價值等等。這些價值之間存在平衡關系,發(fā)生沖突時,社會價值應該具有優(yōu)先適用性。但是,這些功能性價值,最終要服從于居于上位的人的價值,后者具有終極性、本位性和優(yōu)先性。另外,僅從人工智能的社會價值角度,筆者認為,廣義上至少包括倫理、安全、公平、包容四個方面,它們之間存在交叉重疊。其中,倫理既包括關于人的尊嚴,也包括一般社會倫理。目前,除了關注人的混淆和替代之外,重點關注的還有使用人工智能導致過度監(jiān)控問題、全景智能問題等。安全,既包括個人及人類的安全,也包括社會安全。公平,指社會不同人之間出現(xiàn)的機會或利益極差的情況;包容,則指平等、開放對待別人,歧視是其重要反例(20)[30]。此外,我國《新一代人工智能發(fā)展規(guī)劃》強調的社會價值,還包括人工智能對于社會建設的功能在內(nèi)(21)。
人工智能立法的上述價值觀,應當通過一系列原則在人工智能的內(nèi)在架構中予以進一步貫徹。這些原則成為全部規(guī)則設計和體系解釋的原理基礎?;谏鲜鰞r值的邏輯展開,最少可以包括:其一,堅持維護人的尊嚴的原則。這是由堅持人的價值性推論出來的,毫無疑問是最主要的原則。其二,堅持技術創(chuàng)新、經(jīng)濟效率和社會保護一體化原則。人工智能立法應該做到三個功能價值的協(xié)調。目前的重點是矯正既往科技立法的慣習,重點對前兩項功能有所限制,以彰顯必要的社會保護。其三,堅持科技風險和監(jiān)管一體化原則,或者叫科技風險和安全防范一體化原則。越是風險系數(shù)高的科技開發(fā)和應用,越應當增加風險的監(jiān)管強度。如果應用于權力和責任更加重要的職位或情形,就應該引入更嚴格的監(jiān)管甚至控制。鑒于人工智能存在較高風險性,今后還會發(fā)展為極高,因此有必要建立與其風險級別相應的確保其安全可靠的監(jiān)管體系,包括引入與風險相適應的監(jiān)管系統(tǒng)和方法。比如說,劃分不同主體或產(chǎn)品風險等級,進行相應資質管理;引入風險監(jiān)測體系,進行相應的監(jiān)測、預警或應急管理;建立內(nèi)外結合互動的安全管理體系;引入利益相關者決策和反映程序等等。其四,堅持行為治理和技術治理協(xié)同的原則。人工智能作為一種復雜技術,其治理與對于一般的行為治理不同,存在技術專業(yè)化的特殊性,從科學的角度來說,除了通常法律的行為治理模式,應當針對技術架構的特點引入技術治理(22)。例如,為了達到更好地貫徹價值的效果,應當在人工智能設計環(huán)節(jié)就為技術賦予價值觀,把必要的人本要求、社會需要預先嵌入進去,使其成為“價值—技術”“社會—技術”系統(tǒng)[21](P11,42-48)?,F(xiàn)在我們見到的“隱私設計保護”就有這種妙用。在重大決策、執(zhí)法(警務機器人)或者致命效應(自動化致命武器)的人工智能系統(tǒng)設計中,安全技術同步設計、價值和社會功能預先嵌入設計、運行與風險評估會同設計,都是十分必要的。
最后,從立法范疇看,人工智能立法作為科技立法的特別領域法,應當注意一般與具體的結合,還要注意自身與其他法律的交叉。前者,體現(xiàn)為人工智能立法存在一般規(guī)范與具體規(guī)范的合理分置問題。人工智能一般法,通常包括人工智能一般市場規(guī)范、一般風險規(guī)范以及一般政策規(guī)范的內(nèi)容;而人工智能特別法,目前存在不同劃分方法,現(xiàn)在的一種趨勢是,按照人工智能具體場景或者應用功能類型做出進一步細分,比如人工智能傳媒、內(nèi)容分發(fā)、電商平臺、社交平臺、搜索算法、公共服務(廣義包括政務、司法等)、交通(無人機、自動駕駛)、智能輔助、醫(yī)療診斷、法律助手等。后者,則指應當注意人工智能立法與憲法、行政法、民商法、刑法、訴訟法、經(jīng)濟法、環(huán)境法、知識產(chǎn)權法、國際法等既有法律的交叉關系,它主要是以與普通法有重要區(qū)別的科技特別法而定位。所以,一方面人工智能領域存在傳統(tǒng)法律部門的交叉適用,另一方面卻在很多地方需要具體化、特殊化、進一步場景化。以經(jīng)濟法領域為例,最近幾年圍繞人工智能和大數(shù)據(jù)的使用,開始產(chǎn)生大數(shù)據(jù)、人工智能與競爭政策的新問題,出現(xiàn)了數(shù)據(jù)驅動型、人工智能驅動型的反競爭行為甚至是壟斷行為(23)[31](P1)。
五、結論:人工智能立法轉型引領科技與法律新型關系
近代以來科技立法以經(jīng)濟主義之名,在“技術—經(jīng)濟”軌道上走了很久,兩三百年以來收獲了巨大的技術經(jīng)濟紅利。我們?yōu)橹哺冻隽瞬环频拇鷥r,特別是在近前以來越來越感受科技對人類安全的威脅、對于社會公平和安定的不斷沖擊。進而,自主化技術和技術壟斷成為時代標簽,而我們在其中正在失去作為人的自主性,被裹挾、被無奈。那么,人工智能時代,我們還應該這樣嗎?當然不應該。人工智能科技以其潛在的威力正在塑形一個新的時代;而人類法律智慧在這個時刻應該感受自身元神的召喚!我們在期待見證人工智能新經(jīng)濟的時刻,也應擔心,這種人工智能科技,會使得人類被混淆和取代嗎?我們的“人性”會被擠出這個世界的主要位置嗎?我們應該如何應對和布局,才算理順了人與人造物的基本關系?我們能夠接受或容忍與人工智能進行何種相通呢?
本文正是在這個意義上,提出人工智能立法應當跳出路徑依賴,告別“技術經(jīng)濟人”簡單假設,全新打量技術社會場域的新思考,兼顧經(jīng)濟與社會,即要從“技術—經(jīng)濟”向“技術—社會+經(jīng)濟”轉型。既擁抱人工智能的經(jīng)濟福利,又發(fā)展和保全人類自身和社會??傊?,這種新范式體現(xiàn)著當代科技立法的新趨勢,演繹著科技新人文主義,引領法律與科技的關系新型化,由單一經(jīng)濟主義向社會和經(jīng)濟并重轉變,成就第四次工業(yè)革命中法律變革的精彩。
注釋:
①目前我國也有學者強調從技術化(人—技術—人)角度思考人工智能立法[1](P1)[2](P37-41)。
②2015年,歐洲議會向歐洲委員會提出的“關于機器人民事規(guī)則的建議”(Report with Recommendations to the Commission on Civil Law Rules on Robotics(2015/2103(INL)),大概是較早處理這一問題的立法建議[10]。關于人工智能發(fā)展引發(fā)人與人造物關系的法律思考,參見烏戈·帕加羅的《誰為機器人的行為負責》。
③笛卡爾的哲學立場和科學主義思想,參見笛卡爾的《哲學原理》。斯賓諾莎對于笛卡爾基于科學主義的哲學思想有重要研究,可參見斯賓諾莎的《笛卡爾哲學原理:依幾何方法證明》。
④英國是世界上最早建立專利制度的國家。開始是以英王特權方式出現(xiàn),早在1236年,英王就有授予波爾多市民色布制作技術15年壟斷權之舉,1331年再授予弗萊明商人織布染布特權,1369年授予商人鐘表經(jīng)營權,1561年授予制造白色石堿壟斷權。1617年,英國正式制定了第一部專門的專利法,把一種發(fā)明壟斷權即專利權授予最早的發(fā)明者,有效期14年,但作為對價,發(fā)明者必須公開技術。
⑤西方經(jīng)濟史及相關“技術—經(jīng)濟”范式的知識,可以參考厲以寧的《資本主義的起源:比較經(jīng)濟史研究》。
⑥例如,美國在1945年二戰(zhàn)結束之際,以“科學:沒有止境的前沿”為理由建立戰(zhàn)后的國家研究基金會,旨在發(fā)展和促進國家的科學研究和科學教育政策。
⑦歐盟1995年發(fā)布了《創(chuàng)新綠皮書》,提出改進創(chuàng)新環(huán)境的建議,1996年通過第一個《歐洲創(chuàng)新行動計劃》,2000年歐洲委員會提出“歐洲創(chuàng)新趨勢圖”,2005年歐盟委員會提出《研究與創(chuàng)新戰(zhàn)略》,2011年底公布《2020戰(zhàn)略創(chuàng)新計劃》。美國在奧巴馬時期的2009年和2011年發(fā)布了兩份《美國創(chuàng)新戰(zhàn)略》;特朗普執(zhí)政后對內(nèi)轉為重視自下而上的科技創(chuàng)新,2018年發(fā)布財年預算藍圖,對原有科技投入結構作出重要調整,廢除《清潔能源計劃》《全球氣候變化計劃》等,轉而支持油氣和煤炭行業(yè)發(fā)展,對外則強推美國優(yōu)先。中國在2006年公布《國家中長期科學和技術發(fā)展規(guī)劃綱要(2006-2020)》,提出要在15年內(nèi)進入創(chuàng)新型國家行列;2012年11月,中共十八大明確提出走中國特色自主創(chuàng)新道路,實施創(chuàng)新驅動發(fā)展戰(zhàn)略,隨后中共中央、國務院印發(fā)了《關于深化科技體制改革加快國家創(chuàng)新體系建設的意見》;2016年8月,國務院發(fā)布了《“十三五”國家科技創(chuàng)新規(guī)劃》,明確了“十三五”時期科技創(chuàng)新的總體思路、發(fā)展目標、主要任務和重大舉措;2017年,中共十九大報告將創(chuàng)新放在新發(fā)展理念之首。
⑧參見中共中央、國務院1995年《關于加速科學技術進步的決定》和1999年《關于加強技術創(chuàng)新、發(fā)展高科技、實現(xiàn)產(chǎn)業(yè)化的決定》;2006年《國家中長期科學和技術發(fā)展規(guī)劃綱要(2006-2020)》以及中共中央、國務院《關于實施科技規(guī)劃綱要增強自主創(chuàng)新能力的決定》。
⑨20世紀90年代開始,中國也開始關注科技的工業(yè)安全、環(huán)境保護和特殊科技安全等科技社會問題,加強政策引導,并且陸續(xù)制定相關法律,包括《礦山安全法》(1992年制定)、《勞動法》(1994年制定,其中一章專門規(guī)定勞動安全衛(wèi)生)、《安全生產(chǎn)法》(2002年制定,2009年,2014年修訂)、《環(huán)境保護法》(1989年制定,2014年修訂)、《大氣污染防治法》(1987年制定,2018年修改)、《水污染防治法》(1984年制定,1996年、2008年、2017年修改)、《放射性污染防治法》(2003年制定)、《民用核設施安全監(jiān)督管理條例》(1986年制定)、《特種設備安全法》(2013年制定)、《網(wǎng)絡安全法》(2016年制定)、《核安全法》(2017年制定)和正在起草的《生物安全法》等。
⑩康德的財產(chǎn)權起源及其觀念,雖然論證起始于這種經(jīng)濟誘因,但是他最終從個人理性主義加以塑造,并提倡個人自由理念的財產(chǎn)權??档碌呢敭a(chǎn)權理論,可參見康德的《法的形而上學原理:權利的科學》。康德的這一觀點,也為后來的布坎南所繼受。布坎南的財產(chǎn)權自由觀,在其《財產(chǎn)與自由》中有論述。
(11)歐盟數(shù)據(jù)保護委員會2015年發(fā)布的《應對大數(shù)據(jù)挑戰(zhàn):呼吁通過設計和可責性實現(xiàn)透明性、用戶控制及數(shù)據(jù)保護》,禁止算法對窮人的或者弱勢群體的歧視,并且賦予質疑公平算法化的可能性。
(12)對于消費者來說,可能最突出的社會公平,體現(xiàn)為人工智能算法帶來的信息不對稱、不透明、歧視(包容不夠)等問題,因此需要建立對稱、透明、包容的算法規(guī)則。
(13)2017年全球最大的職場社交平臺領英發(fā)布《全球人工智能領域人才報告》,根據(jù)該報告全球人工智能領域人才超過190萬人,美國擁有85萬,高居榜首,而中國只有不到5萬人。
(14)奧巴馬政府該報告主張:(1)投資和開發(fā)人工智能,著重推動科學、技術、工程學、數(shù)據(jù)領域(STEM)的人才培養(yǎng);(2)提供高質量的早期教育,投資確保所有的美國人都能負擔得起中學以上的教育,同時擴展就業(yè)驅動的培訓和終身學習的機會以及為工作者提供更好的指導以完成工作過渡;(3)幫助轉型過程中的工人并賦予工人權力,確保大家廣泛共享由人工智能帶來的經(jīng)濟增長收益。決策者應確保工人和求職者都能夠找到他們最適合的崗位,確保他們以工資上漲的形式獲得正確的工作回報。這包括加強失業(yè)保險、醫(yī)療補助、補充營養(yǎng)援助計劃(SNAP)和有需要家庭臨時援助(TANF)等關鍵支持以及實施新的計劃,例如工資保險以及為處于危機中的家庭提供緊急援助。工人賦權還包括加強對有需要的工人和家庭的關鍵保障措施,建立21世紀的退休制度,擴大享有醫(yī)療保健服務的人群的數(shù)量。增加工資、競爭力和工人議價能力以及實現(xiàn)稅收政策現(xiàn)代化和實施解決差異地域影響的戰(zhàn)略,將是支持工人和解決與勞動力市場變化相關重組問題的重要方面。
(15)我國已有專家正在關注人工智能時代的勞動法或勞動權問題。可參見涂永前的《人工智能“搶飯碗”,〈勞動法〉的變革該順勢而為》、林嘉的《回應信息時代的新問題在技術進步中更好保護勞動者權利》。
(16)關于數(shù)據(jù)財產(chǎn)權及其協(xié)同機制的研究,可參考龍衛(wèi)球的《數(shù)據(jù)新型財產(chǎn)權構建及體系研究》和《再論企業(yè)數(shù)據(jù)財產(chǎn)權化機制》。
(17)在某種意義上,人工智能的系統(tǒng)安全包括依賴的網(wǎng)絡安全,也屬于可以增進信任的范疇。
(18)以美國為例,美國行業(yè)組織便就自動駕駛汽車的隱私保護問題倡導了自律保護要求,以增進消費者信任。2014年11月,汽車制造商聯(lián)盟和全球汽車制造商協(xié)會發(fā)布《消費者隱私保護原則——汽車技術和服務隱私保護原則》的報告,明確提出隱私問題對于消費者和汽車廠商都非常重要,要求參與該原則制定的19家汽車廠商都承諾遵守報告關于自動駕駛汽車隱私保護的要求。2017年2月,未來隱私論壇和美國汽車經(jīng)銷商協(xié)會發(fā)布《汽車中的個人數(shù)據(jù)》(Personal Data In Your Car),向消費者介紹車輛收集的數(shù)據(jù)類型、有關收集使用指南以及用戶可能擁有的選項。
(19)2016年英國下議院科學與技術委員會《機器人與人工智能》認為,雖然現(xiàn)在為這個新興領域制定全行業(yè)法規(guī)還為時過早,但現(xiàn)在開始仔細審查人工智能系統(tǒng)的道德、法律和社會影響至關重要(報告第25頁)。建議在艾倫圖靈研究所設立一個常設人工智能委員會,以檢查人工智能近期和潛在的社會、倫理和法律影響。
(20)歐盟委員會的人工智能高級專家組2018年12月發(fā)布的《可信人工智能倫理指南》提出,實現(xiàn)可信人工智能的七大關鍵為:個人主體與監(jiān)督;穩(wěn)定與安全;隱私與數(shù)據(jù)治理;透明;多樣、非歧視和公正;社會與環(huán)境發(fā)展;責任。這主要是從可信倫理角度出發(fā)的構建,值得研究。
(21)參見我國國務院2017年新一代《人工智能發(fā)展規(guī)劃》第一部分“戰(zhàn)略態(tài)勢”第四段,描述了這種社會建設要求:“人工智能帶來社會建設的新機遇。我國正處于全面建成小康社會的決勝階段,人口老齡化、資源環(huán)境約束等挑戰(zhàn)依然嚴峻,人工智能在教育、醫(yī)療、養(yǎng)老、環(huán)境保護、城市運行、司法服務等領域廣泛應用,將極大提高公共服務精準化水平,全面提升人民生活品質。人工智能技術可準確感知、預測、預警基礎設施和社會安全運行的重大態(tài)勢,及時把握群體認知及心理變化,主動決策反應,將顯著提高社會治理的能力和水平,對有效維護社會穩(wěn)定具有不可替代的作用。”
(22)人工智能的技術治理這一點,與互聯(lián)網(wǎng)治理具有的技術復雜性非常相似。
(23)2019年6月,斯坦福大學法學院召開的“數(shù)據(jù)經(jīng)濟最佳實踐國際會議”上,來自全球的學者和實務專家在很大一個環(huán)節(jié)討論了人工智能和大數(shù)據(jù)引發(fā)的新型反競爭和壟斷問題,值得關注。
原文參考文獻:
[1]蘭登·溫納.自主性技術:作為政治思想主題的失控技術.楊海燕譯.北京:北京大學出版社,2014.
[2]齊延平.論人工智能時代法律場景的變遷.法律科學(西北政法大學學報),2018,36(4).
[3]尼爾·波斯曼.技術壟斷:文化向技術投降.何道寬譯.北京:中信出版社,2019.
[4]CB Insights.The Race For AI:Google,Twitter,Intel,Apple In A Rush To Grab Artificial Intelligence Startups,2017.[2017-07-22]https://aitopics.org/doc/news:3D341331/.
[5]馬修·薩爾加尼克.計算社會學:數(shù)據(jù)時代的社會研究.趙紅梅,趙婷譯.北京:中信出版社,2019.
[6]理查德·羅格斯.數(shù)字方法.上海:上海譯文出版社,2018.
[7]烏爾里希·貝克.風險社會:新的現(xiàn)代化之路.張文杰,何博閣譯.南京:譯林出版社,2018.
[8]酈全民.用計算的觀點看世界.桂林:廣西師范大學出版社,2016.
[9]葉夫根尼·莫洛佐夫.技術致死:數(shù)字化生存的陰暗面.北京:電子工業(yè)出版社,2014.
[10]European Parliament.With Recommendations to the Commission on Civil Law Rules on Robotics.Brussels:Committee on Legal Affairs,2015.[2017-1-27]http://www.europarl.europa.eu/doceo/document/A-8-2017-0005EN.html?Redirect.
[11]龍衛(wèi)球.科技法迭代視角下的人工智能立法.法商研究.2020,(1).
[12]劉立.科技政策學研究.北京:北京大學出版社,2011.
[13]約翰·法比安·維特.事故共和國:殘疾的工人、貧窮的寡婦與美國法的重構.田雷譯.上海:上海三聯(lián)書店,2008.
[14]李晟.略論人工智能語境下的法律轉型.法學評論,2018,36(1).
[15]洛克.政府論:下.葉啟芳,瞿菊農(nóng)譯.北京:商務印書館,1964.
[16]羅伯特·P.莫杰思.知識產(chǎn)權正當性解釋.北京:商務印書館,2019.
[17]卡爾·馬克思.資本論.吳半農(nóng)譯.上海:商務印書館,1934.
[18]蘭登·溫納.自主化技術:作為政治思想主題的失控技術.楊海燕譯.北京:北京大學出版社,2014.
[19]Bruno Bettelhein.The Informed Heard:Autonomy in a Mass Age.New York:The Free Press,1960.
[20]克勞斯·施瓦布.第四次工業(yè)革命:轉型的力量.李菁譯.北京:中信出版社,2016.
[21]克勞斯·施瓦布,尼古拉斯·戴維斯.第四次工業(yè)革命——行動路線圖:打造創(chuàng)造型社會.世界經(jīng)濟論壇北京代表處譯.北京:中信出版社,2018.
[22]國務院.新一代人工智能發(fā)展規(guī)劃.[2017-07-20]http://www.gov.cn/xinwen/2017-07/20/content_5212064.htm.
[23]European Data Protection Board(EDPB).Law Enforcement in the Age of Big Data and Surveillance Intermediaries:Transparency Challenges.Brussels:EDPB,2015.[2019-12-02]https://edps.europa.eu/sites/edp/files/publication/15-11-19_big_data_en.pdf.
[24]Kristin Lee.Artificial Intelligence,Automation,and the Economy.[2016-12-20]https://obamawhitehouse.archives.gov/blog/2016/12/20/artificial-intelligence-automation-and-economy.
[25]European Commission.Communication Artificial Intelligence for Europe.Brussels:European Commission,2018.[2019-12-02]https://ec.europa.eu/digital-single-market/en/news/communication-artificial-intelligence-europe.
[26]羅賓·漢森.機器時代:機器人統(tǒng)治地球后的工作、愛情和生活.劉雁譯.北京:機械工業(yè)出版社,2018.
[27]梅夏英.在分享和控制之間數(shù)據(jù)保護的私法局限和公共秩序構建.中外法學.2019,(4).
[28]馬克·格蘭諾維特.社會與經(jīng)濟:信任、權力和制度.王水雄,羅家德譯.北京:中信出版社,2019.
[29]House of Commons Science and Technology Committee.Robotics and artificial Intelligence.House of Commons,2016.[2019-12-02]https://publications.parliament.uk/pa/cm201617/cmselect/cmsctech/145/145.pdf.
[30]European Commission.Ethics guidelines for trustworthy AI.[2019-04-08]
https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai.
評論排行