通過這場會,西方應該重新審視科技競爭的敘事
【ZiDongHua 之人文化天下收錄關(guān)鍵詞:人工智能 布萊奇利宣言 吳朝暉 曾毅 】
通過這場會,西方應該重新審視科技競爭的敘事
就在這幾天,中國、美國、英國、歐盟國家等共同發(fā)布了一份宣言。
這份宣言達成的背景,是在英國舉行的全球人工智能安全峰會。一個耐人尋味的細節(jié)是,宣言在峰會的第一天上午就發(fā)布了。
根據(jù)宣言,中美歐形成了共識,要通過國際合作來安全發(fā)展人工智能。
為什么中美歐在這件事上的共識如此迫切?
回答這個問題,首先要從峰會本身入手。
這次峰會一共設(shè)置了八個圓桌會議,它們構(gòu)成了峰會的主體。這八個圓桌會議的主題,都在圍繞一個關(guān)鍵詞,“風險”:
“風險”的內(nèi)涵究竟是什么,將決定這次峰會的走向,有些國家早就開始打起了自己的算盤。
6月,英國首相蘇納克訪問美國,和美國總統(tǒng)拜登在會面期間就提到了要舉辦峰會。
在那前后,以美國為代表,一些人如何看待人工智能領(lǐng)域的風險問題,已有跡可循。
在蘇納克訪問美國之前,白宮剛剛召集了美國的科技公司討論人工智能風險。在這次會上,白宮明確闡述了自己對人工智能風險的理解:
公司有基本責任確保其產(chǎn)品在部署或公開之前是安全的,在這個前提下,美國政府會持續(xù)支持相關(guān)公司創(chuàng)新,抓住人工智能的機遇。
究其根本目的,美國想要的,是穩(wěn)妥地保障自己的領(lǐng)先地位。
結(jié)合同一時間,美國的另一個動向,可以看得更清楚。就在這次會議后不久,美國釋放消息,將考慮進一步限制出口人工智能芯片。
隨后,拜登又簽署了一項關(guān)于人工智能的行政命令,針對最強大的人工智能系統(tǒng),要求科技公司與美國政府分享安全測試結(jié)果,并要參照美國國家標準與技術(shù)研究院制定的系列標準。
這項舉措有著深遠的考慮。當前,各國對于人工智能的監(jiān)管都還剛剛起步,美國的邏輯是,搶占到了人工智能規(guī)則制定的話事權(quán),通過制定行業(yè)和技術(shù)發(fā)展規(guī)則,就能引導技術(shù)和行業(yè)方向,并對其眼中的“對手”進行限制。中國就是其中的一個對象。
過去,在空天、原子能等前沿科技領(lǐng)域,美國遵循的都是這樣的套路,在掌握了充分優(yōu)勢后開始單方面推動符合美國利益的技術(shù)規(guī)范、監(jiān)管標準等框架,強迫其他國家接受,并打壓發(fā)展中國家的發(fā)展追趕。
美國眼中的風險是在某個領(lǐng)域,自身的優(yōu)勢不是絕對可控,但事實上,美國為了奪取絕對控制來確保領(lǐng)先的做法,孕育出了更多風險。特別是近年來,美國強行打破全球產(chǎn)業(yè)鏈,干預這些行業(yè)的正常發(fā)展,導致這樣的風險在越來越多地應驗。芯片行業(yè)就很典型。
然而,美國這種思維方式并沒有成為國際主流,也沒有受到國際社會的認可,中國的參會就能說明一定問題。與此同時,這次峰會達成的共識,也很有說服力。
在峰會的第一天,中美歐以及其他參會方就達成了共同宣言,《布萊奇利宣言》。這份宣言明確提到,要加強國際科技合作,共同研究人工智能的風險。
可見,通過國際科技合作而不是封鎖打壓來解決風險,是國際共識,美國最終也接受了。
知情人士告訴譚主,對于這次峰會達成的《布萊奇利宣言》,英國在會前與各個國家進行磋商,經(jīng)過了至少一個多月的協(xié)調(diào),大家最終達成了一致。
《布萊奇利宣言》中,對于人工智能真正的風險所在,做出了明確的描述和建議:人工智能的許多風險本質(zhì)上是國際性的,因此“最好通過國際合作來解決”。
在行動上,與會國家和地區(qū)也一致同意,要協(xié)力打造一個“具有國際包容性”的前沿人工智能安全科學研究網(wǎng)絡,來深入探究人工智能的能力和風險。
讓風險回歸發(fā)展規(guī)律的本質(zhì),各國合作解決,而不是人為制造更多風險,這才是一個新興領(lǐng)域能繁榮發(fā)展的必要條件。
這次峰會為什么能凝聚起這樣的共識?
回歸到人工智能發(fā)展的特性,譚主了解到,參會者們很關(guān)注惡意使用人工智能進行網(wǎng)絡攻擊、制造虛假信息等風險。
首要風險,就是網(wǎng)絡攻擊。任何人都可以利用人工智能,輕松地定制各種網(wǎng)絡釣魚軟件,來制造節(jié)奏更快、更有效和更大規(guī)模的網(wǎng)絡入侵。
根據(jù)網(wǎng)絡安全專業(yè)研究機構(gòu)的報告,2023年第二季度,全球范圍內(nèi)發(fā)生的網(wǎng)絡攻擊激增8%,達到了近兩年來的最高峰。
而在虛假信息的問題上,一些率先從事此類技術(shù)研究的發(fā)達國家,已經(jīng)將人工智能用于非理性目的,其中包括操縱輿情、干涉他國內(nèi)政、攻擊別國主權(quán)和威脅網(wǎng)絡空間的安全。
一些國家的特種作戰(zhàn)司令部正計劃利用“深度偽造”等技術(shù),開發(fā)新一代“軍事信息支持作戰(zhàn)”工具,進行互聯(lián)網(wǎng)信息操縱、宣傳和欺騙活動。
這些問題,都和一個關(guān)鍵技術(shù)相關(guān)——生成式人工智能,也就是具有文本、圖片、音頻、視頻等內(nèi)容生成能力的模型及相關(guān)技術(shù)。
這次的峰會也針對生成式人工智能,給出了一個判斷,到2025年,其在數(shù)字空間的風險將達到一個高峰。
如果追溯生成式人工智能所帶來的關(guān)注,會發(fā)現(xiàn)一個時間上的契合點:生成式人工智能的風險所引發(fā)的焦慮正是在今年爆發(fā)式增長的,這也是今年以來,全球人工智能治理的迫切性越來越強的原因。
今年,全世界都目睹的一個現(xiàn)象是,自ChatGPT問世以來,其訓練了幾個月的性能提升比過去幾年迭代得都要快,但這也意味著人工智能正在以空前的速度產(chǎn)生風險。
而這些風險,是無法像美國切割芯片全球產(chǎn)業(yè)鏈那樣,通過“小院高墻”的方式被控制和約束的。出席這次峰會的中方科學家代表,中國科學院自動化研究所曾毅研究員告訴譚主:
一家做出來的人工智能如果有安全風險,它會波及到其他家,甚至是原本不相關(guān)的第三方。而現(xiàn)在沒有一個國家、一個平臺可以徹底封鎖來自其他國家的技術(shù)和信息。因此,人工智能的風險是無法按國家切分的。
面對風險的迫近,今年以來,呼吁全球共同治理人工智能的聲音越來越多:
||今年3月,包括蘋果聯(lián)合創(chuàng)始人在內(nèi)的上千人發(fā)布聯(lián)名信,要求呼吁所有人工智能實驗室立即暫停訓練比GPT-4更強大的人工智能系統(tǒng),暫停時間至少6個月。
?。衲?月,人工智能領(lǐng)域的權(quán)威學術(shù)機構(gòu)發(fā)布聯(lián)名信,呼吁共同管控未來人工智能的風險。
?。衲?月,被業(yè)界譽為“人工智能教父”的杰弗里·辛頓宣布從谷歌辭職,以便將精力投入警告人工智能技術(shù)的危險性。他預測,未來5年,人工智能就可能變得比人類更聰明。
值得注意的是,這些聲音,不少都來自美國。
但面對這些風險,全球治理還沒有形成一個所有人都認可的機制。在這場峰會之前,全球討論人工智能治理的多邊平臺主要有兩個:||2020年,經(jīng)合組織(OECD)啟動的人工智能政策觀察站||2020年,加拿大和法國在G7框架下提議的全球人工智能合作伙伴關(guān)系(GPAI)正式推出
這兩個多邊平臺,在G7等美西方集團的主導下,很大程度上還是將美西方的競爭優(yōu)勢作為制定規(guī)則的根本目的,其他國家自然不會深度參與。
正因如此,2023年,聯(lián)合國宣布建立的人工智能咨詢機構(gòu),成為人工智能治理在全球范圍內(nèi)最包容的機構(gòu)。與此同時,全球人工智能安全峰會也應運而生,峰會就專門在探討人工智能自身的風險。
?。?lián)合國秘書長古特雷斯也出席了這次峰會
共同風險的迫近,促使美西方走出競爭的狹隘敘事,真正開始面對人工智能的全球治理問題。與中國的合作,是這股趨勢的自然結(jié)果。
在這次峰會前,蘇納克說過一句話,說明了對中國的需要:邀請中國,絕對正確。為什么人工智能的全球治理需要中國?
包括基辛格在內(nèi)的戰(zhàn)略家,已經(jīng)率先提出,必須讓世界上其他國家參與制定全球治理體系的規(guī)則,這樣才能采取安全的措施,這要先從中美兩國開始合作。
?。粮衽c谷歌前首席執(zhí)行官等合著《人工智能時代與人類未來》
這次的峰會也提到了一個排名,人工智能領(lǐng)域排名前二的國家,正是中國和美國,英國排名第三。
曾毅告訴譚主,峰會的主辦方英國在確定峰會的議題時,和頂級的國際學者、研究機構(gòu)都保持了密切的交流,其中也有包括他本人在內(nèi)的中國科學家。
中國的重要性,從每場會議的主持人,也可見一斑。八個圓桌會議的主持人,有英國、美國等美西方國家的,還有中國的。
?。阒鞒制渲幸粓鰣A桌會議
而沒有中國,美西方單方面對人工智能風險的治理,將存在很大空缺。英國智庫對這次峰會的關(guān)注中,也反映著這個問題。
其中一篇文章就提到,中國不僅是人工智能能力領(lǐng)先的國家之一,還為新興技術(shù)制定了詳細的法規(guī),這將對中國乃至全球的人工智能產(chǎn)生重大影響。
中方此次赴英的代表團成員、科技部吳朝暉副部長分享了中方對人工智能規(guī)制的理念,其中重要的一點,就是要確保人工智能始終被人掌控。
為什么如此強調(diào)這點,因為目前人工智能最大的一個問題是人類以后可能很難控制它,甚至,發(fā)生沖突。
曾毅告訴譚主,人工智能現(xiàn)在是一個輔助工具,但他如果有了自主決策的能力,他就有了自主控制的能力。比如,人工智能為了自主進化,需要大量的計算資源,這些資源目前由人類控制。因此,人工智能可能決定,與人類爭奪資源,這時就會出現(xiàn)沖突。
曾毅還講了一個美軍分享的例子,就是人工智能反過來襲擊人類:
美國一架裝載有人工智能系統(tǒng)的無人機在收到了最初指令后,再接受指揮員的后續(xù)指令時,做出判斷,這些指令不利于第一條指令的執(zhí)行,進而認定發(fā)出指令的指揮員不利于指令的執(zhí)行,所以決定襲擊指揮員。
規(guī)避人工智能這種快速發(fā)展所帶來的問題,首先就需要制度上的保障。
人工智能專家許粲昊教授介紹,中國在防范人工智能風險方面走得比美國稍微早一點,比如在政府層面的政策把控問題上,這顯然是能帶來好處的。
今年8月,中國首份生成式人工智能監(jiān)管性文件正式實施,就成為了全球首部直接針對生成式人工智能進行規(guī)制的國家層面法律文件。
在這部《生成式人工智能服務管理暫行辦法》中,有一條,就特別提到了要鼓勵“平等互利開展國際交流與合作,參與生成式人工智能相關(guān)國際規(guī)則制定”。
在一些問題上,中國也有一些獨有的視角,是美西方都不具備的。
其中,就有當前最受關(guān)注的,如何解決人工智能合乎倫理道德的問題。
技術(shù)上,對于這個問題,美西方主要依靠設(shè)計一些語言規(guī)則來規(guī)避倫理道德風險。而中國提出的做法是,讓人工智能模型去學習人類的道德經(jīng)驗和道德直覺,在這個基礎(chǔ)上進行道德的決策。
這個細節(jié)反映出了中國技術(shù)向善的基因。中國內(nèi)生出的安全哲學視角,無疑將給人工智能治理帶來巨大的變化。
今年10月,習近平主席在第三屆“一帶一路”國際合作高峰論壇開幕式上的主旨演講中提出,中方將在本屆論壇上提出全球人工智能治理倡議。
倡議的首要核心內(nèi)容,包括堅持以人為本、智能向善,引導人工智能朝著有利于人類文明進步的方向發(fā)展。
倡議還著重提出,在各國之間協(xié)調(diào),建立一套控制人工智能的規(guī)則。
評估人工智能所帶來的機遇和挑戰(zhàn),需要超越單一國家利益的視角,站在全球經(jīng)濟社會發(fā)展和人類文明進步的高度去思考。
這折射出的正是中國一直以來倡導的共同安全觀。當前,強權(quán)政治又重新在全世界挑起地緣沖突,人工智能所帶來的威脅,正提醒著我們集團對抗只會加劇21世紀安全挑戰(zhàn),人類是不可分割的安全共同體。
在此基礎(chǔ)之上,人工智能也給了人類一個重新思考科技的契機:
科技應該在開放的環(huán)境里孕育。不同國家之間的科技創(chuàng)新,應該是良性互動,而不是不斷打破規(guī)則、突破下限的惡性競爭。否則,就在人類不注意之時,科技可能會帶來的,更多的是災難。
我要收藏
個贊
評論排行