【ZiDongHua 之人文化天下收錄關(guān)鍵詞: 人工智能 可持續(xù)發(fā)展 類腦認知  智能實驗室】
  
  曾毅受邀出席全球人工智能安全峰會并發(fā)言
  
  2023年11月1-2日,英國政府主辦了人工智能安全峰會(AI Safety Summit),峰會于二戰(zhàn)期間英國的密碼破譯基地布萊切利園(Bletchley Park)舉行。峰會邀請了來自28個國家及歐盟約100位政府間組織、政府、學者、企業(yè)代表參會并圍繞人工智能近期與長遠風險及其應(yīng)對開展深入研討。峰會首日,包括英國、中國、美國在內(nèi)的28個國家及歐盟共同簽署了《布萊切利宣言(The Bletchley Declaration)》,承諾為了全球人類的福祉,應(yīng)當將以人為本、可信、負責任作為總體愿景,確保以安全的方式進行人工智能的設(shè)計、研發(fā)、部署、使用并通過全球協(xié)作共同應(yīng)對人工智能安全的近期和長遠挑戰(zhàn)。
  
  中國科學院自動化研究所人工智能倫理與治理中心主任曾毅研究員受邀參加此次會議,并擔任圓桌討論主席主持了“前沿人工智能不可預(yù)知進展帶來的風險(Risks from Unpredictable Advances in Frontier AI Capability)”議題的研討。出席該研討議題的政策、學術(shù)、產(chǎn)業(yè)專家包括圖靈獎獲得者加拿大蒙特利爾大學Yoshua Bengio教授、美國商務(wù)部部長雷蒙多、英國國家網(wǎng)絡(luò)安全中心主任Lindy Cameron、Google高級副總裁James Manyika、斯坦福大學教授Percy Liang、盧旺達信息與通信技術(shù)部部長Paula Ingabire等。第1天議程尾聲,在英國科學、創(chuàng)新與技術(shù)大臣Michelle Donelan的主持下,曾毅研究員代表研討組進行了觀點陳述。
  
 
  
  以下根據(jù)曾毅研究員發(fā)言實錄整理并翻譯:
  
  上午我和Max Tegmark教授還在討論暫停大型人工智能實驗的公開信(Pause Giant AI Experiment: An Open Letter)我們是否成功了。我們所指的成功是什么呢?我想,現(xiàn)在有超過20個國家在共同討論人工智能安全(AI Safety),這已經(jīng)是一個巨大的成功。因為這封信的目的正是提高人們對人工智能安全的關(guān)注。為此,我們應(yīng)該感謝英國政府聚集超過20個國家各界代表在此一起研討這個議題。
  
  在我們有關(guān)“前沿人工智能不可預(yù)知進展帶來的風險”的圓桌研討會上,我們不僅討論了難以預(yù)知的進展(Unpredicted Advances),也討論難以預(yù)期的失敗(Unpredicted Failure)。而這正是人工智能安全工作的核心。我們對進展和失敗能做出很好的預(yù)測嗎?答案是否定的。但我們能停止這樣的努力嗎?答案也是否定的。而這就是我們討論的重要性和魅力所在。
  
  我們還討論了開源模式及其潛在風險。這是一個非常具有挑戰(zhàn)性的問題。我們這一代人開始從事計算機科學工作時,從Linux和BSD等開源系統(tǒng)中受益。但現(xiàn)在,當我們從事大型人工智能模型的工作時,我們必須考慮開源的范式是否還能繼續(xù),因為這會帶來很多新的擔憂和風險。當規(guī)模更大、不確定性更大的模型向所有人開放時,我們?nèi)绾尾拍芊乐拐`用、濫用?這不僅是人工智能科學家面臨的挑戰(zhàn),也是全世界面臨的挑戰(zhàn)。我們需要尋找風險與收益的平衡。
  
  最后,關(guān)于國內(nèi)和國際合作,我們的小組還提出一個觀點。我們今天看到英國和美國都將成立自己的人工智能安全機構(gòu)。而我們認為,每個國家都應(yīng)該成立自己的人工智能安全機構(gòu)。但這還不夠,我們還需要建立一個涵蓋全世界的人工智能安全網(wǎng)絡(luò),以期能夠解決不可預(yù)知的進展和不可預(yù)知的失敗。
  
  當我與聯(lián)合國副秘書長兼秘書長技術(shù)特使Amandeep Gill交談時,Amandeep說聯(lián)合國的人工智能高級別咨詢機構(gòu)的成立,重要的關(guān)切不是與中國、美國、英國等人工智能發(fā)達國家商榷如何競爭或分享利益,而更重要的是關(guān)于世界其他所有國家的發(fā)展和獲益的機會,是去探討人工智能超級大國給世界其他國家?guī)淼母拘缘奶魬?zhàn)。我認為,這正是我們?yōu)槭裁幢仨殧y手的原因,不僅是通過聯(lián)合國教科文組織(UNESCO)和國際電信聯(lián)盟(ITU),通過聯(lián)合國的平臺,還要通過像人工智能安全峰會這樣的機會努力促進合作。目前,全球人工智能安全峰會匯集了20余個國家,我希望在未來一年或幾年的時間里,峰會能夠匯集40個以上國家共護安全、共享發(fā)展。
  
 
  
  此外,經(jīng)曾毅研究員修改和確認,該圓桌會議還發(fā)布了正式的觀點匯總,以下內(nèi)容翻譯自官方發(fā)布的圓桌研討觀點匯總。
  
  議題2 “前沿人工智能不可預(yù)知進展帶來的風險(Risks from Unpredictable Advances in Frontier AI Capability)” 圓桌研討:
  
  此議題討論了不可預(yù)測的“飛躍”給前沿人工智能能力帶來的風險,包括模型的快速擴展、新興的預(yù)測方法以及對未來人工智能發(fā)展的影響,包括開源。(主席:中國科學院曾毅)
  
  當今前沿人工智能系統(tǒng)的能力已經(jīng)遠遠超出了許多人僅是幾年前的預(yù)測。
  
  隨著投資的增加,我們很可能會繼續(xù)驚訝于未來人工智能系統(tǒng)的能力,這種能力可能不會被其創(chuàng)造者準確預(yù)測或預(yù)期。
  
  這些模型還將能夠連接到其他系統(tǒng)并增強其能力——可能的排列組合的數(shù)量意味著在發(fā)布之前很難預(yù)料到潛在的結(jié)果。
  
  先進的人工智能能力有可能通過解決目前在健康、教育、環(huán)境、科學和其他領(lǐng)域的未解挑戰(zhàn),帶來巨大的好處。但創(chuàng)造這些好處的人工智能系統(tǒng)本身的屬性正是同時也帶來了巨大的風險的來源。
  
  新的前沿人工智能模型必須在安全的環(huán)境下經(jīng)過嚴格的開發(fā)和測試。潛在收益的前景不應(yīng)成為跳過或匆忙進行安全測試或其他評估的理由。
  
  雖然開放獲取模型具有一定的好處,如透明度和促進研究,但一旦發(fā)布,就不可能撤回具有危險能力的開放獲取模型。這使得開放獲取模型有可能使人工智能被濫用,因此需要進行公開討論以取得平衡。
  
  共享評估工具是一件好事,但通過所有的評估也并不意味著絕對的安全,僅是根據(jù)已知的評估沒有發(fā)現(xiàn)明顯問題。我們需要不斷關(guān)注正在和即將出現(xiàn)的風險。
  
  
  
  圓桌研討觀點視頻:
  
  https://www.youtube.com/watch?v=TMch0STIUGs
  
  圓桌研討觀點匯總官方英文版地址:
  
  https://www.gov.uk/government/publications/ai-safety-summit-1-november-roundtable-chairs-summaries/ai-safety-summit-2023-roundtable-chairs-summaries-1-november--2
  
  類腦認知智能實驗室
  
  類腦認知智能實驗室(BrainCog Lab)隸屬于中國科學院自動化研究所,實驗室成立于2013年,是從事類腦人工智能前沿理論和腦與智能交叉創(chuàng)新的研究團隊。由中國科學院自動化研究所腦圖譜與類腦智能實驗室副主任曾毅研究員擔任團隊負責人。
  
  類腦認知智能實驗室以構(gòu)建面向通用人工智能的類腦認知智能模型與應(yīng)用為主要研究內(nèi)容,特別是在類腦脈沖神經(jīng)網(wǎng)絡(luò)學習、發(fā)育與演化機理、類腦可塑性理論體系、類腦知識表征與推理、類腦決策理論、意識計算模型、情感與倫理道德的類腦模型等方面開展研究。
  
  實驗室研制的類腦認知智能引擎“智脈(BrainCog)”致力于為新一代人工智能前沿探索打造基于脈沖神經(jīng)網(wǎng)絡(luò)的通用人工智能引擎,服務(wù)于人類與人工智能的和諧共生。
  
  類腦認知智能實驗室(BrainCog Lab)主頁:http://www.braincog.ai
  
  類腦認知智能引擎“智脈(BrainCog)”主頁:http://www.brain-cog.netwo
 
  
  遠智觀點(Views on Long-term AI)關(guān)注人工智能倫理與治理近期與長遠發(fā)展的理論研究、觀點分析與實踐,旨在培育領(lǐng)域前瞻思想,促進國內(nèi)、國際觀點對話與交流,助力領(lǐng)域共識、規(guī)范與政策的形成。主要涉及近期與長遠人工智能的風險與挑戰(zhàn)、人工智能倫理與治理理論與實踐、通用人工智能與超級智能的發(fā)展途經(jīng)及其社會影響、國防人工智能與軍控、人工智能促進世界和平、人工智能助力可持續(xù)發(fā)展。
  
  更多信息請參考 https://long-term-ai.center/
  
  研究中心
  
  https://www.ai-ethics-and-governance.institute/
 
  
  中國科學院自動化研究所人工智能倫理與治理研究中心是從事人工智能倫理與治理,符合倫理道德的人工智能模型與應(yīng)用、人工智能可持續(xù)發(fā)展與治理研究的智庫與科技創(chuàng)新深度融合的綜合性研究中心。中心作為代表性機構(gòu)參與國內(nèi)外人工智能倫理與治理原則、規(guī)范的形成與實施;開展人工智能內(nèi)生安全、符合倫理道德的人工智能模型與應(yīng)用研究;對人工智能倫理、治理與可持續(xù)發(fā)展的近期與長遠科學挑戰(zhàn)開展前瞻研究。
  
  中心長期參與國家有關(guān)部委、國際組織的人工智能倫理與治理相關(guān)研究工作,參與編寫《國家新一代人工智能治理原則》、《國家新一代人工智能倫理規(guī)范》、《聯(lián)合國教科文組織(UNESCO)人工智能倫理問題建議書》、《世界衛(wèi)生組織(WHO)健康領(lǐng)域人工智能倫理指南》。研制并發(fā)布了“鏈接人工智能準則平臺”、“人工智能治理公共服務(wù)平臺”、“面向可持續(xù)發(fā)展的人工智能智庫平臺”等一系列人工智能可持續(xù)發(fā)展與倫理治理交叉研究與服務(wù)平臺。
  
  中心與國內(nèi)外相關(guān)機構(gòu)及各國學者、產(chǎn)業(yè)代表共同發(fā)起的面向可持續(xù)發(fā)展的人工智能協(xié)作網(wǎng)絡(luò)(AI for SDGs Cooperation Network)是促進人工智能賦能實現(xiàn)可持續(xù)發(fā)展目標,以及人工智能的發(fā)展與治理深度融合創(chuàng)新的國際合作網(wǎng)絡(luò)。