【ZiDongHua 之智能自動化收錄關(guān)鍵詞:人工智能  類腦認(rèn)知  智能實驗室   智能模型 】
  
  曾毅:從科學(xué)與社會視角推進(jìn)新一代生成式人工智能的發(fā)展與治理
  
  2024年1月7日,第二十五屆北大光華新年論壇在北京大學(xué)百周年紀(jì)念講堂舉行,本屆論壇的主題為“增長動能 中國探索”。遠(yuǎn)期人工智能研究中心主任、善智書院院長、中國科學(xué)院自動化研究所人工智能倫理與治理中心主任、聯(lián)合國人工智能高層顧問機(jī)構(gòu)專家曾毅出席論壇并發(fā)表題為《從科學(xué)與社會視角推進(jìn)新一代生成式人工智能的發(fā)展與治理》的演講。
  
  曾毅在演講中表示,未來需要推進(jìn)新一代生成式人工智能的科學(xué)突破,目前并沒有真正意義的通用人工智能的存在,在有效理解、識別和劃分任務(wù)方面,尚存在本質(zhì)性的問題瓶頸。他表示,基于現(xiàn)在人工智能的現(xiàn)狀,特別是風(fēng)險安全倫理方面的發(fā)展捉襟見肘,不必使人工智能無所不在,而應(yīng)在發(fā)展中秉持智能向善的理念,負(fù)責(zé)任的穩(wěn)健發(fā)展和適度的使用,才能夠使人工智能揚帆遠(yuǎn)航。生成式人工智能未來的發(fā)展應(yīng)當(dāng)聚焦于:從數(shù)據(jù)驅(qū)動的人工智能發(fā)展到自然機(jī)制驅(qū)動的人工智能,從合乎倫理到擁有道德,從人工智能與人類價值觀對齊,到人與人工智能的價值協(xié)調(diào)。
  
  
  
  以下為發(fā)言實錄:
  
  當(dāng)代生成式人工智能是工程技術(shù)的組合創(chuàng)新,以及在用戶體驗方面帶來了前所未有的顯著提升,但它確實尚未形成本質(zhì)性的科學(xué)突破。因為當(dāng)代生成式人工智能最基本的思想是人工智能領(lǐng)域幾十年前奠定的,真正在科學(xué)上的突破并不是這幾年,當(dāng)代生成式人工智能憧憬的通用人工智能的科學(xué)突破也還尚未到來。面向未來,應(yīng)當(dāng)在科學(xué)與社會角度來審視和推進(jìn)生成式人工智能的發(fā)展。從科學(xué)角度講,未來需要推進(jìn)科學(xué)意義上的新一代生成式人工智能。從社會角度講,生成式人工智能未來發(fā)展為基礎(chǔ)設(shè)施的重要組成部分,推進(jìn)社會發(fā)展,那么傳統(tǒng)的人工智能研發(fā)者就需要加強社會維度的認(rèn)知。
  
  
  
  我舉例說明,通過文字交互,何謂和諧共生?ChatGPT給出的答案確實是更新了我們傳統(tǒng)意義的和諧共生。用它生成的和諧共生的畫作看起來也確實抓住了和諧共生的意義,但是當(dāng)對比文字和圖像的時候有一個非常有趣的現(xiàn)象,文字生成的結(jié)果并沒有缺乏人的因素,但圖像生成的結(jié)果中并沒有人的存在,這不禁引發(fā)我們更深入的思考。從這樣的案例可以看出我們已經(jīng)可以受益于技術(shù)的進(jìn)步。
  
  然而另外一方面,實際上它還并未形成真正的理解。很多人說生成式人工智能確實有理解,如果沒有理解怎么能夠做生成的任務(wù),所以我再舉一個例子。我們不是所有的場景下都需要生成。大家記得,當(dāng)最開始生成式人工智能在互聯(lián)網(wǎng)上為大家提供服務(wù)時,用它去查閱參考文獻(xiàn),它給出的參考文獻(xiàn)沒有一篇是真實存在的,因為輸出的所有參考文獻(xiàn)的名字都是生成的。在這種情況下,一個生成式人工智能并不能夠區(qū)分何時不需要生成,這個實際上就是看似智能的信息處理工具實則并不擁有真正的智能所存在的問題。
  
  比如說回到和諧共生的例子,如果現(xiàn)在問題變成“生成一張包含和諧共生四個字的楷書作品”,結(jié)果卻看到,不管是英文的生成式人工智能,還是來自中國的生成式人工智能服務(wù),都沒有去抓住需求背后真正的意義。生成出的哪一幅圖上都沒有“和諧共生”四個字當(dāng)中的任何一個字,甚至沒有可識別出的文字,所以這就是為什么說目前缺乏理解的生成式人工智能,尚需有效理解、識別和劃分任務(wù)。
  
 
  
  不同生成式人工智能服務(wù)對“生成一張包含和諧共生四個字的楷書作品”請求的輸出
  
  當(dāng)代數(shù)據(jù)驅(qū)動的人工智能是輸入的數(shù)據(jù)對應(yīng)預(yù)期的輸出,可以發(fā)現(xiàn)一種數(shù)學(xué)優(yōu)化方法和模型來從數(shù)據(jù)輸入擬合到期望的輸出。生成式人工智能系統(tǒng)所期待的給定任務(wù)理想化地認(rèn)為應(yīng)該是個完全生成的任務(wù),但是真實世界中實際的需求不是這樣的。所以人工智能的生成式模型不等于是人工智能的基礎(chǔ)模型,而基礎(chǔ)模型也不僅僅提供生成式的能力,在很多時候它首先要去區(qū)分和劃分什么樣的任務(wù)需要生成,什么樣的任務(wù)不用生成或進(jìn)行受限的生成,而從人工智能來看,我們不需要生成的這種判別式的人工智能,還只是人工智能可能輸出的一種,可能還有很多其他類型。必須講到生成式人工智能確實并非通用人工智能的雛形,它更非人工智能的基礎(chǔ)模型。所以面向通用人工智能的人工智能基礎(chǔ)模型,確實需要能夠自主地、有效地識別、理解、劃分和解決任務(wù)。
  
  人工智能誕生之初有關(guān)通用問題求解器的研究就指出:一切的問題都能夠被形式化為邏輯的話,通用問題求解器可以解決世界上所有的問題。但實際上,將一個問題自主的描述劃分為一個可解的問題,在這一部分的進(jìn)展,60年以來人工智能領(lǐng)域沒有任何實質(zhì)性進(jìn)展。
  
  所以基于現(xiàn)在的人工智能的現(xiàn)狀,我們確實不必使人工智能無所不在。人工智能的確存在可能的風(fēng)險,但是發(fā)展當(dāng)中我們應(yīng)當(dāng)秉持智能向善的理念、負(fù)責(zé)任穩(wěn)健的發(fā)展和適度的使用,才能夠使人工智能揚帆遠(yuǎn)航。
  
  什么叫做智能向善,我希望能給大家一些感性的認(rèn)識。我們研發(fā)了類腦生成式人工智能基座“心擎(Mind Engine)”,并在此基礎(chǔ)上從不同視角支持“智能向善”理念的實踐。第一個例子是數(shù)字哲學(xué)家。哲學(xué)回答人生當(dāng)中切要問題并給予我們思考的力量,數(shù)字哲學(xué)家構(gòu)造了類腦生成式人工智能引擎向這些哲學(xué)家去學(xué)習(xí),就可以受益于先哲們的智慧,助力我們認(rèn)識這個世界并與這個世界更好地相處。我們也需負(fù)責(zé)任地指出這樣的AI并不能夠被稱為是這些先哲的數(shù)字版,雖然它可以很有用,它仍然是看似智能的信息處理工具。
  
  再比如,我們基于類腦生成式人工智能基座“心擎”構(gòu)建的心靈對話的平臺“心友”。當(dāng)你心情不好的時候,它用積極心理學(xué)去引導(dǎo)你。當(dāng)你覺得未來無限大好的時候,它也會提醒你人生過程當(dāng)中可能還會遇到各種各樣的挑戰(zhàn),為每一個人創(chuàng)建“心靈之友”。
 
  生成式人工智能可以幫助我們更好的認(rèn)知我們的世界和我們的關(guān)系,比如說人類和生態(tài)、人類和所有的動物和植物之間的關(guān)系。我們?nèi)诤狭瞬煌斯ぶ悄芗夹g(shù)構(gòu)建的人與生態(tài)的“共生圖”就呈現(xiàn)和分析了人類和所有的動植物之間的關(guān)系。例如看似螞蟻與人類相比關(guān)系網(wǎng)絡(luò)相對簡單,但是地球上人類和螞蟻的數(shù)量比例卻是1:100萬,但是當(dāng)我們問生成式人工智能,螞蟻和人類之間的關(guān)系是什么的時候。我們的搜索和摘要引擎告訴我們“世界上有若干種不同吃螞蟻的方式”,只有一句話寫到“螞蟻合作的模式是人類合作的典范”。當(dāng)我們用生成式人工智能來描述它們之間關(guān)系的時候,總結(jié)的結(jié)論就是人類和螞蟻并不能夠很好的相處。看到這樣的生成式人工智能輸出的時候,我還是感覺到非常沮喪,并希望這樣的努力能賦予人類更多的啟示和反思。倘若未來超級智能視人類如同人類視螞蟻,我們是否會從這個觀察與反思以及我們對人類現(xiàn)代行為的分析中獲得些什么呢?
 
  人工智能還可以賦能我們的文化交互,在很多國際交流當(dāng)中經(jīng)常被問到一個問題:我們跟你們是如此的不同,我們?nèi)匀幌M愫献?。我從來是從第一句話就打斷,我非常想知道為什么中國的學(xué)者跟你們有如此的不同。人工智能可以用來彌合文化之間誤解并促進(jìn)交流,正是在這個背景下我萌生了創(chuàng)造文化交互引擎這個項目與服務(wù)的想法。聯(lián)合國教科文組織遴選的自然和文化遺產(chǎn),本來突出的是各個國家遺產(chǎn)相對來說都有各自的特征以區(qū)分于其他的自然和文化的遺產(chǎn),形成對人類文明獨特地勾勒。然而這些自然和文化遺產(chǎn)真的只是具有獨特性而背后缺乏相關(guān)性嗎?我們用生成式人工智能的技術(shù)可以去發(fā)現(xiàn)它們之間的相似點,以及它們的相異點。在它們的相似點上,將所有全球的文化關(guān)聯(lián)在一起,但部分的相異點是我們可以進(jìn)行文化互鑒的機(jī)遇。
  
  現(xiàn)在生成式人工智能確實是不完美的,現(xiàn)階段我們先針對基于傳統(tǒng)生成式人工智能大模型做好合乎倫理的研究與服務(wù),從一個看似智能信息處理的工具開始,再同步布局新一代人工智能,使它能真正的有道德,從合乎倫理的人工智能發(fā)展到具有道德的人工智能。
  
  比如說我們的善智人工智能倫理安全平臺體系中“智善·如流”平臺用人類和生成式人工智能協(xié)作的方式生成數(shù)千種不同的場景,然后再讓人類和生成式人工智能共同去判斷場景中的行為是否道德。可以發(fā)現(xiàn)即使現(xiàn)在最強大的生成式人工智能,如果以GPT4來舉例,它在倫理道德的輸出方面與人類的相近程度,用相似度來匹配的話只有0.64,最強大的大模型跟人類的價值觀的差異仍然是非常大的。而且任何一個生成式大模型在倫理道德,價值觀的表現(xiàn)方面相當(dāng)?shù)牟环€(wěn)定的。說的是同一件事情,只要描述方式稍微變一下,它的輸出道德的價值判斷甚至可以是顛覆性的,這是人不會出現(xiàn)的問題。所以這些看似智能的信息處理工具用人類反饋的強化學(xué)習(xí)這種方式即使給它做了倫理道德框架,也尚未避免看似并不復(fù)雜的問題。
  
  未來的生成式人工智能不一定會停留在看似智能的信息處理的工具上,但是如果想讓它獲得道德,而不僅僅是用規(guī)則的方式讓它合乎倫理,現(xiàn)在所謂的基于人類反饋的強化學(xué)習(xí)是完全不夠的。人類在進(jìn)行基于道德的問題求解的時候,道德框架是在外部的,而不是在一個問題求解器上打補丁,所以這樣的方式本質(zhì)上就構(gòu)成了合乎倫理和具有道德之間在計算原理的本質(zhì)上的差別。人類獲得獲得道德的方式首先是基于生物的自我感知、區(qū)分自我和他人,有了心理揣測能力和情感共情能力,產(chǎn)生利他并最終形成道德直覺,在此基礎(chǔ)上進(jìn)行道德推理與決策。
  
  但是我們現(xiàn)在的生成式人工智能不是這樣的,因為你在希望其形成合乎倫理的信息處理,這對于它來說只是讓他執(zhí)行了一個無異于其他分類任務(wù)的任務(wù)。當(dāng)采用人類反饋的強化學(xué)習(xí),生成式人工智能做一個錯誤的決定你可以懲罰它,但是也可以有另外十個人同時給它獎勵。如果你是一個善人,你去懲罰它,如果給它獎勵的另外十個人是惡人的話,生成式人工智能的輸出就會跟我們所預(yù)期的截然相反。
  
  我們希望未來的生成式人工智能是基于這樣智能的本質(zhì)發(fā)展出來的,是真正區(qū)分于現(xiàn)在通過規(guī)則合乎倫理,到從基于自我發(fā)展出來的道德直覺,讓它具有道德。
  
  最后,我認(rèn)為面對長遠(yuǎn)的超級智能、人類災(zāi)難性的風(fēng)險、生存風(fēng)險的隱患,確實需要我們從現(xiàn)在開始做準(zhǔn)備。但是,人工智能與人類價值對齊這件事情在未來的超級智能的時代將不成立,因為我們需要的是從價值對齊過渡到人與人工智能價值的協(xié)調(diào),協(xié)調(diào)是雙向的,因為在那個時候當(dāng)人工智能具備反思能力的時候,智能的水平遠(yuǎn)遠(yuǎn)超過人類的時候,那么人工智能對于人類也將有價值觀方面的訴求和期待。
  
  未來社會可能不是一個以人類為中心的社會,我們現(xiàn)在叫做人類文明,但是相信未來一定是共生文明。人工智能是人類的一面鏡子,現(xiàn)在人工智能還沒有人類強大,但是它卻可以照耀到人內(nèi)心部分的黑暗和人類社會未來應(yīng)當(dāng)發(fā)展的方向。大家經(jīng)常說人工智能比人類演化的快,我們既然知道人類的弊端,在人工智能作為一面鏡子一樣賦予我們反思的時候,人類需要加速反思的過程。超級智能對人類社會產(chǎn)生的風(fēng)險,人類社會能不能夠更快的進(jìn)化到共生文明,這個問題如果不從現(xiàn)在開始的話就太晚了。
  
  研究中心
  
  中國科學(xué)院自動化研究所人工智能倫理與治理研究中心是從事人工智能倫理與治理,符合倫理道德的人工智能模型與應(yīng)用、人工智能可持續(xù)發(fā)展與治理研究的智庫與科技創(chuàng)新深度融合的綜合性研究中心。中心作為代表性機(jī)構(gòu)參與國內(nèi)外人工智能倫理與治理原則、規(guī)范的形成與實施;開展人工智能內(nèi)生安全、符合倫理道德的人工智能模型與應(yīng)用研究;對人工智能倫理、治理與可持續(xù)發(fā)展的近期與長遠(yuǎn)科學(xué)挑戰(zhàn)開展前瞻研究。
  
  中心長期參與國家有關(guān)部委、國際組織的人工智能倫理與治理相關(guān)研究工作,參與編寫《國家新一代人工智能治理原則》、《國家新一代人工智能倫理規(guī)范》、《聯(lián)合國教科文組織(UNESCO)人工智能倫理問題建議書》、《世界衛(wèi)生組織(WHO)健康領(lǐng)域人工智能倫理指南》。研制并發(fā)布了“鏈接人工智能準(zhǔn)則平臺”、“人工智能治理公共服務(wù)平臺”、“面向可持續(xù)發(fā)展的人工智能智庫平臺”等一系列人工智能可持續(xù)發(fā)展與倫理治理交叉研究與服務(wù)平臺。
  
  中心與國內(nèi)外相關(guān)機(jī)構(gòu)及各國學(xué)者、產(chǎn)業(yè)代表共同發(fā)起的面向可持續(xù)發(fā)展的人工智能協(xié)作網(wǎng)絡(luò)(AI for SDGs Cooperation Network)是促進(jìn)人工智能賦能實現(xiàn)可持續(xù)發(fā)展目標(biāo),以及人工智能的發(fā)展與治理深度融合創(chuàng)新的國際合作網(wǎng)絡(luò)。
  
  遠(yuǎn)智觀點(Views on Long-term AI)關(guān)注人工智能倫理與治理近期與長遠(yuǎn)發(fā)展的理論研究、觀點分析與實踐,旨在培育領(lǐng)域前瞻思想,促進(jìn)國內(nèi)、國際觀點對話與交流,助力領(lǐng)域共識、規(guī)范與政策的形成。主要涉及近期與長遠(yuǎn)人工智能的風(fēng)險與挑戰(zhàn)、人工智能倫理與治理理論與實踐、通用人工智能與超級智能的發(fā)展途經(jīng)及其社會影響、國防人工智能與軍控、人工智能促進(jìn)世界和平、人工智能助力可持續(xù)發(fā)展。
  
  類腦認(rèn)知智能實驗室
  
  類腦認(rèn)知智能實驗室(BrainCog Lab)隸屬于中國科學(xué)院自動化研究所,實驗室成立于2013年,是從事類腦人工智能前沿理論和腦與智能交叉創(chuàng)新的研究團(tuán)隊。由中國科學(xué)院自動化研究所腦圖譜與類腦智能實驗室副主任曾毅研究員擔(dān)任團(tuán)隊負(fù)責(zé)人。
  
  類腦認(rèn)知智能實驗室以構(gòu)建面向通用人工智能的類腦認(rèn)知智能模型與應(yīng)用為主要研究內(nèi)容,特別是在類腦脈沖神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)、發(fā)育與演化機(jī)理、類腦可塑性理論體系、類腦知識表征與推理、類腦決策理論、意識計算模型、情感與倫理道德的類腦模型等方面開展研究。
  
  實驗室研制的類腦認(rèn)知智能引擎“智脈(BrainCog)”致力于為新一代人工智能前沿探索打造基于脈沖神經(jīng)網(wǎng)絡(luò)的通用人工智能引擎,服務(wù)于人類與人工智能的和諧共生。
  
  類腦認(rèn)知智能實驗室(BrainCog Lab)主頁:http://www.braincog.ai
  
  類腦認(rèn)知智能引擎“智脈(BrainCog)”主頁:http://www.brain-cog.network/