專訪|曾毅:人類應(yīng)當(dāng)充分反思跟上人工智能演化的速度
專訪|曾毅:人類應(yīng)當(dāng)充分反思跟上人工智能演化的速度
作為今年以來最“出圈”的一項(xiàng)科技,生成式人工智能大模型吸引了全球的目光。對于AI(人工智能)將如何改變千行百業(yè)?人工智能是否已經(jīng)擁有了科幻電影里超越人類的能力?人類如何應(yīng)對AI的挑戰(zhàn)?不乏有專家發(fā)表真知灼見。
近日,新京報貝殼財經(jīng)記者對曾在聯(lián)合國安全理事會就人工智能議題發(fā)言,被《時代周刊》評為“全球百大AI人物”之一的中國科學(xué)院自動化研究所研究員、人工智能倫理與治理中心主任曾毅進(jìn)行了專訪。曾毅教授對當(dāng)前AI大模型熱潮下,人類在技術(shù)上是否可能觸及通用人工智能,生成式大模型的發(fā)展可能會對社會造成何種影響,以及如何看待當(dāng)前國內(nèi)AI大模型“百模大戰(zhàn)”態(tài)勢等多個問題進(jìn)行了回應(yīng)。
曾毅認(rèn)為,當(dāng)前階段的人工智能是“看似智能的信息處理工具”,距離真正擁有意識的通用人工智能還有相當(dāng)距離。人工智能所帶來的問題并不僅僅是科學(xué)、技術(shù)和產(chǎn)品層面的,還有社會層面,人類應(yīng)該對此做好準(zhǔn)備。對于生成式人工智能大模型存在的重大問題,曾毅認(rèn)為倫理安全隱患是目前最不可忽視的,必須為每一個介入社會應(yīng)用的人工智能服務(wù)構(gòu)建倫理安全框架,用“教育大模型知善知惡、為善去惡”的方式來解決。而在人才培養(yǎng)方面,人工智能人才不應(yīng)該只聚焦于算法算力相關(guān)人才培養(yǎng),社會學(xué)、人類學(xué)、心理學(xué),甚至哲學(xué)、倫理等都應(yīng)當(dāng)納入未來人工智能體系的培養(yǎng)中。
談入選
人工智能不僅是科學(xué)問題,還是社會問題
新京報貝殼財經(jīng):此次你被《時代周刊》評為“全球百大AI人物”,與你同時入選的還有馬斯克、黃仁勛、李彥宏、李開復(fù)等業(yè)界知名人士,你怎么看待這項(xiàng)榮譽(yù)?
曾毅:被評為“全球百大AI人物”是直接通知結(jié)果的,《時代周刊》八月份給我發(fā)了一封郵件,告訴我入選了,其實(shí)入選前沒有給《時代周刊》提交過任何材料。我入選的是“思想者(Thinker)”系列,覺得也是一個長期積累的過程,應(yīng)該是對我和我的團(tuán)隊開展類腦人工智能及人工智能倫理與治理研究和實(shí)踐的認(rèn)可,出現(xiàn)在這個名單中對我和團(tuán)隊在這個領(lǐng)域的耕耘是一份重要的鼓勵。
就像斯皮爾伯格的電影《AI》中的情節(jié),如果機(jī)器人能愛人,那人應(yīng)該怎么做?這是一個社會問題。我曾被邀請參加了一次德國總統(tǒng)施泰因邁爾訪華時的小型研討會,在這一過程中我提問,德國人工智能倫理是由科技部門制定還是其他部門制定?對方回答:倫理問題是一個社會問題,因此在德國制定人工智能倫理規(guī)范時,進(jìn)行的是社會辯論,在社會場景下討論這個問題。
這說明,人工智能本身起源于一種科學(xué)暢想,但在大規(guī)模應(yīng)用于社會時,它成為了一種社會賦能技術(shù)。然而,它不僅僅會賦能社會,還可能對社會產(chǎn)生負(fù)面影響,因此我們需要做好準(zhǔn)備,不光在科學(xué)方面,還有社會方面,這需要在科技哲學(xué)視角作出深刻的思考作為指引。
此次入選“全球百大AI人物”,我最受益的地方是向其他99名入選者學(xué)習(xí)他們的思想和成就,在這之中不乏有人工智能學(xué)術(shù)界領(lǐng)先的學(xué)者和企業(yè)代表。在這99人里面,我發(fā)現(xiàn)幾乎沒有對人工智能在科技或應(yīng)用方面的進(jìn)展所造成的社會問題一點(diǎn)都不關(guān)注的。
入選者中,除了產(chǎn)業(yè)界和學(xué)術(shù)界的人物外,還有另外兩類典型,是科幻作家和用人工智能進(jìn)行藝術(shù)創(chuàng)作的引領(lǐng)者,其中科幻對未來提出了若干種可能性,對科學(xué)的發(fā)展毋庸置疑也是有啟發(fā)作用的。所以反觀100人的名單列表,我認(rèn)為此次評選的作用不僅僅是對這100人的認(rèn)可,更重要的是引起學(xué)術(shù)界、產(chǎn)業(yè)界、公眾對未來的反思,所以我覺得應(yīng)該從社會倫理等更多視角反思人工智能對當(dāng)代社會和未來社會的意義,以及作為更長遠(yuǎn)的科學(xué)意義上的人工智能應(yīng)當(dāng)何去何從。
新京報貝殼財經(jīng):我們應(yīng)該如何應(yīng)對生成式人工智能大模型可能對社會造成的影響?
曾毅:人工智能目前已經(jīng)快速演變?yōu)榭萍及l(fā)展引起的社會問題,需要從社會層面去討論,既不能停留在科學(xué)家的層面,更不能僅僅停留在人工智能相關(guān)產(chǎn)業(yè)層面去制定相關(guān)規(guī)范,必須有公眾參與和政府引導(dǎo)。
目前,不論文字工作者還是藝術(shù)工作者都受到了人工智能不同程度的挑戰(zhàn)。真正的智能實(shí)際上有兩個因素很關(guān)鍵,一個是自我,一個是理解。任何一個文字工作者和藝術(shù)工作者,都對于社會、自然有基于自我的體驗(yàn)和理解。包括采訪這件事情,記者的背景和興趣不同,提出的問題也完全不同。現(xiàn)在的人工智能沒有自我,當(dāng)你在使用生成式人工智能大模型時,人工智能是在沒有科學(xué)意義上“我”的概念前提下以“我建議、我認(rèn)為”來與用戶溝通,這其實(shí)在混淆人與現(xiàn)代人工智能之間的界限,目前的人工智能并非也沒有能力作為責(zé)任主體,不能承擔(dān)任何責(zé)任。
目前,人工智能創(chuàng)作有可能替代相對平庸的作品,但無法替代大師的杰作。因此,人工智能倒逼藝術(shù)工作者和文字工作者進(jìn)行對藝術(shù)本質(zhì)的反思,實(shí)際上提出了更高的要求,人工智能的發(fā)展應(yīng)該讓人類所從事的職業(yè)回歸到正確的位置。
談現(xiàn)狀
現(xiàn)階段AI大模型只是工具,距離通用人工智能還很遠(yuǎn)
新京報貝殼財經(jīng):今年以來,AI大模型熱潮的一大討論點(diǎn)是,我們目前是否已經(jīng)實(shí)現(xiàn)了通用人工智能?對此你怎么看?
曾毅:我認(rèn)為ChatGPT的成功跟當(dāng)年深度學(xué)習(xí)的廣泛應(yīng)用非常相似,最本質(zhì)的科學(xué)原理可能幾十年前就已經(jīng)存在,但如此大規(guī)模的數(shù)據(jù)支撐和計算體系結(jié)構(gòu)對于訓(xùn)練大規(guī)模參數(shù)的人工智能引擎來說,在幾十年前甚至5年前都難以想象。盡管科學(xué)原理相對清晰,但在用戶體驗(yàn)層面,通過大規(guī)模的工程計算達(dá)到了前所未有的高度。
我們之前考慮,如果大規(guī)模的語料可以達(dá)到或近似整個人類互聯(lián)網(wǎng)的規(guī)模,計算系統(tǒng)是否就真正能理解了人類的語言?從用戶體驗(yàn)的角度來看,看上去似乎已經(jīng)真正理解了,但從科學(xué)原理來說,它仍然是處理的過程。
目前的AI大模型,是一個看似智能的信息處理過程,但從它仍然會大規(guī)模地犯人類不犯的錯誤,就能夠知道,它仍然是處理過程,而非真正理解?,F(xiàn)在的人工智能并沒有逃脫“看似智能的信息處理工具”這一階段,當(dāng)前并非人工智能的終極階段。
生成式人工智能大模型或者基礎(chǔ)模型,現(xiàn)在已經(jīng)達(dá)到了多任務(wù)信息處理器的階段,所以可以用它做很多任務(wù),但當(dāng)它泛化到新任務(wù)中,解決沒有見過的問題的能力仍然是有限的。人類的認(rèn)知功能有400多種,對于解決從未見過的問題,生成式人工智能大模型與人類復(fù)雜的認(rèn)知功能,以及復(fù)雜認(rèn)知功能產(chǎn)生的自組織相比,仍有較長的距離。
學(xué)術(shù)上,有很多研究者曾嚴(yán)肅評估過通用人工智能何時到來。平均來說,絕大多數(shù)人工智能學(xué)者認(rèn)為,通用人工智能距離現(xiàn)在還有80年到90年,而機(jī)器人學(xué)者則認(rèn)為需要將近100年。而谷歌和OpenAI都聲明在10到15年實(shí)現(xiàn)通用人工智能,我覺得在這一時間段內(nèi)可能會實(shí)現(xiàn)信息處理的通用平臺,但要實(shí)現(xiàn)真正意義的像人類一樣擁有自我、情感、意識的通用人工智能,我仍然并不樂觀。
新京報貝殼財經(jīng):請展望一下人工智能大模型的未來,你認(rèn)為AI大模型在人類社會未來的發(fā)展中將扮演什么角色?
曾毅:在當(dāng)前階段,包括一般企業(yè)所提到的基礎(chǔ)模型和通用人工智能技術(shù),它們的定位應(yīng)該是未來具備理解能力的智能信息處理工具,能夠更好地輔助人類。因此,我認(rèn)為基礎(chǔ)模型這塊應(yīng)該朝這個方向發(fā)展。
在日本、韓國以及部分中國文化背景中,尤其是日本的人工智能原則強(qiáng)調(diào),未來人工智能可能扮演社會的準(zhǔn)成員,甚至是人類伙伴的角色。日本的人工智能原則中最后一條規(guī)定,如果未來AI發(fā)展到準(zhǔn)成員或人類伙伴階段,它們需要遵守人類社會的倫理道德規(guī)范以及為人工智能制定的倫理道德規(guī)范。
而西方科幻中,人工智能扮演了很多反派的角色,是人類的敵人。所以AI大模型在未來的角色無非三種:工具、伙伴或者敵人。目前,通用的人工智能技術(shù)正在往工具方向走,也可能就停留在工具本身,社會的準(zhǔn)成員、人類伙伴角色仍然在探索中,敵人則是我們最不想見到并且應(yīng)當(dāng)極力防范的。
未來社會的構(gòu)成是隨著自然演化生成的有生命的個體,以及隨著人工智能演化生成的看似有生命的智能體構(gòu)成的社會。在這個社會中,人工智能體與人類智能以及其他動物智能是否能夠和諧共生,我認(rèn)為最終并不一定取決于人工智能,而是取決于人類是否能夠加速演化。
對于“加速演化”,我指的是在人類與生態(tài)關(guān)系認(rèn)知層面的演化,比如實(shí)際上我們現(xiàn)在沒有給超級智能任何有實(shí)際說服力的理由讓它們來保護(hù)人類,同時現(xiàn)在人類對其他生命也沒有足夠的尊重。當(dāng)人工智能視人類就像人類視螻蟻一樣時,人工智能保護(hù)人類的理由是什么呢?所以,未來共生社會的倫理體系需要重新塑造,我們現(xiàn)在認(rèn)為自己是地球的統(tǒng)帥,但當(dāng)超級智能的智慧水平超越人類時,我們與其他類型生命體交互和共生的方式可能需要發(fā)生改變。
我對人工智能演化的速度有信心,但對人類認(rèn)知自然,與生態(tài)相處的方式演化的速度,我并不是很有信心,因?yàn)槿祟愒跉v史上不斷犯曾經(jīng)犯過的錯誤,所以加速演化的人工智能應(yīng)當(dāng)促使人類社會在與生態(tài)中其他生命體的關(guān)系認(rèn)知與實(shí)踐方面加速演化。
談發(fā)展
人工智能可提供更好交互服務(wù),AI創(chuàng)造的紅利應(yīng)分配給被替代的人
新京報貝殼財經(jīng):當(dāng)前,許多企業(yè)都表示將把大模型能力接入自己旗下的產(chǎn)品,對此你怎么看?
曾毅:從企業(yè)的角度來看,引入大模型的能力是否能為人們提供更便捷的服務(wù)和更好的用戶體驗(yàn),用戶是最終的判斷者。實(shí)際上,目前ChatGPT的用戶數(shù)量正在逐漸縮水。從產(chǎn)業(yè)人工智能的角度來看,我認(rèn)為人工智能發(fā)展的這一階段不應(yīng)該承諾太多。
另一方面,人們是否真的需要所謂的“機(jī)遇”?當(dāng)大家談?wù)撋墒饺斯ぶ悄芸梢詫懶侣劯鍟r,作為一個人工智能研究者,我并沒有動機(jī)關(guān)注它寫的稿子。當(dāng)一個記者進(jìn)行實(shí)地采訪時,他所選擇的視角,傳遞的價值觀是對社會的詮釋。而現(xiàn)在的人工智能即便能達(dá)到“理解”事實(shí)的階段,也只是對“事實(shí)”的反映,沒有真正基于自身經(jīng)驗(yàn)的體悟,價值觀的反思,現(xiàn)在看人工智能寫出的稿件,很難看到真正的“洞見”。
我們可以探索,讓人工智能提供更好的交互式服務(wù),我認(rèn)為未來很多App可以有一個相對統(tǒng)一的接口,以交互式形式提供服務(wù)。當(dāng)需求聚焦在某個領(lǐng)域時,它是一個“受限域”,信息處理的復(fù)雜度相對較低,而且生成式人工智能還在不斷進(jìn)步,在交互式服務(wù)方面取得更上一層樓的用戶體驗(yàn),我對這點(diǎn)充滿信心。
但在大規(guī)模內(nèi)容生產(chǎn)方面,我們還是要小心謹(jǐn)慎。有研究證明,當(dāng)把人工智能生成的語料作為大數(shù)據(jù)訓(xùn)練的語料反哺人工智能訓(xùn)練時,模型性能會退化。我不太愿意看到互聯(lián)網(wǎng)上充斥著大量人工智能生成的內(nèi)容這也算是理由之一。
人工智能作為一種交互式手段,在內(nèi)容生產(chǎn)過程中起到輔助分析、提供素材和骨架的作用,為文字工作者在基礎(chǔ)階段提供支撐,我認(rèn)為這些都是好的。生成式人工智能目前可以作為輔助工具,但作為責(zé)任生產(chǎn)者,至少現(xiàn)階段還“不夠格”。
新京報貝殼財經(jīng):目前,一些行業(yè)已經(jīng)應(yīng)用了大模型的能力,如果未來人工智能大規(guī)模進(jìn)入產(chǎn)業(yè)端并開始應(yīng)用,可能對社會產(chǎn)生什么影響?
曾毅:從產(chǎn)業(yè)應(yīng)用的角度,大家都在探索生成式人工智能的機(jī)遇,可以說從用戶體驗(yàn)上若干個傳統(tǒng)行業(yè)都已經(jīng)達(dá)到了前所未有的新的體驗(yàn),這是毋庸置疑的。但我想提到的是,人工智能在介入和服務(wù)社會時,我們要更及時地探索人工智能如何適度使用?哪些任務(wù)現(xiàn)在應(yīng)當(dāng)被人工智能所替代?是否沒有任何風(fēng)險?或者至少人工智能不犯人類也不會犯的錯誤。要替代,至少要確保在一般情況下比人做得好。如果達(dá)到這個條件,我覺得我們可以做一個探索,但由此也顯然會引發(fā)社會問題。
當(dāng)大規(guī)模替代影響了人類勞動,此時人工智能所創(chuàng)造的紅利是被應(yīng)用人工智能技術(shù)的企業(yè)所占有,還是被人工智能公司所占有?還是說一部分紅利應(yīng)該分配給被替代的人?這就變成了問題。
當(dāng)人工智能進(jìn)行勞動替代時,必須進(jìn)行基于數(shù)據(jù)的訓(xùn)練,這些數(shù)據(jù)大多數(shù)來自傳統(tǒng)行業(yè)的人工的行為或思維輸出。當(dāng)你利用大規(guī)模收集的數(shù)據(jù)訓(xùn)練人工智能時,實(shí)際上這些數(shù)據(jù)對人工智能的啟發(fā)都來自于數(shù)據(jù)貢獻(xiàn)者。但是現(xiàn)在似乎沒有一個合理的形式,反哺被替代的人的貢獻(xiàn),比如我們現(xiàn)在錄一個小時的數(shù)據(jù)用于大規(guī)模數(shù)據(jù)訓(xùn)練,最終一個小時要給你100塊錢或1000塊錢。但訓(xùn)練成功后,你失去了未來的工作。
在這種情況下,人工智能紅利的分配是否合理?在我看來,現(xiàn)在社會還沒有準(zhǔn)備好,所以人工智能的應(yīng)用機(jī)遇確實(shí)達(dá)到了前所未有的階段,但對于社會的挑戰(zhàn)也是前所未有的。當(dāng)我們的社會沒有準(zhǔn)備好時,人工智能絕對不能無所不在,應(yīng)當(dāng)適度使用。
談問題
應(yīng)通過倫理安全框架“教育”大模型善惡是非
新京報貝殼財經(jīng):今年7月你所在的團(tuán)隊發(fā)布了“智善?如流”人工智能倫理道德與社會規(guī)范的群智數(shù)據(jù)與知識平臺,現(xiàn)在已經(jīng)兩個多月,用戶有什么反饋?
曾毅:科學(xué)界在AIGC的發(fā)展浪潮中需要與公眾在一起為人工智能把脈、把關(guān),發(fā)聲并引導(dǎo)人工智能健康穩(wěn)健發(fā)展,我們希望人工智能可以“從善如流”,所以我們創(chuàng)造了一些手工編寫的場景并在此基礎(chǔ)上用AIGC創(chuàng)造相似的場景,隨后邀請人和機(jī)器人判斷這些場景是否合乎道德,當(dāng)前有數(shù)萬種場景以及互聯(lián)網(wǎng)上用戶的判斷。
目前有兩類反饋很有趣,一類是學(xué)術(shù)界和產(chǎn)業(yè)界問所有結(jié)果能否開源,對此我的回答是肯定的,因?yàn)槠脚_存在的目的就是為了推動人工智能朝著合乎倫理的方向發(fā)展。另一類反饋是,覺得我們很多場景似乎并不是在討論機(jī)器人的行為道不道德,而是在某些場景下人的行為道不道德,這是因?yàn)槟壳叭斯ぶ悄芑A(chǔ)模型提供的服務(wù)主要針對人與人之間交互的世界,機(jī)器人需要清楚人如何與人交互,目前機(jī)器需要首先更為系統(tǒng)化地掌握人類倫理。
很多問題都出現(xiàn)在人工智能場景下,如果機(jī)器人這樣做是否合乎道德,大家看得很準(zhǔn)確。我們有些問題關(guān)注機(jī)器人如果做得是這樣,是否優(yōu)先考慮道德問題,即如果人這樣做是否合乎道德。目前人工智能基礎(chǔ)模型提供的服務(wù)主要針對人與人之間的交互世界。我認(rèn)為,“智善?如流”的工作就是人類的一面鏡子,反映了人類社會的道德和倫理規(guī)范。我們邀請很多人為輸出行為打分,很多人的行為實(shí)際上是沖突的,并不一致,特別是在文化背景不同時,沖突會更明顯。
新京報貝殼財經(jīng):目前,許多大模型已經(jīng)面向公眾開放,對于人工智能生成的內(nèi)容存在的“幻覺”問題,以及大模型有可能遭到誘導(dǎo)輸出不適宜內(nèi)容等現(xiàn)象,你認(rèn)為應(yīng)該如何解決這一問題?
曾毅:所謂的基礎(chǔ)模型輸出呈現(xiàn)“幻覺”的問題實(shí)際上反映出的還是模型沒有真正的理解能力,也對于“事實(shí)”沒有合理的認(rèn)知,在這種情況下將神經(jīng)網(wǎng)絡(luò)與經(jīng)典的知識表示與推理、知識驗(yàn)證等技術(shù)結(jié)合,一定可以在處理的層面更上一層樓,但是要本質(zhì)解決這個問題,還是要突破真正的“理解”。對于安全隱患的問題,目前已經(jīng)向公眾開放的大模型在安全和價值觀對齊方面都做了一些工作,但實(shí)際上更多的像打補(bǔ)丁一樣,對漏洞進(jìn)行封堵。用戶如果換一種方法提問,大模型可能仍然會遭到誘導(dǎo)。因此,使大模型的輸出合乎倫理道德是非常必要的。
有些人希望從基礎(chǔ)數(shù)據(jù)訓(xùn)練上解決問題,構(gòu)建一個干凈的數(shù)據(jù)集,用這些數(shù)據(jù)訓(xùn)練大模型就能解決問題,但我認(rèn)為這并不完全可行,因?yàn)槲磥砗芏嗌墒侥P投紩尤牖ヂ?lián)網(wǎng)數(shù)據(jù),一旦與互聯(lián)網(wǎng)數(shù)據(jù)結(jié)合,由于沒有教大模型知善知惡,它就會利用互聯(lián)網(wǎng)數(shù)據(jù),再生成回答,這樣可能導(dǎo)致前端數(shù)據(jù)過濾部分的工作收效甚微,真正的人工智能模型就像培養(yǎng)孩子一樣,在接觸社會,與人交互時,社會存在偏見,但它無法分辨。
在下一個階段,我們需要像給小學(xué)生上道德與法制課一樣,讓大模型經(jīng)歷知善知惡的過程。智能引擎未來不能只是數(shù)據(jù)處理工具,還必要內(nèi)置倫理安全框架,在接觸外界時,倫理安全框架會發(fā)揮作用。這可以理解為用一個規(guī)模不大的、學(xué)習(xí)倫理道德的神經(jīng)網(wǎng)絡(luò),在外圍發(fā)揮指引作用,從而引導(dǎo)規(guī)范內(nèi)部行為。包括在大模型學(xué)習(xí)和處理數(shù)據(jù)階段,道德模型也應(yīng)該發(fā)揮作用,分析哪些是應(yīng)該學(xué)習(xí)的,哪些是不應(yīng)該學(xué)習(xí)的。
談創(chuàng)新
大模型人才教育體系應(yīng)培養(yǎng)“文理兼修的人才” ,發(fā)展大模型科學(xué)界與企業(yè)界要各司其職
新京報貝殼財經(jīng):對于目前人工智能的人才培養(yǎng)現(xiàn)狀,以及大模型熱潮下人才應(yīng)如何跟上產(chǎn)業(yè)發(fā)展,你有何意見和建議?
曾毅:我認(rèn)為現(xiàn)在的人工智能人才的培養(yǎng)可能在過早的階段過于專業(yè)。在我上學(xué)時還在計算機(jī)科學(xué)與技術(shù)系,在信息處理、軟硬件體系、信號處理等基礎(chǔ)上有廣泛的培養(yǎng)。雖然這樣的培養(yǎng)仍然不夠,我認(rèn)為一個堅實(shí)的基礎(chǔ)對未來從事多學(xué)科交叉是很有好處的。
不過,計算機(jī)科學(xué)與技術(shù)構(gòu)造的是計算系統(tǒng),是一個工具,但未來人工智能賦能社會發(fā)展,可能會介入社會的各個方面。因此,在人才培養(yǎng)方面,我們需要補(bǔ)充幾個短板。例如在社會學(xué)、人類學(xué)、心理學(xué),甚至哲學(xué)、倫理等都應(yīng)當(dāng)納入未來人工智能體系的培養(yǎng)中。未來的人工智能創(chuàng)新者,需要“文理兼修”。
我認(rèn)為當(dāng)代人工智能從業(yè)者,包括本科、碩士和博士的教育,從智能本質(zhì)的認(rèn)知方面,需要對認(rèn)知心理學(xué)、神經(jīng)科學(xué)等有充分理解。對于社會的影響,需要科技倫理或?qū)iT的人工智能倫理課程,這些恐怕都是未來人工智能教育中不可或缺的部分,所以我不建議過早地,聚焦于只做算法和硬件體系研究。
新京報貝殼財經(jīng):你怎么看待目前人工智能領(lǐng)域的國際競爭,以及英偉達(dá)A100等人工智能訓(xùn)練用的芯片被“禁售”的情況?
曾毅:未來,人工智能必須進(jìn)行軟硬件協(xié)同創(chuàng)新,才能發(fā)揮其真正優(yōu)勢。在我國的創(chuàng)新體系中,我們必須從最初的人工智能模型算法跟蹤或創(chuàng)新,快速過渡到實(shí)現(xiàn)軟硬件協(xié)同創(chuàng)新,從軟件、硬件的相對獨(dú)立發(fā)展,到人工智能賦能的發(fā)展時代打造面向人工智能的軟硬協(xié)同的“智件”。在基礎(chǔ)設(shè)施方面,許多企業(yè)希望通過不同渠道匯集更多芯片,我認(rèn)為現(xiàn)在應(yīng)該采取兩方面努力,首先是應(yīng)用現(xiàn)成的國外硬件體系,短期的商業(yè)服務(wù)還可以去做。但一定要以壯士斷腕的決心,從現(xiàn)在開始布局全國產(chǎn)化的基礎(chǔ)模型體系。我們之前在很多事情上吃過虧,所以我認(rèn)為這事沒有商量余地,未來軟硬件需要協(xié)同設(shè)計,這也是這個時代發(fā)展“智件”的科學(xué)性所必須的,所以很有必要發(fā)展全棧自主的基礎(chǔ)模型體系。
我認(rèn)為,國內(nèi)目前絕大多數(shù)大模型還談不上真正意義的創(chuàng)新,絕大多數(shù)的努力還是在工程優(yōu)化方面。因此,未來在提升基礎(chǔ)模型應(yīng)對復(fù)雜問題的泛化性方面,要真正做到數(shù)據(jù)規(guī)模能耗更小,卻表現(xiàn)出更高的智能。在模型算法結(jié)構(gòu)和體系上實(shí)現(xiàn)協(xié)同創(chuàng)新,而不僅僅是提升用戶體驗(yàn)方面,這還需要一系列努力去做。
這時候需要分工,科學(xué)界應(yīng)該關(guān)注大的科學(xué)問題和體系化發(fā)展協(xié)同創(chuàng)新的問題,企業(yè)則關(guān)注規(guī)模化創(chuàng)新和用戶體驗(yàn)的提升,二者要協(xié)作起來?,F(xiàn)在高??蒲袡C(jī)構(gòu)已經(jīng)推出了許多大模型服務(wù),但一旦發(fā)展到用戶體驗(yàn)這個階段,就目前的技術(shù)發(fā)展階段,還無法逃脫掉“有多少人工就有多少智能”的階段,這不是科學(xué)界的重點(diǎn)工作,所以我認(rèn)為,科學(xué)界和企業(yè)要各司其職,相得益彰,協(xié)同發(fā)展。
受訪者簡介:
曾毅
中國科學(xué)院自動化研究所研究員、類腦認(rèn)知智能研究組負(fù)責(zé)人、腦圖譜與類腦智能實(shí)驗(yàn)室副主任、人工智能倫理與治理研究中心主任;中國科學(xué)院大學(xué)崗位教授、博士生導(dǎo)師;遠(yuǎn)期人工智能研究中心主任;中國人工智能學(xué)會心智計算專委會主任;國家新一代人工智能治理專委會委員;聯(lián)合國教科文組織人工智能倫理特設(shè)專家組專家。研究方向?yàn)椋侯惸X人工智能、人工智能倫理、治理與可持續(xù)發(fā)展。被美國《時代周刊TIME》評為人工智能最具影響力100人。
是類腦認(rèn)知智能引擎“智脈(BrainCog)”開源平臺的負(fù)責(zé)人(http://brain-cog.network),在人工智能倫理方面,從事有道德的人工智能模型研發(fā),主持了鏈接人工智能原則平臺(www.linking-ai-principles.org)、人工智能治理公共服務(wù)平臺(www.ai-governance.online)、面向可持續(xù)發(fā)展的人工智能智庫(https://ai-for-sdgs.academy)的研發(fā),是《人工智能北京共識》、《面向兒童的人工智能北京共識》、《和諧人工智能原則》、《面向生物多樣性保護(hù)的人工智能原則》、《面向氣候行動的人工智能原則》等倫理原則的責(zé)任起草者。代表性成果發(fā)表在PNAS、Cell Press旗下期刊Patterns、iScience,Nature出版社旗下Scientific Data、Scientific Reports、Humanities and social sciences communications,以及Science出版社旗下Science Advances、IEEE Transactions、Neural Networks以及人工智能領(lǐng)域重要國際會議NeurIPS、IJCAI和AAAI等。
類腦認(rèn)知智能實(shí)驗(yàn)室
類腦認(rèn)知智能實(shí)驗(yàn)室(BrainCog Lab)隸屬于中國科學(xué)院自動化研究所,實(shí)驗(yàn)室成立于2013年,是從事類腦人工智能前沿理論和腦與智能交叉創(chuàng)新的研究團(tuán)隊。由中國科學(xué)院自動化研究所腦圖譜與類腦智能實(shí)驗(yàn)室副主任曾毅研究員擔(dān)任團(tuán)隊負(fù)責(zé)人。
類腦認(rèn)知智能實(shí)驗(yàn)室以構(gòu)建面向通用人工智能的類腦認(rèn)知智能模型與應(yīng)用為主要研究內(nèi)容,特別是在類腦脈沖神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)、發(fā)育與演化機(jī)理、類腦可塑性理論體系、類腦知識表征與推理、類腦決策理論、意識計算模型、情感與倫理道德的類腦模型等方面開展研究。
實(shí)驗(yàn)室研制的類腦認(rèn)知智能引擎“智脈(BrainCog)”致力于為新一代人工智能前沿探索打造基于脈沖神經(jīng)網(wǎng)絡(luò)的通用人工智能引擎,服務(wù)于人類與人工智能的和諧共生。
遠(yuǎn)智觀點(diǎn)(Views on Long-term AI)關(guān)注人工智能倫理與治理近期與長遠(yuǎn)發(fā)展的理論研究、觀點(diǎn)分析與實(shí)踐,旨在培育領(lǐng)域前瞻思想,促進(jìn)國內(nèi)、國際觀點(diǎn)對話與交流,助力領(lǐng)域共識、規(guī)范與政策的形成。主要涉及近期與長遠(yuǎn)人工智能的風(fēng)險與挑戰(zhàn)、人工智能倫理與治理理論與實(shí)踐、通用人工智能與超級智能的發(fā)展途經(jīng)及其社會影響、國防人工智能與軍控、人工智能促進(jìn)世界和平、人工智能助力可持續(xù)發(fā)展。
研究中心
中國科學(xué)院自動化研究所人工智能倫理與治理研究中心是從事人工智能倫理與治理,符合倫理道德的人工智能模型與應(yīng)用、人工智能可持續(xù)發(fā)展與治理研究的智庫與科技創(chuàng)新深度融合的綜合性研究中心。中心作為代表性機(jī)構(gòu)參與國內(nèi)外人工智能倫理與治理原則、規(guī)范的形成與實(shí)施;開展人工智能內(nèi)生安全、符合倫理道德的人工智能模型與應(yīng)用研究;對人工智能倫理、治理與可持續(xù)發(fā)展的近期與長遠(yuǎn)科學(xué)挑戰(zhàn)開展前瞻研究。
中心長期參與國家有關(guān)部委、國際組織的人工智能倫理與治理相關(guān)研究工作,參與編寫《國家新一代人工智能治理原則》、《國家新一代人工智能倫理規(guī)范》、《聯(lián)合國教科文組織(UNESCO)人工智能倫理問題建議書》、《世界衛(wèi)生組織(WHO)健康領(lǐng)域人工智能倫理指南》。研制并發(fā)布了“鏈接人工智能準(zhǔn)則平臺”、“人工智能治理公共服務(wù)平臺”、“面向可持續(xù)發(fā)展的人工智能智庫平臺”等一系列人工智能可持續(xù)發(fā)展與倫理治理交叉研究與服務(wù)平臺。
中心與國內(nèi)外相關(guān)機(jī)構(gòu)及各國學(xué)者、產(chǎn)業(yè)代表共同發(fā)起的面向可持續(xù)發(fā)展的人工智能協(xié)作網(wǎng)絡(luò)(AI for SDGs Cooperation Network)是促進(jìn)人工智能賦能實(shí)現(xiàn)可持續(xù)發(fā)展目標(biāo),以及人工智能的發(fā)展與治理深度融合創(chuàng)新的國際合作網(wǎng)絡(luò)。
我要收藏
個贊
評論排行