微軟(中國)有限公司首席技術官韋青:成為信息文明的主人翁
【ZiDongHua 之人文化天下收錄關鍵詞: 亞布力論壇 微軟 信息文明 機器學習】
微軟(中國)有限公司首席技術官韋青:成為信息文明的主人翁
韋青 微軟(中國)有限公司首席技術官
近期,以“構(gòu)建新發(fā)展格局,推進高質(zhì)量發(fā)展”為主題的2024亞布力中國企業(yè)家論壇年會在黑龍江亞布力召開。微軟(中國)有限公司首席技術官韋青受邀參加年會【閉幕式】并發(fā)表演講。
以下為演講全文:
中國企業(yè)家之所以能夠通過過去幾十年的奮斗,為社會發(fā)展創(chuàng)造出如此成就,得益于幾十年前所擁有的創(chuàng)新精神和思想,以及與當時社會發(fā)展階段相匹配的知識和社會環(huán)境的助推。但是時代發(fā)展至今日,很多成功的企業(yè)家反而容易陷入焦慮。為什么?因為時代在進步,雖然大家的理想、愿景、信仰、抱負、能力、勇氣足夠再次承擔起改變世界的使命,但是欠缺了與時俱進的知識,也因此失去了對于時代發(fā)展特征的敏銳觀察與體會。
人們可以看到很多對當下技術進步的判斷,大都有其深刻的道理。但不可否認的是,人類社會進入了一個“不知道不知道什么”的階段,大家都進入了無人區(qū),都在“盲人摸象”,沒有人能夠準確知道接下來會發(fā)生什么。當然,這對于企業(yè)家而言,這本不是什么新鮮的現(xiàn)象,如果退回到三、四十年前,也是這種局面,也沒有人能夠預料到今天的結(jié)果。當時大家只是橫下一條心,敢于認準一個方向去干、去嘗試,所以有了今天的局面。所不同的是,當時技術的復雜程度有限,人們的知識水準尚可應對時代的要求。如今,企業(yè)家們的創(chuàng)新精神依舊,勇氣尚存,只不過在科學與技術飛速發(fā)展的當下,每一個人需要更新自己的知識體系,使我們的知識再次與社會發(fā)展階段相匹配,從而能夠迎接新時代的機遇與挑戰(zhàn)。
接下來,我針對這個觀點談幾點心得體會。
第一,概率論和信息論是新時代的四則運算,如果我們不了解概率,不了解信息,就無法理解智能機器的運行機理。機器有自己的邏輯,它不懂人世間的事,不知道物理定律,也不知道食物的美妙,只會用數(shù)據(jù)算出下一個概率空間的距離(機器是通過數(shù)據(jù)計算來預測下一個概率空間的位置)。如果我們無法理解智能機器,則會對其能力手足無措;反之,無論機器如何運行,人類始終操之在我。
第二,對于犯錯的接納程度,決定了人類的進步效率。犯錯可以理解為偏差,也可以理解為失敗。偏差則糾正之,接納之;失敗則防止之,遠離之。人類的社會實踐如果不能夠接納錯誤,就無法學習與進步。要依著三錯法的勇氣(認錯-知錯-改錯),采取“獎一錯,防二錯,罰多錯”的原則,在糾偏中前行,在試錯中進化。第一次犯新的錯誤時給予獎勵,因為這等于員工在做新的事情;第二次用新的方式解決問題時則著重于防止錯誤再次發(fā)生;多次犯同樣的錯誤,則需考慮采取懲戒措施。這樣的策略適應了不斷變化的商業(yè)環(huán)境,鼓勵創(chuàng)新和改進。這里的多到底是多少,也無定規(guī),需要通過實踐,摸索出時代與事物發(fā)展的客觀規(guī)律。當然,不經(jīng)過慎思、總結(jié)和持續(xù)優(yōu)化的盲目犯錯,則是態(tài)度與能力的問題,不在此列。對于技術創(chuàng)新企業(yè),需要大大提高容錯的閾值。如果是科學探索,就不只是容錯這么簡單了??茖W的探索歷程,永無絕對的正確,始終在不斷接近真相的路上。
第三,微軟董事長兼CEO薩蒂亞·納德拉說過,“技術行業(yè)不尊重傳統(tǒng),只尊重創(chuàng)新”。我們不能總本著“祖宗成法不可變”的想法,也不能總認為技術前輩的偉大無法撼動,能夠超越前輩才是對前輩最大的尊敬。
第四,要當心所有由像素構(gòu)成的消息,這都是機器的強項。在這個時代,不被騙是最大的優(yōu)勢。我們進入了信息文明時代,每天看的信息大部分都是由機器生成,在這個過程中,堅定信仰,不被錯誤信息所誤導,且能從海量信息中挑出真正真實和對自己有用的內(nèi)容是很有難度的,而這也恰恰是智能機器可以幫助人類的地方。
第五,社會需要再來一次有關現(xiàn)代化知識的“掃盲行動”,尤其是數(shù)學和信息論。如果我們還是用人的方法與語言去描述機器能力的話,是十分危險的,很容易誤導自己。智能機器的性能和能力應該通過概率來描述,如果機器展現(xiàn)出超越人類的能力,而我們對于機器如何產(chǎn)生這些能力一無所知,就可能把機器神化、妖魔化、擬人化。其中擬人化的危害尤其巨大,人類很容易與此共情,從而產(chǎn)生倫理道德的危險。比如給機器取人名,或者設計人形機器用兩條腿走路,而不是三根帶滾輪或旋翼的支架。其實三角結(jié)構(gòu)更加穩(wěn)定和節(jié)能,滾動的效率更高,遠比雙支柱支撐和跨步的使用場景廣泛……這種用人的觀念去思考機器的能力與行為,會局限關于創(chuàng)新、產(chǎn)品設計和用戶服務的思考。
上圖中的公式是“KL散度”,是一個在機器統(tǒng)計學習領域非常流行的公式,可以用于評估生成模型所產(chǎn)生的數(shù)據(jù)分布與實際數(shù)據(jù)分布之間的差異程度。對于機器而言,無論生成下一個字符,還是生成下一個像素,或者生成下一幀視頻,都可等價為在某個多維概率空間內(nèi)選擇下一個概率距離上的數(shù)據(jù)。比如對于“亞布力”而言,機器會基于某種算法模型將“亞”表示為一個多維數(shù)字向量,然后根據(jù)算法模型得到“亞”與“洲”的相關性,比如是80%,與“布”的相關性是32%,下一個生成的文字就可能是“洲”;但如果我們在輸入給機器的上下文中體現(xiàn)了“冬天的東北”這個背景知識,然后再輸入“亞”,那么機器計算出下一個字是“布”的概率就會變大。其實,機器并不懂“亞布力”這個概念,它只會依據(jù)輸入和從數(shù)據(jù)中訓練出來的模型,計算出更大概率的相關信息。
不論是文字、圖片還是視頻,都具有概率之間的相關性。無論是符合人類常識的生成內(nèi)容或創(chuàng)造力,還是違背人類意愿或破壞物理規(guī)律的幻覺,都是概率智能機器能力的一體兩面。
當我們在說機器有幻覺時,是在以人之心理和語言猜度機器的行為。這不是不可以,只要人類經(jīng)過專業(yè)的培訓,能夠區(qū)分機器與人類的不同,就像孫悟空三打白骨精一樣;否則人類自己容易把機器神話、妖魔化或擬人化,搞得神神叨叨,人機不分。比如,一個模型可以通過概率的方法,把模糊的背景轉(zhuǎn)化為一張風景照片,人們會認為機器幻想的結(jié)果和他們想象中的一樣,會感嘆機器作畫的能力真厲害,但其實這只是概率的問題。
我們要理解概率,要理解人世間有太多的事情僅靠符號就能產(chǎn)生相關性。一旦明白這個道理,就會形成新的技術信仰。如果神化、妖魔化和人性化機器能力,那么我認為未來企業(yè)發(fā)展和人類社會的發(fā)展會受到阻礙,人類文明將沒有前途。人就是人,機器就是機器,人工智能是人們用數(shù)據(jù)喂養(yǎng)、訓練出來的。這也在側(cè)面說明,如果沒有供機器學習知識的優(yōu)質(zhì)數(shù)據(jù),即便有再強大的算力也不行。
今天很多人面對的挑戰(zhàn)是現(xiàn)有知識體系落伍了,無法理解新生的技術現(xiàn)象。其實這類知識并不高深,我把它們稱為信息時代的四則運算,不同的是這里面包括能夠表征各種世界現(xiàn)象的線性代數(shù)和表征變化的微積分,還包含與人類語言能力相關的一個基本問題,即“能指”和“所指”的關系。這些知識通常在大學教育中都有涉及,之所以被認為深奧,更多是因為在之前的社會文明范式下,人類并不需要這些知識也可以生存得很好。但在這個以智能機器為代表的信息文明中,如同人類社會從農(nóng)業(yè)文明發(fā)展到工業(yè)文明時需要不同的知識結(jié)構(gòu)一樣,這些在工業(yè)文明下的知識任選項,變成了信息文明下人類知識的必選項。
在波普爾(卡爾·波普爾——批判理性主義創(chuàng)始人)的世界三元組里,分為“物理世界”“知識和信息世界”和“精神世界”。而知識的表征則表現(xiàn)為皮爾斯(查爾斯·桑德斯·皮爾斯—美國哲學家)的符號表征三元組,就是“對象”“標記名”和“含義”。
機器學習的過程,就是通過符號學習“能指”,但并沒有證明它能夠或者需要具備語言的能指背后的所指(能指是一個詞語的符號性表示,所指則是它代表的具體實體或概念)。也就是說,能夠計算的機器,以概率的方法通過處理海量優(yōu)質(zhì)的數(shù)據(jù),計算出對物理世界現(xiàn)象相關性的模式識別能力。
在這個過程中,我們會因技術進步,發(fā)現(xiàn)無論是表征人類思想的語言、表征世界圖景的圖像(和視頻)還是表征天籟/地籟/人籟(莊子·齊物論)的聲波,在轉(zhuǎn)化為數(shù)據(jù)后,在時空域內(nèi)都有人類尚無法察覺的概率相關性,如果理解得當,人類會形成并加強一種新的技術信仰,從而加深人類對宇宙本質(zhì)的理解。但是需要注意的是,如果人類無法理解智能機器通過能指而學習到的知識和因此表現(xiàn)出的能力,無法認識到智能機器不是按照人類的思維所想,它是通過計算得出結(jié)果,那么不經(jīng)意地以人類熟悉的概念語言描述機器的能力與行為,很容易對人類的三觀產(chǎn)生誤導。
我認為接下來真正的機會在于,當機器能夠幫助人類做很多工作時,人們就開始有精力、有能力去思考人的終極三問,并了解“極大”宇宙和“極小”量子的未知。在信息時代,人應該有“四商”,即智商、情商、理商和信商。關于網(wǎng)絡安全領域里有句話叫:計算機網(wǎng)絡信息安全需要“零信任”,指的是要默認所有進入計算機的信號都可能是惡意的網(wǎng)絡攻擊。同理,人類攝取信息時同樣需要采取“零信任”的態(tài)度。如果不做真實性與相關性的判斷,我們的大腦就會被真假虛實混淆的信息養(yǎng)肥,但是沒有肌肉,沒有思考力。因此,我推薦一本書叫做《理商》,它是由基思·斯坦諾維奇和理查德·韋斯特共同撰寫的書籍,這本書系統(tǒng)地探討了理性的概念、理性與智力的區(qū)別、理性思維的認知模型,以及評估理性的方法和科學原理。
大多數(shù)現(xiàn)代人,包括我自己在內(nèi),在當前海量的信息數(shù)量沖擊下,思考能力和專注度在急速下降。我們不停地被機器生成的信息喂養(yǎng),如同身體攝入過多食物會造成肥胖癥的道理類似,我們需要把控大腦攝入的信息數(shù)量和質(zhì)量,把大腦瘦下來,去想該想的,聽該聽的,看該看的。
在《Mission: Impossible - Dead Reckoning Part One》(電影《碟中諜-致命清算(上)》)中,盧瑟對伊森說:“不能拿人的想法去跟機器斗,要用機器的想法去思考”。我對此深有體會,我認為人類掌握智能機器的方法是從機器的角度出發(fā),換位思考以理解機器能力與行動生成的機理,從而始終掌握應用機器的主動性。
大家談了很多關于算力和算法的內(nèi)容,我認為有兩個非常重要的因素決定了企業(yè)是否能夠充分發(fā)揮智能機器的能力:一是企業(yè)里有沒有人才能夠理解智能機器的能力生成機理;二是企業(yè)有沒有足夠代表企業(yè)特征的優(yōu)質(zhì)數(shù)據(jù)。如果缺少這兩點,就算有再強大的算力和再好的算法都無法發(fā)揮作用。
如上圖所示,人們從早上睜眼起床到晚上閉眼睡覺這段時間里,會經(jīng)歷很多事情。在每個環(huán)節(jié)中,我們用橙色代表由人來完成的事情,藍色代表由機器來完成的事情。在未來,我認為藍色部分會變得更多,但人會把握主動性。也就是說,機器還是一個Copilot-智能副駕,人始終要對機器的行動保留最終裁判權(quán)。機器從人類工作、學習和生活的數(shù)字化改革過程中獲取優(yōu)質(zhì)的相關數(shù)據(jù),經(jīng)過計算提取出知識,再根據(jù)這些從人類行為中能夠?qū)W到的知識指導機器的行動。
沒有數(shù)字化,也不會有智能化,但目前我們的數(shù)據(jù)質(zhì)量還不夠高,還不夠多。當我們要成立一個AI原生企業(yè)時,首先要確保數(shù)據(jù)結(jié)構(gòu)是AI原生的,同時,人才、組織、流程、產(chǎn)品和產(chǎn)業(yè)鏈一個也不能少,最后,Copilot會將數(shù)據(jù)知識注入進剛剛提到的所有環(huán)節(jié)里。我認為所有企業(yè)的當務之急,除了人才培養(yǎng)和數(shù)學能力提升以外,就是繼續(xù)進行遠未完成的數(shù)字化改革。
薩蒂亞·納德拉說過,“對人類社會方方面面仿真后的遍歷”是這一輪機器智能的能力特長。這句話非常抽象,但一語道破天機。機器能夠做的,是在人類知識范疇內(nèi)通過對人類知識的仿真之后遍歷所有可能性。從人類在有限的精力與壽命的約束下找到本地最優(yōu)解,或者撞大運找到全局最優(yōu)解,到機器基于人類知識把更多的可能性仿真模擬一遍以找到全局最優(yōu)解。好比機器幫人類把地球上所有的山爬一遍,找到風光最好的一座山。靠人這一輩子,很難遍歷所有可能性。
對很多企業(yè)家來說,真正的未來不在于算法,不在于大模型,那種成本和資源投入只有國家級或者世界級的大型組織可以承擔得起。但是,智機原理、認知科學、量子物理、天文科學,以及由此衍生的智慧城市、智能工廠、智能教育、智能醫(yī)療等話題,都會因為大語言模型而重新回到企業(yè)的視野。為什么這么說?在農(nóng)業(yè)文明時代,給你大數(shù)據(jù)是沒有太大用處的,但是進入信息文明時代,擁有大數(shù)據(jù)之后很多事情就可以重新再做一遍。AI其實就是一個智能機,是幫助人類利用已知、探索未知的助手。
在山腳下,別花太多時間想象山頂?shù)娘L光,咱們共同要做的,是定下心來,努力學習,努力嘗試,努力進步。人,沒有那么糟糕;咱們,也沒有那么不爭氣。
總而言之,我們要與不確定性做朋友,要同時掌握“定律”和“概率”;要堅守理性,不要從人的角度理解機器的能力;要弘揚人性,發(fā)揮人類的主觀能動性、適應力和生命力。我們的未來不是由別人定義的,是由自己創(chuàng)造的。在信息爆炸時代,我們更不要把專注度浪費在沒用的信息上,思想一旦跑偏,一旦被牽著鼻子走,就會很危險。
我要收藏
個贊
評論排行