知識生成自動化|段偉文:積極應(yīng)對ChatGPT的倫理挑戰(zhàn)
【ZiDongHua人文化天下收錄關(guān)鍵詞: 自動化科技 科技倫理 ChatGPT 人工智能 自然語言處理 深度學(xué)習(xí) 科技創(chuàng)新 】
積極應(yīng)對ChatGPT的倫理挑戰(zhàn)
自圖靈等人工智能先驅(qū)提出讓計算機(jī)可以像人一樣思考和行動以來,人工智能會不會構(gòu)建出類似人類的智能甚至超越后者,一直是一個在探索之中和爭論不休的問題。在近年來新一波數(shù)據(jù)驅(qū)動的人工智能熱潮中,這一問題的焦點逐漸從理論上的可能性之爭,轉(zhuǎn)換為如何應(yīng)對技術(shù)上可能出現(xiàn)的顛覆性創(chuàng)新。從基于深度學(xué)習(xí)的人工智能戰(zhàn)勝人類圍棋棋手,到近期以ChatGPT為代表的生成式人工智能取得令人驚嘆的成功,特別是ChatGPT為自然語言問題和提示所作出的表述清晰、語法正確的回答,像巨型魔術(shù)表演一樣牽動了人們對科技未來的想象。面對這步步緊逼的“創(chuàng)造性破壞”所帶來的海嘯般的沖擊,人們不僅看到了突然演化出通用人工智能乃至超級智能的潛在風(fēng)險,而且越來越強(qiáng)烈地認(rèn)識到,必須嚴(yán)肅思考和認(rèn)真對待由此可能引發(fā)的開放性社會風(fēng)險與價值倫理挑戰(zhàn)。
工程創(chuàng)新與智能理論
ChatGPT的出現(xiàn)突破了很多人工智能懷疑者的認(rèn)知框架。ChatGPT在工程上呈現(xiàn)出超強(qiáng)的人機(jī)自然語言對話能力,不僅在相當(dāng)程度上打破了很多悲觀主義者的設(shè)限,同時也超出了不少技術(shù)樂觀主義者的預(yù)期。這再次表明,不論是對什么是智能、什么是人工智能的理論構(gòu)想,還是對人工智能不能做什么的理論反思,往往與技術(shù)和工程上的人工智能實現(xiàn)方式之間存在著不小的認(rèn)知落差。而造成這種落差的原因,則在于人工智能發(fā)展過程中理論思維和工程思維之間的張力。如果將能夠處理無限任務(wù)、自主和具有價值系統(tǒng)之類的“關(guān)鍵要求”作為通用人工智能的標(biāo)準(zhǔn),ChatGPT顯然不夠格。但問題是,這些“關(guān)鍵要求”如何在工程上進(jìn)行測試。
諸多有關(guān)智能的理論認(rèn)知框架往往缺乏必要的謙遜,未能將立場當(dāng)作探究的視角之一,容易陷入固守“先驗”標(biāo)準(zhǔn)的封閉式否定思維之中。而工程思維則主要體現(xiàn)為工程實踐中的累積創(chuàng)新和涌現(xiàn)創(chuàng)新,是一種基于技術(shù)產(chǎn)業(yè)演進(jìn)的“后驗”迭代的開放性肯定思維,常常是對某些技術(shù)路徑的偏執(zhí)性選擇,且能在技術(shù)演進(jìn)中賦予這些選擇以新的內(nèi)涵。受到認(rèn)知落差影響,理論研究者和批評者無法預(yù)見人工智能工程實踐可能涌現(xiàn)出的重大突破,工程實踐者和喝彩者則難以前瞻性地預(yù)見技術(shù)上的突破在社會價值倫理層面所引發(fā)的革命性影響。由此形成的總體認(rèn)知狀態(tài),顯然無法應(yīng)對包括超級智能在內(nèi)的開放性倫理風(fēng)險。
人機(jī)交互與人機(jī)對齊
不論是理論反思者還是工程實踐者,在相關(guān)的探討中多將人工智能與人類智能預(yù)設(shè)為相互分立的智能體,且多聚焦二者的高下之分和此消彼長,而較少以兩者之間的交互作為思考的出發(fā)點,從技術(shù)社會系統(tǒng)和智能生態(tài)系統(tǒng)的維度理解人工智能體的實質(zhì)。實際上,從基于大數(shù)據(jù)的深度學(xué)習(xí)到基于大模型的生成式人工智能,其創(chuàng)新應(yīng)用都發(fā)生于數(shù)據(jù)、算法、算力等所構(gòu)建的巨型技術(shù)社會系統(tǒng)之中,是在高度社會化的人機(jī)交互智能生態(tài)系統(tǒng)中形成的。它們之所以可以實現(xiàn)功能上的突破,固然源于數(shù)據(jù)量和模型參數(shù)達(dá)到一定規(guī)模后的功能涌現(xiàn)。但同時也要認(rèn)識到,其中更重要的或許是,人類的反饋微調(diào)和使用中的人機(jī)智能交互對其性能改進(jìn)的作用。
在ChatGPT的研發(fā)過程中,OpenAI的技術(shù)路線是在高度社會化的人機(jī)交互智能系統(tǒng)中展開的。ChatGPT所采用的人工智能新范式,基于對自然語言內(nèi)在的同質(zhì)化形式和結(jié)構(gòu)的學(xué)習(xí)。其中,既有海量的文本數(shù)據(jù)集,也包括運(yùn)行中的大量人機(jī)對話數(shù)據(jù)。這一內(nèi)容生成思路是學(xué)習(xí)與預(yù)訓(xùn)練的結(jié)合:先是自動提取相關(guān)內(nèi)容并加以聚合,然后通過人機(jī)對齊工程對目標(biāo)和價值加以必要修正。依照OpenAI的說法,這一實施人機(jī)對齊工程的背景是,OpenAI對所開發(fā)的GPT系列大模型以及ChatGPT的技術(shù)定位是探索通用人工智能。為防范可能帶來的顛覆性社會倫理影響,開發(fā)者通過人類標(biāo)注、反饋、審核等工程方法,對生成的類自然語言中的價值沖突和倫理爭議進(jìn)行了校準(zhǔn),對生成內(nèi)容與語言表達(dá)策略進(jìn)行了持續(xù)監(jiān)督和不斷優(yōu)化。這使ChatGPT的輸出對價值敏感問題相對謹(jǐn)慎、持平,主動回避甚至拒絕回答存在爭議的問題。
人機(jī)對齊工程的實施表明,由于存在包括超級人工智能可能引發(fā)人類生存風(fēng)險在內(nèi)的巨大社會倫理風(fēng)險,生成式人工智能的技術(shù)開發(fā)與價值倫理調(diào)節(jié)從一開始就是同步進(jìn)行的。由此,可以得到兩個重要的啟示。一方面,人機(jī)對齊工程的實施表明,對生成式人工智能進(jìn)行價值倫理矯正并防范惡性后果在工程上是可行的,這為其在創(chuàng)新應(yīng)用中恪守價值底線和紅線提供了可借鑒的經(jīng)驗。當(dāng)然,必須明確指出的是,作為語言模型的ChatGPT本身并不真正理解各種價值觀的內(nèi)涵。另一方面,人機(jī)對齊工程在人機(jī)交互的基礎(chǔ)上實施,不論是在訓(xùn)練數(shù)據(jù)之中還是在人工校準(zhǔn)等人類反饋環(huán)節(jié),都負(fù)載著利益相關(guān)者的利益和好惡,會受到各種價值預(yù)設(shè)和文化選擇的影響,必然存在一定的偏向性。
知識權(quán)威幻覺與圖靈陷阱
人機(jī)對齊工程所進(jìn)行的價值倫理矯正,固然有助于對人工智能生成內(nèi)容的法律規(guī)制和倫理治理。但更重要的是,以ChatGPT為代表的生成式人工智能是機(jī)器智能與人類智能全新的交互組合方式,我們正在開啟借助人工智能自動生成知識并全面重塑生活的前所未有的時代。從知識生產(chǎn)方式的范式轉(zhuǎn)換來看,如果說大數(shù)據(jù)分析帶來的是新分析的話,那么ChatGPT所開啟的大模型加人類反饋的自動化知識生成方式則是面向智能化未來的新綜合。對這一新綜合的擁抱,將迫使我們面對一系列全新的倫理挑戰(zhàn)。除了當(dāng)下熱議的違背學(xué)習(xí)和研究誠信、侵犯知識產(chǎn)權(quán)等問題外,尤其值得關(guān)注的是以下兩個具有開放性的社會倫理挑戰(zhàn)。
一是將自動生成的知識視為“神諭”的知識權(quán)威幻覺。擁抱知識生成自動化將面對的悖論是,生成式人工智能系統(tǒng)固然能夠帶來知識生成效率的提升,但它并非知識大全和知識的領(lǐng)會者。從海量訓(xùn)練數(shù)據(jù)中拼湊出答案的語言形式生成系統(tǒng),其自身既不真正理解輸入輸出數(shù)據(jù)的意義,也沒有自己的目標(biāo),更不知道什么是研究和學(xué)習(xí)以及為什么要研究和學(xué)習(xí)。但人們往往會產(chǎn)生一種將其視為自動化的知識生產(chǎn)者的幻覺,而容易忽視,雖然它們能夠產(chǎn)生連貫的文本,但其意義和連貫性是在人類與機(jī)器的互動中形成的,它們并沒有試圖表達(dá)什么。如果認(rèn)識不到這種幻覺,就容易引發(fā)將生成式人工智能視為知識權(quán)威和道德權(quán)威的風(fēng)險。ChatGPT的進(jìn)一步發(fā)展,有望演變?yōu)槠胀ㄈ巳粘I钪械娜斯ぶ悄苤?,成為解答知識、辨別是非乃至區(qū)分善惡的重要工具。鑒于ChatGPT并不真正理解其所生成的知識內(nèi)容以及對是非善惡的判斷,而且有時會產(chǎn)生荒謬的錯誤或隨意堆砌和編造內(nèi)容,在缺乏批判性思考的情況下,將ChatGPT視為教育、醫(yī)療、心理、精神方面的解惑者或指導(dǎo)者,難免放大由知識生成錯誤和不準(zhǔn)確造成的危害。
二是由盲目的智能化和自動化導(dǎo)致的圖靈陷阱。如果不能認(rèn)識到生成式人工智能建立在人機(jī)交互的智能生態(tài)系統(tǒng)乃至遍布地球的智能科技社會系統(tǒng)之上,就看不到知識生成自動化的基礎(chǔ)和前提是對人類智能的提取,其運(yùn)作過程既是對知識和智能的重新定義,也是對地球生態(tài)環(huán)境、人類社會和個人的知識生成自動化的基礎(chǔ)和前提是對人類智能的提取,其運(yùn)作過程既是對知識和智能的重新定義,也是對地球生態(tài)環(huán)境、人類社會和個人的重構(gòu)。重構(gòu)。如果缺乏對這一過程的反思,就可能陷入各種圖靈陷阱:在教育和研究中無條件采用自動化生成知識,在工作中無限度地用自動化取代人類智能,過度的自動化知識生成還會使地球生態(tài)環(huán)境不堪重負(fù)……之所以會出現(xiàn)圖靈陷阱,是因為智能和自動化系統(tǒng)沒有做到以人為本,在人工智能的部署中往往會迫使人被動地適應(yīng)智能化和自動化,智能系統(tǒng)的運(yùn)作預(yù)設(shè)不是使機(jī)器人性化,而是讓人越來越機(jī)器化,使人的自主性在不經(jīng)意間被自動剝奪。
為克服人工智能的知識權(quán)威幻覺,超越圖靈陷阱,需要全社會展開進(jìn)一步的討論,以構(gòu)建我們對可接受的深度智能化未來的合理想象。而從觀念上講,必須直面的問題是:人類在知識和智能上能否保有主創(chuàng)者和主導(dǎo)者的地位?人的主體性能否經(jīng)受住來自人工智能的挑戰(zhàn)?如果未來沒有出現(xiàn)人工智能超越人類智能的奇點的話,我們似乎可以堅持:一方面,人應(yīng)成為最終的知識權(quán)威;另一方面,人工智能應(yīng)更多作為人的智能助手,而不是一味用智能化和自動化取代人的工作和替代人的技能。從長期風(fēng)險來看,ChatGPT強(qiáng)大功能的涌現(xiàn)表明,在大模型的研發(fā)中,必須警惕出現(xiàn)有意識的通用人工智能的可能性,將及時防范人工智能可能威脅人類生存的安全風(fēng)險作為發(fā)展前提。
(作者系中國社會科學(xué)院哲學(xué)研究所研究員)
評論排行