【ZiDongHua 之行業(yè)新資訊收錄關(guān)鍵詞:智能系統(tǒng)   人工智能  AI  機器人  大模型 】
  
  智能系統(tǒng)兩年后可自動消化所有有價值的文字數(shù)據(jù)
  
  中國科學院院士、華科智谷人工智能研究院院長何積豐認為,當下AI人工智能的發(fā)展速度遠超人類的想象,預計到2026年后,人類歷史上所有有價值的文字數(shù)據(jù),智能系統(tǒng)都可以自動消化。
  
  “在人工智能不斷改變?nèi)祟惿鐣慕裉?,我們急需提高自己的專業(yè)能力,要專精自己的優(yōu)勢和專業(yè)領(lǐng)域,思考如何把AI應用到自己的專業(yè)中,提高自己的產(chǎn)出效率。”
  
  1月21日,在一年一度的“瞰見未來”2024復旦大學管理學院新年論壇上,中國科學院院士、華科智谷人工智能研究院院長何積豐發(fā)表上述感慨。
  
  此次新年論壇現(xiàn)場,何積豐發(fā)表題為《人工智能重塑人類未來》主題演講。
  
  
  
  中國科學院院士、華科智谷人工智能研究院院長何積豐發(fā)表主旨演講 來源:復旦大學管理學院
  
  何積豐認為,以AI人工智能為代表的革命實質(zhì)上是知識生產(chǎn)力的革命,相比之前的革命,發(fā)展速度遠超想象。人工智能學習知識的速度是人類平均速度的一倍以上,檢索知識所花時間是人類平均時間的20%。預計到2026年后,人類歷史上所有有價值的文字數(shù)據(jù),智能系統(tǒng)都可以自動消化。
  
  何積豐表示,保守估算,60%左右的行業(yè)會使用人工智能。這也給人類帶來較多問題。
  
  何積豐認為,當下人工智能大模型安全問題主要是在未經(jīng)同意的情況下收集、使用和泄露個人信息。隱私問題既可能發(fā)生在訓練過程中,也可能發(fā)生在使用過程中,而大模型的生成能力則讓“隱私泄露”的方式變得多樣化,造成隱私保護更加困難。
  
  何積豐表示,應對這些安全隱患問題,需要對人工智能進行對齊。“對齊(alignment)”是指系統(tǒng)的目標和人類價值觀一致,使其符合設計者的利益和預期,不會產(chǎn)生意外的有害后果。何積豐以機器人為例,表示機器人有基本對齊規(guī)則:第一條規(guī)則是機器人千萬不能傷害人;第二條規(guī)則是在不傷害人的情況下,機器人要聽從人類的指揮進行操作。
  
  不過,何積豐繼而指出,在對齊過程中依然會面臨兩大挑戰(zhàn):其一是對齊的基礎(chǔ),對齊需有標桿。全世界人類的價值觀是多元且動態(tài)變化的,這導致對齊成為一項令人眼花繚亂的跨學科研究,不僅考驗我們的技術(shù),也在審視我們的文化;其二,大模型“有用性”與“無害性”兩個目標的沖突,可用性與安全性之間面臨艱難選擇。如何對錯誤進行有效糾正也是挑戰(zhàn)。
  
  AI人工智能目前對社會經(jīng)濟帶來的正面影響具體體現(xiàn)在每年可能為全球經(jīng)濟帶來2.6萬億到4.4萬億美元的增長。在人工智能不斷改變?nèi)祟惿鐣慕裉欤祟悤籄I人工智能取代嗎?我們還是要不斷接收新信息、擁抱新變化,拓展自己的事業(yè),接觸更多的人和行業(yè)。
  
  “AI是人類創(chuàng)造為自己服務的工具。我相信人類會竭盡全力用好這個工具。我希望大家能充分擁抱人工智能帶來的新變化,變得更加聰明后,以后會有更大的競爭能力。”何積豐稱。
  
 ?。ㄔ瓨祟}:何積豐:智能系統(tǒng)兩年后可自動消化所有有價值的文字數(shù)據(jù))