霍金:我們需要“世界性政府”阻止危險(xiǎn)AI崛起
【霍金:我們需要“世界性政府”阻止危險(xiǎn)AI崛起】霍金最近接受采訪時(shí)說(shuō):“我們需要以更快的速度識(shí)別這類威脅,并在它們失控前采取行動(dòng)。這可能意味著,我們需要組建某種形式上的世界性政府?!笨墒腔艚鹨簿娣Q這種方法有可能催生“暴政”。
背景信息:@自股億來(lái)著名物理學(xué)家史蒂芬·霍金(Stephen Hawking)是人工智能(AI)技術(shù)的支持者,但他對(duì)AI帶來(lái)的潛在挑戰(zhàn)也感到擔(dān)憂。霍金始終關(guān)注著在社會(huì)中扮演越來(lái)越重要角色的AI,并建議組建“世界性政府”幫助監(jiān)管和控制AI的快速擴(kuò)張。許多人對(duì)霍金的建議給出不同反應(yīng)。
背景信息:@自股億來(lái)著名物理學(xué)家史蒂芬·霍金(Stephen Hawking)是人工智能(AI)技術(shù)的支持者,但他對(duì)AI帶來(lái)的潛在挑戰(zhàn)也感到擔(dān)憂。霍金始終關(guān)注著在社會(huì)中扮演越來(lái)越重要角色的AI,并建議組建“世界性政府”幫助監(jiān)管和控制AI的快速擴(kuò)張。許多人對(duì)霍金的建議給出不同反應(yīng)。
我要收藏
個(gè)贊
評(píng)論排行