【霍金:我們需要“世界性政府”阻止危險(xiǎn)AI崛起】最近接受采訪時(shí),霍金說(shuō):“我們需要以更快的速度識(shí)別這類(lèi)威脅,并在它們失控前采取行動(dòng)。這可能意味著,我們需要組建某種形式上的世界性政府。”可是霍金也警告稱(chēng),這種方法有可能催生“暴政”。
    背景信息:@自股億來(lái)著名物理學(xué)家史蒂芬·霍金(Stephen Hawking)是人工智能(AI)技術(shù)的支持者,但他對(duì)AI帶來(lái)的潛在挑戰(zhàn)也感到擔(dān)憂(yōu)?;艚鹗冀K關(guān)注著在社會(huì)中扮演越來(lái)越重要角色的AI,并建議組建“世界性政府”幫助監(jiān)管和控制AI的快速擴(kuò)張。許多人對(duì)霍金的建議給出不同反應(yīng)。