AI 開發(fā)不必"因噎廢食",但必須以倫理為先
【ZiDongHua 之 人文化天下:IBM 、生成式AI 、ChatGPT 、AI倫理 】
AI 開發(fā)不必"因噎廢食",但必須以倫理為先
本文作者:Christina Montgomery,IBM首席隱私誠信官;Francesca Rossi,IBM研究院AI倫理全球負責人
隨著生成式 AI 系統(tǒng)進入公共領(lǐng)域,讓世界各地的人們接觸到新的技術(shù)可能性、影響,甚至是此前尚未考慮的后果。得益于 ChatGPT和其他類似的系統(tǒng),現(xiàn)在幾乎任何人都可以使用高級 AI 模型,這些模型不僅能夠具有早期版本的檢測模式、挖掘數(shù)據(jù)和提出建議等能力,還能創(chuàng)造新內(nèi)容、在對話中生成原創(chuàng)的回復等。
AI 開發(fā)不必“因噎廢食”,但必須以倫理為先
AI 發(fā)展的轉(zhuǎn)折點
當生成式 AI 功能的設(shè)計合乎倫理、并以負責任的方式推向市場時,它將為企業(yè)和社會帶來前所未有的機遇,包括:提供更好的客戶服務,改善醫(yī)療系統(tǒng)和法律服務;以及支持和增強人類的創(chuàng)造力,加快科學研發(fā),并調(diào)動更有效的方法來應對氣候挑戰(zhàn)。
關(guān)于AI 的開發(fā)、部署和使用及其加速人類進步的潛力,我們正處于一個關(guān)鍵節(jié)點。然而,這種巨大的潛力也伴隨著風險,例如產(chǎn)生虛假內(nèi)容和有害文本、泄露隱私,偏見被放大,同時,這些系統(tǒng)的運行也缺乏透明度。因此,合理質(zhì)疑 AI 對于勞動力、創(chuàng)造力以及人類整體福祉意味著什么,這至關(guān)重要。
行業(yè)需要新的 AI 倫理標準
最近,一些科技行業(yè)的意見領(lǐng)袖聯(lián)名呼吁,將大型AI 模式的訓練暫停 6 個月,以留出時間制定新的AI倫理標準。其意圖和動機無疑是好的,但它忽略了一個基本事實:這些系統(tǒng)目前仍在我們的控制范圍內(nèi),基于它們構(gòu)建的解決方案也是如此。
負責任的訓練,以及基于多方合作、將AI倫理貫穿始終的開發(fā)路徑,可以使這些系統(tǒng)變得更好而不是更糟。AI技術(shù)無時不刻都在演進和迭代。因此,不論是正在使用或是等待上線的AI系統(tǒng),其訓練必須與構(gòu)建負責任的AI這一目標保持一致。以負責任的AI為先不意味著要暫停AI開發(fā)。
持續(xù)采用和完善AI 倫理標準和規(guī)范,這項工作事關(guān)人人。IBM 在多年前就建立了行業(yè)最早的 AI 倫理委員會之一,以及全公司范圍內(nèi)的 AI 倫理框架。通過評估當前和未來的技術(shù)格局,包括我們的行業(yè)定位以及與利益相關(guān)方的協(xié)作,我們不斷加強和完善這一框架。
IBM的AI倫理委員會打造了一個負責任的集中式治理結(jié)構(gòu),它覆蓋AI的全生命周期,在制定明確政策、推動問責制的同時,也能靈活且敏捷地支持IBM的業(yè)務需求。在傳統(tǒng)的和更先進的 AI 系統(tǒng)開發(fā)中,IBM一直踐行著這一重要治理結(jié)構(gòu)。我們不能只關(guān)注未來的風險,而忽視眼前的治理需要,比如價值對齊(value alignment,即AI在執(zhí)行任務中實現(xiàn)的價值和用戶所希望的價值是一致的)和 AI 倫理;后者也會隨著 AI 的發(fā)展而不斷演進。
除了協(xié)作和監(jiān)督,打造這些AI系統(tǒng)的技術(shù)路徑應該從一開始就考慮倫理因素。例如,我們對 AI 的擔憂往往源于對"黑匣子"內(nèi)部發(fā)生的情況缺乏了解。因此,IBM 開發(fā)了一個監(jiān)管平臺,用于監(jiān)控模型的公平性和偏見與否,獲取數(shù)據(jù)來源,最終形成更透明、可解釋且可靠的 AI 管理流程。此外,IBM的企業(yè)級AI戰(zhàn)略將信任嵌入整個AI生命周期中,從創(chuàng)建模型、訓練系統(tǒng)所使用的數(shù)據(jù),到這些模型在特定業(yè)務領(lǐng)域的應用。
接下來需要做什么?
首先,我們倡導企業(yè)將倫理和責任置于其 AI 議程的首位。全面暫停 AI 訓練或是降低AI 倫理的行業(yè)優(yōu)先級,最終將事與愿違。
其次,政府應避免在技術(shù)層面對 AI 進行過度監(jiān)管。否則,這將成為一場"打地鼠"游戲,阻礙真正有益的、面向未來的創(chuàng)新。我們呼吁世界各地的立法者采取更加高效且精準的監(jiān)管模式,對高風險的 AI 用例實施嚴格監(jiān)管。
最后,在企業(yè)如何保護與 AI 系統(tǒng)交互的數(shù)據(jù)隱私方面,仍然缺乏足夠的透明度。 我們需要為用戶提供一致的、可落地的個人隱私保護。
最近社會對 AI 的廣泛關(guān)注,正應了這句話:權(quán)力越大,責任越大。與其全面暫停 AI 系統(tǒng)的開發(fā),不如打破協(xié)作壁壘,共同打造負責任的AI。
【關(guān)于IBM】
IBM 是全球領(lǐng)先的混合云、人工智能及企業(yè)服務提供商,幫助超過 175 個國家和地區(qū)的客戶,從其擁有的數(shù)據(jù)中獲取商業(yè)洞察,簡化業(yè)務流程,降低成本,并獲得行業(yè)競爭優(yōu)勢。金融服務、電信和醫(yī)療健康等關(guān)鍵基礎(chǔ)設(shè)施領(lǐng)域的超過 4000家政府和企業(yè)實體依靠 IBM 混合云平臺和 Red Hat OpenShift 快速、高效、安全地實現(xiàn)數(shù)字化轉(zhuǎn)型。IBM 在人工智能、量子計算、行業(yè)云解決方案和企業(yè)服務方面的突破性創(chuàng)新為我們的客戶提供了開放和靈活的選擇。對企業(yè)誠信、透明治理、社會責任、包容文化和服務精神的長期承諾是 IBM 業(yè)務發(fā)展的基石。
評論排行