【ZiDongHua 之人文化天下收錄關(guān)鍵詞:歐盟 人工智能 模式識(shí)別 生物識(shí)別 OpenA ChatGPT AIGC

歐盟立法者支持生成性人工智能的透明度和安全規(guī)則【外媒編譯】

在5月12日早晨的一系列歐洲議會(huì)投票中,議員們支持了對(duì)該集團(tuán)草擬的AI立法的一系列修訂案,包括對(duì)所謂的基礎(chǔ)模型的一套要求,這些模型支撐著OpenAI的ChatGPT等生成性AI技術(shù)。

修訂案還承諾基礎(chǔ)模型制作者將減少其系統(tǒng)的能源消耗和資源使用,并在即將由AI法案建立的歐盟數(shù)據(jù)庫(kù)中注冊(cè)他們的系統(tǒng)。而生成性AI技術(shù)的提供者(如ChatGPT)有義務(wù)遵守法規(guī)中的透明度義務(wù)(確保用戶被告知內(nèi)容是由機(jī)器生成的);在他們的系統(tǒng)生成的內(nèi)容中應(yīng)用“適當(dāng)?shù)谋Wo(hù)措施”;并提供一個(gè)關(guān)于用于訓(xùn)練他們的AI的任何受版權(quán)保護(hù)的材料的摘要。

議會(huì)議員爭(zhēng)論的其他關(guān)鍵領(lǐng)域包括生物特征監(jiān)測(cè)——在這里,議員們也同意了旨在加強(qiáng)基本權(quán)利保護(hù)的改變。

兩個(gè)委員會(huì)的議員,內(nèi)部市場(chǎng)委員會(huì)和公民自由委員會(huì),今天對(duì)大約3,000個(gè)修訂案進(jìn)行了投票,通過(guò)了關(guān)于計(jì)劃中的人工智能規(guī)則手冊(cè)的草案授權(quán),贊成票84票,反對(duì)票7票,棄權(quán)票12票。

今天由各委員會(huì)達(dá)成一致的關(guān)鍵修訂案包括擴(kuò)大禁止行為的清單,增加了對(duì)AI系統(tǒng)的“侵入性”和“歧視性”使用的禁令,例如:

后者,即完全禁止美國(guó)有爭(zhēng)議的AI公司Clearview AI的商業(yè)模式,正好在法國(guó)數(shù)據(jù)保護(hù)監(jiān)察機(jī)構(gòu)因其未能遵守現(xiàn)有的歐盟法律而再次對(duì)該初創(chuàng)公司進(jìn)行罰款的一天后。因此,對(duì)選擇無(wú)視該集團(tuán)規(guī)則的外國(guó)實(shí)體執(zhí)行此類禁令無(wú)疑將仍然是一個(gè)挑戰(zhàn)。但第一步是有硬性法律。

預(yù)計(jì)下個(gè)月(在6月12日至15日的會(huì)議期間),議會(huì)將進(jìn)行全體投票以確定授權(quán),之后將與理事會(huì)開(kāi)始三方對(duì)話,以達(dá)成關(guān)于該文件的最終妥協(xié)。

民間社會(huì)團(tuán)體和歐盟機(jī)構(gòu)呼吁進(jìn)行修訂以增強(qiáng)對(duì)基本權(quán)利的保護(hù)——歐洲數(shù)據(jù)保護(hù)監(jiān)察員和歐洲數(shù)據(jù)保護(hù)委員會(huì)等機(jī)構(gòu)呼吁該立法進(jìn)一步發(fā)展,并敦促歐盟立法者在公共場(chǎng)所全面禁止生物特征監(jiān)控。

議員在今天的委員會(huì)投票中同意的其他變動(dòng)包括擴(kuò)展法規(guī)的(固定)“高風(fēng)險(xiǎn)”領(lǐng)域的分類——包括對(duì)人們的健康,安全,基本權(quán)利和環(huán)境的危害。

同時(shí),議員們也支持改變什么算作高風(fēng)險(xiǎn)——建議讓AI開(kāi)發(fā)者決定他們的系統(tǒng)是否足夠重要以滿足適用義務(wù)的標(biāo)準(zhǔn),這是數(shù)字權(quán)利團(tuán)體警告(見(jiàn)下文)的“主要紅旗”。

缺乏對(duì)受有害AI影響的個(gè)體有意義的救濟(jì)是民間社會(huì)團(tuán)體在2021年秋季對(duì)修訂的重大呼吁中提出的一個(gè)主要漏洞,他們指出了委員會(huì)的AI法案提案和該集團(tuán)的通用數(shù)據(jù)保護(hù)法之間的顯著差異,根據(jù)后者,個(gè)人可以向監(jiān)管機(jī)構(gòu)投訴并尋求其他形式的救濟(jì)。

同時(shí),為了回應(yīng)永恒的行業(yè)哭訴,即過(guò)多的監(jiān)管對(duì)“創(chuàng)新”有害,他們還為研究活動(dòng)和提供開(kāi)源許可證的AI組件增加了規(guī)則的豁免權(quán),同時(shí)指出法律促進(jìn)了由公共機(jī)構(gòu)建立的監(jiān)管沙盒,或受控環(huán)境,以測(cè)試AI的部署前的表現(xiàn)。

它指出的另一個(gè)關(guān)鍵勝利是對(duì)部署高風(fēng)險(xiǎn)AI的責(zé)任和透明度義務(wù)的包含 - 他們有義務(wù)進(jìn)行基本權(quán)利影響評(píng)估以及受影響的人們可以挑戰(zhàn)AI系統(tǒng)的機(jī)制。

“這份新文本比委員會(huì)原始提案在控制我們的面部,身體和身份的敏感數(shù)據(jù)的濫用方面要好得多,”另一位專注于生物識(shí)別的EDRi高級(jí)政策顧問(wèn)Ella Jakubowska補(bǔ)充道。

對(duì)此,Chander指出,議員未能將AI用于促進(jìn)“非法推回”,或以歧視性方式對(duì)人進(jìn)行分檔的做法列入禁止的實(shí)踐列表 - 這是EDRi曾經(jīng)呼吁的。“不幸的是,[歐洲議會(huì)]對(duì)人民權(quán)利的支持并未阻止移民免受AI帶來(lái)的傷害,包括AI用于推動(dòng)推回的情況," 她說(shuō),并建議:“沒(méi)有這些禁止,歐洲議會(huì)正在為在歐盟邊界開(kāi)設(shè)全景監(jiān)控系統(tǒng)打開(kāi)大門(mén)。”

“盡管議會(huì)在生物識(shí)別方面的做法非常全面,但我們希望看到的是進(jìn)一步限制一些實(shí)踐。盡管有對(duì)公共面部識(shí)別的回顧性禁令,但法律執(zhí)法部門(mén)仍然有例外,我們認(rèn)為這仍然存在風(fēng)險(xiǎn)。尤其是,它可能激勵(lì)大規(guī)模保留CCTV錄像和生物識(shí)別數(shù)據(jù),這是我們明確反對(duì)的,”Jakubowska補(bǔ)充說(shuō),并表示該團(tuán)體還希望看到無(wú)論情境如何,歐盟都會(huì)禁止情緒識(shí)別 - “因?yàn)檫@種‘技術(shù)’從根本上來(lái)說(shuō)是有缺陷的,不科學(xué)的,而且設(shè)計(jì)上就是歧視的”。

“不幸的是,議會(huì)提出了一些非常令人擔(dān)憂的變化,這些變化與什么算作‘高風(fēng)險(xiǎn)AI’有關(guān)。隨著文本中的變化,開(kāi)發(fā)者將能夠決定他們的系統(tǒng)是否‘足夠重要’以被視為高風(fēng)險(xiǎn),這對(duì)于執(zhí)行這項(xiàng)立法來(lái)說(shuō)是一個(gè)主要的紅旗,”Chander建議。

當(dāng)被問(wèn)及是否期待理事會(huì)試圖解開(kāi)對(duì)生物識(shí)別監(jiān)控?cái)U(kuò)大保護(hù)的一些問(wèn)題時(shí),Jakubowska表示:“我們可以從去年理事會(huì)的總體立場(chǎng)看出,他們希望淡化委員會(huì)原始文本中已經(jīng)不足的保護(hù)。盡管沒(méi)有可靠的有效性證據(jù),但有大量的證據(jù)證明其有害,我們看到很多成員國(guó)政府都熱衷于保留進(jìn)行生物識(shí)別大規(guī)模監(jiān)控的能力。

從公民社會(huì)給出的另一項(xiàng)早期評(píng)估中,愛(ài)爾蘭公民自由理事會(huì)(ICCL)的高級(jí)研究員Kris Shrishak,該理事會(huì)也參加了2021年對(duì)AI法案進(jìn)行重大修改的呼吁,他也對(duì)執(zhí)行挑戰(zhàn)提出了警告,他警告說(shuō),盡管議會(huì)通過(guò)明確允許監(jiān)管機(jī)構(gòu)進(jìn)行遠(yuǎn)程檢查的修訂案加強(qiáng)了可執(zhí)行性,但他認(rèn)為,議會(huì)同時(shí)阻止了監(jiān)管機(jī)構(gòu)在調(diào)查中訪問(wèn)AI系統(tǒng)的源代碼。

在積極的一面,他表示,議會(huì)已經(jīng)向解決歐盟委員會(huì)對(duì)AI系統(tǒng)定義的“不足”邁出了一步,特別是將生成性AI系統(tǒng)納入范圍,并對(duì)其實(shí)施透明度義務(wù),他稱這是“解決其危害的關(guān)鍵一步”。

版權(quán)修訂案只要求公司提供用于訓(xùn)練的版權(quán)保護(hù)數(shù)據(jù)的摘要——這似乎意味著將讓權(quán)利持有人去起訴。

“研究是一個(gè)從法規(guī)范圍內(nèi)遺留下來(lái)的漏洞。這可能會(huì)被公司利用,”他建議說(shuō)。“在AI的背景下,這是一個(gè)大漏洞,因?yàn)榇蟛糠盅芯空诠局羞M(jìn)行。我們已經(jīng)看到谷歌說(shuō)他們正在與Bard‘實(shí)驗(yàn)’。此外,我預(yù)計(jì)有些公司會(huì)聲稱他們開(kāi)發(fā)AI組件而不是AI系統(tǒng)(我已經(jīng)在關(guān)于通用AI的討論中從一個(gè)大公司那里聽(tīng)到過(guò)這個(gè)。這是他們?yōu)槭裁碐PAI[通用AI]不應(yīng)該被監(jiān)管的論點(diǎn)之一)。”

該基金會(huì)的高級(jí)政策顧問(wèn)Alexander Sander告訴TechCrunch:“大科技公司將一切外包給微型企業(yè)而不再部署它們的可能性極小。一旦他們部署,他們?cè)俅温淙敕ㄒ?guī)之下(如果大于微型企業(yè))。”

他補(bǔ)充說(shuō),該組織對(duì)議會(huì)的提議總體上感到滿意,盡管批評(píng)了一些“超級(jí)復(fù)雜的措辭”,以及該規(guī)定僅被包含在一項(xiàng)序言(即而不是一篇文章)中。

文章來(lái)源于網(wǎng)安尋路人,作者洪延青