【ZiDongHua 之人文化天下收錄關(guān)鍵詞: 人工智能 人臉識別 生物識別技術(shù)】

 

《歐洲人工智能法》最終官方文本發(fā)布

 

2024年7月12日,《歐盟官方公報》正式印發(fā)了具有里程碑意義的《歐洲人工智能法》的最終文本。該法案采取了分階段生效和基于風(fēng)險等級差異的治理策略。
 
 
2024 年 11 月 2 日之前,各成員國指定人工智能監(jiān)管機構(gòu)
 
每個成員國應(yīng)指定一個承擔(dān)高風(fēng)險人工智能系統(tǒng)監(jiān)管職責(zé)的公共機構(gòu),并公布其名單。各成員國應(yīng)將該名單通知委員會和其他成員國,并應(yīng)不斷更新該名單。
 
2025年2月2日開始,禁止使用人工智能的清單將在法律生效六個月后適用
 
被禁止(或“不可接受的風(fēng)險”)的人工智能用例將很快成為非法,包括會信用評分;通過無針對性地抓取互聯(lián)網(wǎng)或閉路電視來編譯人臉識別數(shù)據(jù)庫;執(zhí)法部門在公共場所使用實時遠程生物識別技術(shù),除非有幾種例外情況之一,例如在尋找失蹤或被綁架人員期間。
 
2025年5月2日之前,歐洲人工智能辦公室應(yīng)當(dāng)發(fā)布業(yè)務(wù)守則
 
人工智能辦公室應(yīng)鼓勵和促進在歐盟一級制定業(yè)務(wù)守則,以便在考慮到國際做法的情況下,促進《歐洲人工智能法》的正確實施。業(yè)務(wù)守則最遲應(yīng)在2025年5月2日之前準備完畢。人工智能辦公室應(yīng)采取必要步驟,包括根據(jù)第7款邀請?zhí)峁┱摺救斯ぶ悄苻k公室可邀請所有通用人工智能模型提供者遵守業(yè)務(wù)守則。對于不構(gòu)成系統(tǒng)性風(fēng)險的通用人工智能模型的提供者來說,這種遵守可能僅限于第53條規(guī)定的義務(wù),除非其明確宣布有意加入完整的守則?!?/div>
 
如果到2025年8月2日,業(yè)務(wù)守則仍不能最終確定,或者如果在根據(jù)本條第6款進行評估后認為業(yè)務(wù)守則不夠充分,歐盟委員會可以通過執(zhí)行法案的方式,以履行第53條和第55條規(guī)定的義務(wù)提供通用規(guī)范。這些執(zhí)行法案應(yīng)根據(jù)第98條第2款規(guī)定的審查程序通過。
 
2025年8月2日開始,通用人工智能相關(guān)的規(guī)定將開始適用
 
因為與治理和符合性評估系統(tǒng)相關(guān)的基礎(chǔ)設(shè)施應(yīng)在2026年8月2日之前運行,因此關(guān)于通知機構(gòu)和治理結(jié)構(gòu)的規(guī)定應(yīng)從2025年8月2日起適用。鑒于技術(shù)進步的快速步伐和通用人工智能模型的采用,通用人工智能模型提供者的義務(wù)應(yīng)從2025年8月2日起適用。為了使提供者能夠及時證明合規(guī),歐盟人工智能辦公室應(yīng)在2025年5月2日之前準備好《通用人工智能模型的行為準則》。人工智能辦公室應(yīng)確保分類規(guī)則和程序根據(jù)技術(shù)發(fā)展保持最新。此外,成員國應(yīng)制定并向歐盟委員會通報有關(guān)處罰的規(guī)定,包括行政罰款,并確保在本規(guī)定適用之日之前正確有效地實施這些規(guī)定。因此,關(guān)于處罰的規(guī)定應(yīng)從2025年8月2日起適用。
 
成員國應(yīng)向歐盟委員會通報通知機構(gòu)和市場監(jiān)督機構(gòu)的身份、這些機構(gòu)的任務(wù)以及隨后的任何變動。成員國應(yīng)在2025 年 8 月 2 日之前,通過電子通信手段公布有關(guān)如何與主管機構(gòu)和單一聯(lián)絡(luò)點取得聯(lián)系的信息。成員國應(yīng)指定一個市場監(jiān)督機構(gòu)作為本條例的單一聯(lián)絡(luò)點,并應(yīng)將單一聯(lián)絡(luò)點的身份通知歐盟委員會。歐盟委員會應(yīng)公布單一聯(lián)絡(luò)點名單。
 
2025 年8月2日之前,以及此后每兩年一次,成員國應(yīng)向歐盟委員會報告國家主管機關(guān)的財政和人力資源狀況,并評估其是否充足。歐盟委員會應(yīng)將這些信息轉(zhuǎn)交歐洲人工智能委員會討論并提出可能的建議。
 
在收到與第3條第49款第c項所述嚴重事件有關(guān)的通知后,相關(guān)市場監(jiān)督機構(gòu)應(yīng)通知第77條第1款所述國家公共機構(gòu)或機構(gòu)。歐盟委員會應(yīng)制定專門的指南,以促進本條第1款規(guī)定的義務(wù)的履行。該指南2025年8月2日之前發(fā)布,并應(yīng)定期評估。
 
2026年2月2日之前,歐盟委員會需要提出建立后市場監(jiān)測計劃模板,并列出計劃所列要素清單
 
后市場監(jiān)測系統(tǒng)應(yīng)以后市場監(jiān)測計劃為基礎(chǔ)。后市場監(jiān)測計劃應(yīng)成為附件四所提及的技術(shù)文件的一部分。歐盟委員會應(yīng)在2026年2月2日之前通過一項執(zhí)行法案,詳細規(guī)定建立后市場監(jiān)測計劃模板,并列出計劃所列要素清單。該執(zhí)行法案應(yīng)根據(jù)第98條第2款規(guī)定的審查程序通過。
 
歐洲委員會應(yīng)在咨詢歐洲人工智能委員會后,不遲于2026年2月2日,提供指南,具體說明根據(jù)第96條實際實施本條,以及高風(fēng)險和非高風(fēng)險人工智能系統(tǒng)用例的綜合實例清單。
 
2026年8月2日之前,與治理和符合性評估系統(tǒng)相關(guān)的基礎(chǔ)設(shè)施應(yīng)在2026年8月2日之前運行
 
成員國應(yīng)在國家一級至少建立一個人工智能監(jiān)管沙盒,該沙盒最遲應(yīng)在2026 年 8 月 2 日投入使用。該沙盒也可以與其他一個或多個成員國主管機構(gòu)聯(lián)合建立。歐盟委員會可為人工智能監(jiān)管沙盒的建立和運行提供技術(shù)支持、建議和工具。該義務(wù)也可通過參加現(xiàn)有的沙盒來履行,只要這種參與能為為參與的成員國提供同等水平的國家層面的覆蓋。
2027年8月2日之前,
在2025年8月2日之前已投放市場的通用人工智能模型的提供者應(yīng)采取必要步驟,以便在2027年8月2日之前遵守本條例規(guī)定的義務(wù)
 
在不影響第113條第3款a項所述第5條的適用的情況下,本條例適用于在2026年8月2日之前已投放市場或投入使用的高風(fēng)險人工智能系統(tǒng)(本條第1款所述系統(tǒng)除外)的經(jīng)營者,但僅限于自該日起這些系統(tǒng)的設(shè)計發(fā)生重大變化的情況。對于擬由公共機構(gòu)使用的高風(fēng)險人工智能系統(tǒng),此類系統(tǒng)的提供者和部署者應(yīng)采取必要步驟,在2030年8月2日之前遵守本條例的要求。
2028年11月之前,歐洲委員會應(yīng)當(dāng)就監(jiān)管權(quán)力下放問題起草一份報告
 
歐洲委員會自2024年8月1日起,對委員會第6條第6款和第7款、第7條第1款和第3款、第11條第3款、第43條第5款、第43條第5款、第51條第3款、第52條第4款以及第53條第5款和第(6)款所確定的特別變通授權(quán),有效期為五年。歐盟委員會應(yīng)在五年期結(jié)束前的九個月內(nèi)起草一份有關(guān)授權(quán)的報告。除非歐洲議會或歐盟理事會在每一期限結(jié)束前三個月內(nèi)反對延長,否則授權(quán)期限將被默許延長至相同期限。
 
2030年12月21日之前,大型信息技術(shù)系統(tǒng)組成部分的人工智能系統(tǒng)
在不影響第113條第3款第a項所述第5條的適用的情況下,作為附件十所列法案所建立的大型信息技術(shù)系統(tǒng)組成部分的人工智能系統(tǒng),如果在2027年8月2日之前已經(jīng)投放市場或投入使用,則應(yīng)在2030年12月31日之前使其符合本條例的規(guī)定。
在對附件十所列法案建立的每個大型人工智能系統(tǒng)進行評估時,應(yīng)考慮本條例中規(guī)定的要求根據(jù)這些法案的規(guī)定,以及在這些法案被取代或修訂的情況下,對這些法案進行評估。
 
風(fēng)險分級治理路徑
 
《歐洲人工智能法》對 AI 開發(fā)人員施加了不同的義務(wù),具體取決于具體場景和感知到的風(fēng)險。大部分人工智能用途將不受監(jiān)管,因為它們被認為是低風(fēng)險的,但法律也禁止了少數(shù)人工智能的潛在應(yīng)用場景。
 
例如,禁止基于自然人的生物特征數(shù)據(jù),例如個人的臉部或指紋,來推斷或推斷個人的政治觀點、工會會員身份、宗教或哲學(xué)信仰、種族、性生活或性取向的生物特征識別分類系統(tǒng)。這一禁令不應(yīng)包括根據(jù)生物特征數(shù)據(jù)對按照歐盟或國家法律獲取的生物特征數(shù)據(jù)集進行合法的標記、過濾或分類,例如根據(jù)頭發(fā)顏色或眼睛顏色對圖像進行分類,這些數(shù)據(jù)可用于執(zhí)法領(lǐng)域。
 
由公共或私人行為者提供的提供自然人社會評分的人工智能系統(tǒng)可能會導(dǎo)致歧視性結(jié)果和對某些群體的排斥。它們可能會侵犯尊嚴和不受歧視的權(quán)利以及平等和公正的價值觀。這類人工智能系統(tǒng)根據(jù)與自然人或其群體在多種背景下的社會行為或已知、推斷或預(yù)測的個人或個性特征有關(guān)的多個數(shù)據(jù)點(data points),對其進行評估或分類。從這類人工智能系統(tǒng)中獲得的社會評分可能會導(dǎo)致自然人或其整個群體在社會環(huán)境中受到不利或不利待遇,而這些評分與最初生成或收集數(shù)據(jù)的環(huán)境無關(guān),或與其社會行為的嚴重程度不相稱或不合理的不利待遇無關(guān)。因此,應(yīng)禁止人工智能系統(tǒng)采用這種不可接受的評分做法,并導(dǎo)致這種有害或不利的結(jié)果。這一禁令不應(yīng)影響根據(jù)歐盟和國家法律為特定目的而對自然人進行的合法評估。
 
以執(zhí)法為目的,在公開場所使用人工智能系統(tǒng)“實時”遠程生物特征識別自然人,被視為對有關(guān)人員的權(quán)利和自由的特別侵犯,在某種程度上,它可能影響很大一部分民眾的私人生活,使他們處于不斷受到監(jiān)視的感覺,間接阻止民眾行使集會自由和其他基本權(quán)利。用于對自然人進行遠程生物特征識別的人工智能系統(tǒng)在技術(shù)上的不準確性可能會導(dǎo)致有偏差的結(jié)果并產(chǎn)生歧視性影響。在年齡、民族、種族、性別或殘疾方面,這種可能的偏差結(jié)果和歧視性影響尤為重要。此外,影響的即時性以及與使用“實時”操作的這種系統(tǒng)有關(guān)的進一步檢查或糾正的機會有限,給執(zhí)法活動所涉及的人員的權(quán)利和自由帶來了更大的風(fēng)險。因此,《歐洲人工智能法》禁止以執(zhí)法為目的使用這些系統(tǒng),除非在詳盡列出和狹義界定的情況下,其使用以實現(xiàn)重大公共利益為必要,其重要性超過了風(fēng)險影響。這些情況包括尋找某些犯罪受害者,包括失蹤人員;自然人的生命或人身安全受到某些威脅或受到恐怖襲擊。
 
高風(fēng)險人工智能系統(tǒng)只有在符合某些強制性要求的情況下才應(yīng)投放到歐盟市場或投入使用或使用。這些要求應(yīng)確保歐盟可用或其投放到歐盟使用的高風(fēng)險人工智能系統(tǒng)不會對歐盟法律認可和保護的重要歐盟公共利益構(gòu)成不可接受的風(fēng)險。被確定為高風(fēng)險的人工智能系統(tǒng)應(yīng)限于那些對歐盟內(nèi)人員的健康、安全和基本權(quán)利有重大有害影響的系統(tǒng),且這種限制應(yīng)最大限度地減少對國際貿(mào)易的任何潛在限制。根據(jù)本條例將人工智能系統(tǒng)劃分為高風(fēng)險,并不一定意味著其作為產(chǎn)品的安全組件或本身作為產(chǎn)品的這一產(chǎn)品根據(jù)相關(guān)歐盟統(tǒng)一立法中規(guī)定的標準被視為高風(fēng)險。尤其對于歐盟第2017/745號條例和歐盟第2017/746號條例,其中為中風(fēng)險和高風(fēng)險產(chǎn)品提供了第三方合格評定。
 
關(guān)于獨立的人工智能系統(tǒng),即非安全部件或本身為產(chǎn)品的高風(fēng)險人工智能系統(tǒng),如果根據(jù)其預(yù)期目的,考慮到可能造成傷害的嚴重性及其發(fā)生的概率,它們對人的健康和安全或基本權(quán)利造成傷害的風(fēng)險很高,而且它們用于本條例具體規(guī)定的一些預(yù)先確定的領(lǐng)域,則將它們歸類為高風(fēng)險系統(tǒng)是適當(dāng)?shù)?。確定這些系統(tǒng)所依據(jù)的方法和標準與歐盟委員會今后有權(quán)通過授權(quán)法案對高風(fēng)險人工智能系統(tǒng)清單進行修訂時所設(shè)想的方法和標準相同,以考慮到技術(shù)的快速發(fā)展以及人工智能系統(tǒng)使用方面的潛在變化。
 
通用人工智能系統(tǒng)本身可用作高風(fēng)險人工智能系統(tǒng),也可作為其他高風(fēng)險人工智能系統(tǒng)的組成部分。因此,由于其特殊性,并為了確保在人工智能價值鏈上公平分擔(dān)責(zé)任,此類系統(tǒng)的提供者應(yīng)與相關(guān)高風(fēng)險人工智能系統(tǒng)的提供者密切合作,使其能夠遵守本條例規(guī)定的相關(guān)義務(wù),并與根據(jù)本條例設(shè)立的主管機構(gòu)合作,而不論其他提供者是將其用作高風(fēng)險人工智能系統(tǒng)本身,還是將其用作高風(fēng)險人工智能系統(tǒng)的組件,除非本條例另有規(guī)定。
 
向公眾提供除通用人工智能模型之外的工具、服務(wù)、流程或人工智能組件的第三方,如果這些工具、服務(wù)、流程或人工智能組件是在免費和開放許可下提供的,則不應(yīng)被強制要求遵守針對人工智能價值鏈責(zé)任的要求,特別是對使用或集成這些工具、服務(wù)、流程或人工智能組件的提供者的責(zé)任。除通用人工智能模型外,應(yīng)鼓勵免費開源工具、服務(wù)、流程或人工智能組件的開發(fā)者實施廣泛采用的文檔做法,如模型卡和數(shù)據(jù)表,以此加快人工智能價值鏈上的信息共享,從而在歐盟推廣值得信賴的人工智能系統(tǒng)。
歐盟委員會可制定并推薦高風(fēng)險人工智能系統(tǒng)提供者與提供高風(fēng)險人工智能系統(tǒng)所使用或集成的工具、服務(wù)、組件或流程的第三方之間的自愿示范合同條款,以促進價值鏈上的合作。在制定自愿示范合同條款時,歐盟委員會還應(yīng)考慮到適用于特定部門或商業(yè)案例的可能合同要求。
 
來源:清華大學(xué)智能法治研究院綜合整理、編譯
 
 
我要收藏
個贊
上一篇:宇樹:人形機器人開啟具身智能新紀元
下一篇: 《人類最后的工作》