不公平的自動化決策算法,增加了新的風險|美教育部教育技術辦公室發(fā)布《人工智能與教學的未來》報告
【ZiDongHua 之人文化天下收錄關鍵詞:人工智能 美國教育部 智能決策 決策 算法 自動化決策 】
美教育部教育技術辦公室發(fā)布《人工智能與教學的未來》報告
近日,美國教育部教育技術辦公室發(fā)布最新政策報告《人工智能與教學的未來》(Artificial Intelligence and the Future of Teaching and Learning)。本文就該報告的主要內(nèi)容編譯如下。
1. 核心信息
美國教育部(Department of Education)致力于支持利用技術改善教與學,并支持整個教育系統(tǒng)的創(chuàng)新。本報告闡述了共享知識、提供支持和制定人工智能政策的明確需求。報告指出,人工智能是一種快速發(fā)展的識別模式和自動化行動的基礎能力,正越來越多地嵌入各類教育技術系統(tǒng)中。人工智能為解決教育政策優(yōu)先事項帶來了重要機遇,我們必須同時關注預期風險和可能的意外。
2. 定義學校中的人工智能
可以將AI描述為促使技術在學校中發(fā)生兩個重要轉(zhuǎn)變的力量:(1)從獲取數(shù)據(jù)到檢測數(shù)據(jù)模式,以及(2)從提供教學資源到自動化教學和學習過程的決策。與普通的教育技術相比,檢測模式和自動化決策意味著一個人可以將更多的工作委托給計算機系統(tǒng)。開發(fā)人工智能系統(tǒng)的過程可能導致在檢測模式方面出現(xiàn)偏見,并在自動化決策方面產(chǎn)生不公平。因此,教育領導者必須制定政策來規(guī)范人工智能在教育中的開發(fā)和使用。
3.關鍵見解
(1)人工智能使得新的互動方式成為可能。學生和教師可以通過語言、手勢、草圖和其他自然的人類交流方式與計算資源和彼此進行互動。人工智能還可以生成類似于人類的回應。這些新形式的互動可能為有殘疾的學生提供支持。
(2)人工智能可以幫助教育工作者應對學生學習的差異性。借助人工智能,設計者可以預測并解決學生如何成功學習的各種變化,而傳統(tǒng)的課程教學資源是按照中間或最常見的學習途徑而設計的。例如,利用人工智能技術的教育科技可以根據(jù)每個學生的英語能力進行自適應,并提供更多針對英語學習者不同技能和需求的支持。
(3)人工智能支持強大的適應性形式。傳統(tǒng)的技術根據(jù)學生答案的正確性進行調(diào)整。人工智能能夠逐步適應學生的學習過程,而不僅僅是提供正確或錯誤答案的反饋。具體的適應可以使學生通過發(fā)揮自己的優(yōu)勢和克服障礙,在課程中繼續(xù)取得長足的進步。
(4)人工智能可以增強反饋循環(huán)。人工智能可以提供給學生和教師更高質(zhì)量和更多數(shù)量的反饋,并為他們提供推薦資源來促進他們的教學和學習。
(5)人工智能可以支持教育工作者。教育工作者可以參與設計人工智能工具,使他們的工作更出色,并使他們能夠更好地關注和支持學生。
(6)人工智能增加了現(xiàn)有的風險,并引入了新的風險。人工智能增加了教育技術中已經(jīng)存在的風險,尤其是數(shù)據(jù)隱私和安全風險,人工智能由于現(xiàn)有數(shù)據(jù)中存在不需要的模式和不公平的自動化決策算法,增加了新的風險。對于教育系統(tǒng)來說,要從機會中受益,必須最大限度地減少和減輕風險?!度斯ぶ悄軝嗬{圖》是調(diào)查特定人工智能系統(tǒng)潛在風險的良好起點,尤其是當和教育環(huán)境中的特定風險進一步闡述時。
4.建議
(1)強調(diào)“人在回路中”(Humans-in-the-Loop)。我們反對將人工智能視為取代教師的概念。在應用人工智能時,教師和其他人必須“處于回路中”,以便觀察模式并自動化教育過程。我們呼吁所有相關方采納“人在回路中”作為一個關鍵標準。
(2)將人工智能模型與共同的教育愿景結合起來。我們呼吁教育決策者、研究人員和評估人員不僅要根據(jù)結果來確定教育技術的質(zhì)量,還要根據(jù)人工智能工具和系統(tǒng)的核心模型與教學和學習的共同愿景的一致程度來確定。下圖描述了教育工作者需要考慮的人工智能模型的重要品質(zhì)。
(3)使用現(xiàn)代學習原則設計人工智能。此外,實現(xiàn)有效的系統(tǒng)需要的不僅僅是處理“大數(shù)據(jù)”,也不僅僅是數(shù)據(jù)科學。人工智能的應用必須基于已經(jīng)確立的現(xiàn)代學習原則、教育從業(yè)者的智慧,并應利用教育評估界的專業(yè)知識來檢查偏見和提高公平性。
(4)優(yōu)先加強信任。只有當我們信任技術時,技術才能幫助我們實現(xiàn)教育目標。我們的意見征求會顯示對人工智能的不信任是很自然的。因為信任是人們在相互見面和交流的過程中建立的,我們呼吁在協(xié)會、會議和專業(yè)組織中建立信任和建立新興教育技術的可信度標準,以便教育工作者、創(chuàng)新者、研究人員和政策制定者團結在一起。
(5)知會和讓教育工作者參與。除了接收關于人工智能使用的通知和解釋之外,教育領導者必須優(yōu)先考慮告知和讓教育相關方參與,以便他們準備好調(diào)查人工智能如何以及何時適合特定的教學需求和可能增加的風險。解決數(shù)據(jù)隱私是重要的,但加強信任需要更多的是數(shù)據(jù)隱私以外的內(nèi)容:教育工作者需要能夠檢查、解釋人工智能系統(tǒng),并指導人們?nèi)绾纬绞褂萌斯ぶ悄苌傻耐扑]。教育技術辦公室可以在提供信息和促進參與方面發(fā)揮主導作用,配合在教育系統(tǒng)各級組織的活動。
(6)將研發(fā)重點放在解決情境問題和增強信任與安全性上。關注人工智能系統(tǒng)如何適應情境(學習者的多樣性、教學方法的可變性、教育環(huán)境的差異)的研究對于回答問題“人工智能在教育中的具體應用是否有效,如果有效,對誰有效,在什么條件下有效?”至關重要。我們呼吁研究人員及其資助者優(yōu)先考慮人工智能如何解決學習變異性的長期問題,并探討如何在發(fā)現(xiàn)模式并向?qū)W生和教師推薦選項時將情境因素考慮在內(nèi)。此外,研究人員應該加速關注如何提高人工智能教育系統(tǒng)的信任和安全性。
(7)制定專門的教育指南和防護措施。數(shù)據(jù)隱私法規(guī)已經(jīng)涵蓋了教育技術;此外,數(shù)據(jù)安全已經(jīng)是學校教育技術領導者的優(yōu)先事項。為了應對人工智能的新能力以及相應的風險,需要對現(xiàn)狀進行修改和增強。我們呼吁生態(tài)系統(tǒng)中所有相關方參與,共同制定一系列指南(例如自愿披露和技術采購清單)和防護措施(例如對現(xiàn)有法規(guī)的增強或額外要求),以實現(xiàn)安全有效的教育人工智能應用。
(本文由中國教科院比較教育研究所張永軍編譯,由于水平優(yōu)先,難免有錯誤,譯文僅供參考。點擊左下角“閱讀原文”即可下載這份71頁的最新報告)
評論排行