導言
本期前沿觀察我們聚焦AI和教育的未來,本文原標題“Artificial Intelligence and the Future of Teaching and Learning”,由美國教育技術辦公室于今年5月出品。報告對當下人工智能在教育領域的應用和挑戰做了詳盡的闡述,討論了為 "人工智能 "分享知識和制定政策的明確需求,并提出指導進一步政策制定的建議。如何使用人工智能改進教學工作、準備和支持教師進行規劃和反思?如何實現值得信賴的人工智能教育?以及如何關注教育技術使用的“長尾”等...
"人工智能 "是一類快速發展的基礎能力,越來越多地嵌入到所有類型的教育技術系統中,同時也向公眾提供。我們將認為 "教育技術"(edtech)既包括(a)專門為教育用途設計的技術,也包括(b)在教育環境中廣泛使用的一般技術。本報告中的建議旨在讓教師、教育領導 、政策制定者、研究人員以及教育技術創新者和供應商參與進來,共同解決人工智能(AI )在教育中應用時出現的緊迫政策問題。
人工智能可以被定義為“基于關聯的自動化”。當計算機根據數據中的關聯(或從專家知識推導出的關聯)自動推理時,人工智能發生了兩個根本性的轉變,并將計算超越了傳統的教育技術:(1)從捕獲數據到檢測數據的模式,以及(2)從提供對教學資源的訪問到對教學和其他教育過程的自動化決策。檢測模式和自動化決策是可以委托給計算機系統的責任級別的飛躍,但同時,開發人工智能系統的過程可能會導致模式檢測方面的偏見和決策自動化方面的不公平。因此,教育系統必須管理其對人工智能系統的使用,充分發揮人工智能改善教育的機會,認識并應對即將出現的挑戰。
作者 | 美國教育技術辦公室 編譯丨智成企業研究院 崔帥
(正文4000字,預計閱讀時間6-8分鐘)
01 教育界對人工智能的興趣日益濃厚
當前,許多改進教學和學習的事項尚未得到滿足,教育工作者尋求技術的方法來解決這些事項。像我們所有人一樣,教育工作者在日常生活中正在使用人工智能驅動的服務,例如:家里的語音助手,可以糾正語法、完成句子和寫文章的工具,以及手機上的自動旅行規劃等。許多教育工作者正在積極探索人工智能工具,因為它們剛剛向公眾發布。教育工作者看到了使用人工智能驅動的功能的機會,例如通過語音識別等功能來增加對殘疾學生、多語種學習者和其他受益的學生的支持。
同時教育工作者也意識到新的風險。有用、強大的功能也可能伴隨著新的數據隱私和安全風險。教育工作者認識到,人工智能可以自動生成不適當或錯誤的輸出,因此要警惕人工智能創建的關聯或自動化可能會放大不必要的偏見,他們擔心算法生成的建議是否公平。教育界的每個人都有責任利用好的東西來服務于教育優先事項,同時也要防止人工智能被整合到教育技術中可能產生的危險。
為了制定教育技術的指導方針,各方專家需要與教育界人士密切合作,其中包括教育領袖-教師、教師、支持人員和其他教育工作者及研究人員;政策制定者;教育技術的倡導者和資助者;技術開發人員;社區成員和組織;學習者及其家人/監護者。最近,通過與教育界人士的活動,我們注意到教育界對人工智能的興趣和關注急劇增加。例如, 2021年的調查發現,各種技術系統的開發人員,包括用于學生信息、課堂教學、學校后勤、家長教師溝通等技術的開發者,希望在他們的系統中添加人工智能功能;另外。通過2022年6月和8月美國舉行的四場聽證會,700多名與會者出席,情況變得清晰,各派認為,現在需要采取行動,以加速教育技術中人工智能的增長。
2022年底和2023年初,ChatGPT為代表的聊天機器人橫空出世,通過人工智能寫論文、創建課程計劃、制作圖像、為學生創建個性化的作業等成為了新的探索方向。從社交媒體、會議和新聞媒體上的公開表達中,該部門更多地了解了人工智能聊天機器人的風險和好處。
02 教育中采用人工智能技術優劣互現
首先,人工智能可能使教育優先事項能夠以更好的方式、更大的規模和更低的成本實現。解決學生因疫情而未完成的各種學習是一項政策優先事項,人工智能可能提高學習資源對學生的優勢和需求的適應性。改善教學工作是另一項優先事項,通過自動化助手或其他工具,人工智能可能為教師提供更大的支持。同時,人工智能還可能使教師能夠在時間不夠時向個別學生提供支持。此外,人工智能還可能使課程資源更具定制性,以滿足當地需求。正如我們在語音助手、地圖工具、購物推薦、論文寫作能力和其他熟悉的應用程序中所看到的那樣,人工智能可能會增強教育服務。
其次,緊迫性和重要性來自對系統級風險的認識和對潛在未來風險的焦慮。例如,學生可能會受到更多的監視、一些教師擔心他們可能會被取代、以及算法偏見導致的歧視等。人工智能的一些用途可能是基礎設施和無形的,這引發了對透明度和信任的擔憂。人工智能通常帶著魔力的光環出現在新的應用程序中,但教育工作者和采購政策要求教育技術展示效力。人工智能可能會提供看似真實的信息,但實際上是不準確的,或者缺乏現實基礎。最重要的是,除了眾所周知的數據隱私和數據安全風險外,人工智能還帶來了新的風險,例如規模化模式檢測器和自動化的風險,這會導致“算法歧視”(例如,向某些學生群體推薦的學習機會或資源存在系統性不公平)。
第三,由于可能出現意想不到或意想不到的后果,緊迫感上升。當人工智能使教學決策能夠大規模自動化時,教育工作者可能會發現不想要的結果。
舉個簡單的例子,如果人工智能通過加快一些學生的課程進度和放慢其他學生的進度來適應不同人群學習能力,成績差距可能會擴大。在某些情況下,可用數據的質量可能會產生意想不到的結果。例如,一個基于人工智能的教師招聘系統可能被認為比基于人類的簡歷評分更客觀。然而,如果人工智能系統依賴于質量較差的歷史數據,它可能會降低那些可以為學校的教學隊伍帶來多樣性和天賦的候選人的優先級。
總之,現在必須在教育中解決人工智能問題,以實現關鍵機遇,預防和緩解突發風險,并解決非預期后果。談及人工智能在教育中的應用有哪些挑戰,根據報告中的描述,人工智能在教育中的應用面臨以下五大挑戰:
(1)如何實現值得信賴的AI教育;
(2)如何關注教育技術使用的“長尾”;
(3)如何將人工智能置于正確的位置,教育工作者和其他成年人可以有效地利用這些工具進行教學和學習;
(4)人工智能并不完全符合學習目標,需要設計教育環境,將人工智能置于正確的位置;
(5)人工智能甚至還沒有準備好將學習與學生社區和家庭的獨特優勢聯系起來。
03 人工智能在教育中的政策
斯坦福大學以人為中心的人工智能研究所(Stanford Institute for Human-Centered AI)發布的《2023年人工智能指數報告》(2023 AI Index Report)記錄了對人工智能的投資顯著加速,以及對道德(包括公平和透明度問題)研究的增加。當然,對倫理等主題的研究正在增加。
該報告發現,25個國家對人工智能的立法表現出了驚人的興趣。在美國,多項行政命令的重點是確保人工智能是值得信賴和公平的,白宮科技政策辦公室推出的一份人工智能權利法案——藍圖(Blueprint),提供了有助于實現這一目標的原則和實踐。這些舉措,以及行政和立法部門開展的其他與人工智能相關的政策活動,將指導人工智能在社會各部門的使用。在歐洲,歐盟委員會最近為教育工作者發布了關于在教學和學習中使用人工智能和數據的道德準則。
人工智能正在快速發展,預示著需要國家政策應對的社會變革。除了針對社會各部門的廣泛政策外,還需要針對教育的具體政策來應對現有框架內的新機遇和挑戰。人工智能還會自動提出建議并采取行動來支持學生的學習,因此教育工作者需要考慮這些建議和行動如何符合《殘疾人教育法》(IDEA)等特別法律。
人工智能正在呈指數級發展,用于生成圖像和文本的強大的新人工智能功能向公眾開放,并導致人們創建文本和圖像的方式發生變化。人工智能的進步不僅發生在研究實驗室,也出現在主流媒體和教育出版物上。
研究人員已經闡述了一系列關于道德人工智能的概念和框架,以及相關概念,如公平、負責任和以人為本的人工智能。但同時,也迫切需要制定保障措施和指導方針,使人工智能進步的教育應用更加安全,特別是考慮到人工智能融入主流技術的步伐正在加快。由于政策的制定需要時間,政策制定者和教育機構需要從現在開始共同制定要求、信息披露、法規和其他結構,為所有機構——尤其是學生和教師——塑造一個積極和安全的未來。
迫切需要實施以下政策:
1. 利用自動化來提高學習成果,同時保護人類的決策和判斷;
2. 根據適合教學情況的準確信息,詢問人工智能模型中的底層數據質量,以確保教育應用中公平公正的模式識別和決策;
3.能夠檢查特定的人工智能技術,作為更大的教育技術或教育系統的一部分,研究AI如何增加或破壞學生的公平;
4. 采取措施保護和促進公平,包括提供人力制衡,限制任何破壞公平的人工智能系統和工具。
行業資訊、企業動態、業界觀點、峰會活動可發送郵件至news#citmt.cn(把#換成@)。
海報生成中...