楠木軒

教育人工智能倫理風險如何消解

由 公冶爾藍 發佈於 科技

人工智能正在成為國際競爭的新焦點,同時也為人類社會帶來了新的發展機遇。機器學習、自然語言處理、情感計算、虛擬現實等技術的迅猛發展,不僅為學生獲取更高質量的教育體驗提供了有力支撐,也有助於進一步擴展教師自由發展的空間。但與此同時,智能導師系統、智能數據挖掘等人工智能技術在教育應用中面臨眾多倫理問題,例如數據泄露、公共安全、惡意競爭等。

人工智能(Artificial Intelligence,簡稱AI)是計算機科學的一部分,包括研究、開發用於模擬、延伸和擴展人的智能的理論、方法、技術及應用系統等方面。教育人工智能倫理則是用以規範教育人工智能開發及應用過程中關係、行為的道理及準則。
教育人工智能雖具備強大的數據整合與分析能力,但同時也會引發一系列新的倫理風險,系統來看,其主要體現在以下四個方面。
其一,信息安全。人工智能助力教育教學的同時,不僅為師生髮展創造機遇,也產生了海量教育數據如個人身份信息、行為軌跡、學習偏好等。若此類數據並未得以有效保護或者被非法使用,則會引發一系列信息安全問題,例如個人隱私資料被惡意泄露及不正當使用、電子郵件的惡意推送、非法電子監控、網絡詐騙、數據侵權等,師生的隱私權利在人工智能透視鏡下將變得十分脆弱。
其二,目標衝突。教育人工智能的目標衝突風險主要由人工智能開發商、用户的基本目標不一致所產生的。對私營部門來説,由於商業利益至上的理念根深蒂固,可能會依託人工智能技術工具過度追逐私利。而且,不少教育人工智能設計者與開發者缺乏致力於“教育公共服務”的責任意識,欠缺對教育成長的價值關懷。若人工智能開發商、學校管理團隊未在人工智能的教育應用方面達成目標共識,則師生自身利益難以得到長期的有效保障。
其三,缺乏制度約束。當前,用於約束教育人工智能開發與應用的制度體系尚未健全,教育用户的合法權益難以得到有效保障。而且,專業制度約束體系的缺位、失位及錯位成為導致教育人工智能不道德行為出現的重要因素。若缺乏有效的技術標準與“強制性”法律手段加以規約,教育人工智能的設計開發與實踐應用可能會逐漸偏離教育價值與人文立場。應對違反教育人工智能倫理規範的行為與舉措實施問責與制裁,以便合理規約人工智能開發人員、教育用户等人的行為。
其四,過度資源依賴。當前,機器學習和算法推薦雖然可實現教學資源的個性化推送,但這種看似公平合理的人工智能應用,隱含着不為人知的算法歧視與技術偏向,可能導致學生所獲取的教學資源高度同質化,學生逐漸形成資源依賴,不願跳脱僵化思維,進而影響了學生視野的開闊及創新發展。而且,教師也可能為節省自身時間及工作成本,過度依賴人工智能推送的教學資源,喪失自身對於教育教學的獨特理解及思考。
理清相關倫理風險的消解路徑,有利於促使教育能夠合乎道德地利用人工智能機遇,並實現公平和道德的教育決策。
第一,注重智能時代師生信息素養培育。首先,需注重師生信息分辨力培育。學校應引導師生對於信息資源獲取及篩選、信息倫理風險等問題的理解與思考,增強師生信息分辨能力。其次,關注師生信息反饋力培育。學校應引導師生合理反饋人工智能的信息安全、倫理、舒適感問題,並構建暢通的信息反饋渠道,以便持續改善人工智能的教育應用成效。
第二,完善教育人工智能算法審查及決議機制。首先,應注重構建人工智能算法的審查機制。人工智能算法的運行偏差有可能持續存在,甚至會被放大。應制定有關人工智能算法培訓和測試的基本規範與安全協議,對人工智能算法模型的前提假設進行教育本質層面的剖析,尤其應審查教育人工智能算法系統是否包含算法歧視與濫用問題,以便能最大限度保障用户數據及信息的精確性、隱私安全以及倫理規範。其次,需明確人工智能教育應用方案的決議機制。政府、學校、企業等均需秉承集思廣益的決策原則,鼓勵不同意見的提出與開放討論,思考通過某種形式的投票與評價來決定教育人工智能應用的最優決定,致力於實現教育公共利益訴求的合理滿足。
第三,加強人工智能及數據的法規監管。當前教育人工智能發展暴露出眾多技術及數據失範問題,因此,要完善智能技術及教育數據風險問責機制,實現智能技術及數據的規範監管。首先,可嘗試制定及頒佈具有法律約束力的教育人工智能法規,規範技術開發及應用的倫理責任,非法開發、使用及銷售人工智能的行為將面臨法律後果及責任。其次,注重教育人工智能應用過程中的數據監管,構建專業的數據隱私監管組織或機構。隱私監管組織或機構應在某項人工智能技術推廣應用之前,評估該技術的數據安全情況,避免非法分享和使用數據。
第四,加強教育人工智能倫理風險排查與評估。實現有道德的教育人工智能,不可僅僅依靠技術改進,還應採用“系統化思想”審視與排查教育人工智能的倫理風險,這對於最大化保障教育公共利益是至關重要的。教育人工智能倫理風險的存在不僅涉及開發階段,也涉及生產和分銷階段。除了確保教育人工智能設計的安全性外,還應仔細評估智能算法倫理風險、教育數據倫理風險等的危害等級,以便及時制定教育人工智能倫理風險化解方案。
第五,構建校本化教育人工智能倫理規範體系。校本化的教育人工智能倫理規範體系必須高度公正且具有可解釋性,明確規定人工智能在學校應用的基本要求、審查程序及倫理規範,並對技術開發商、學校管理人員等人在教育人工智能倫理監管的職責、權利和義務予以合理劃分與限定。學校管理人員可基於學校層面教育人工智能倫理規範體系,為人工智能在學校教育中的應用設置許可權限。若某項人工智能技術在應用中產生了重大倫理風險,則應根據倫理風險的評估等級對人工智能的應用許可權限進行適當限制。
(作者:趙磊磊系江南大學教育學院副教授;代蕊華系華東師範大學教育學部教授、教育部中學校長培訓中心主任。本文系中國高等教育學會2020年專項重點課題“高校信息化安全風險防範與化解研究”[2020XXHD04]成果)