摘要:当前,智能技术与教育的全过程融合正推动教育方式发生深刻转变,同时衍生出算法歧视、技术滥用、隐私泄露和教育主体错位等技术伦理风险,如何规避风险以最大化享受智能技术红利成为智慧教育发展的重要议题。为此,文章首先分析技术伦理相关报告文件,刻画智慧教育在智能技术、教育主体、教育数据和教育监管四个向度的技术伦理取向;然后,文章剖析“教-学-管-评-练-研”六大智慧教育典型场景下的差异化技术伦理风险表征,将其产生根源归为技术工具失信、教育实践失范和师生素养不足三个层面;最后,文章从技术升级、风险管理、问责监管、数据流动和素养提升角度给出风险防范与治理建议,助力智慧教育健康可持续发展。
关键词:智慧教育;智能技术;伦理规范;风险表征;风险规约
引言
智能技术在变革教育领域的同时,也衍生出算法歧视与不透明、技术滥用与依赖、数据隐私泄露、教学主体情感交流危机和权力边界模糊等一系列伦理问题[1][2],这引发了国内外社会的广泛关注。为此,2019~2021年期间,联合国教科文组织相继发布《北京共识——人工智能与教育》《人工智能伦理问题建议书》等多项报告[3][4],呼吁和引领人工智能教育应用的伦理规约和可持续发展。当今时代,消解伦理风险,实现技术向善已成为全球教育领域面临的共同挑战[5]。
智能技术的教育应用催生教育形态的进化,智慧教育作为教育信息化发展的高端形态,契合教育数字化转型的发展目标,其实践取径的特征之一便是合乎科技伦理的技术应用[6]。随着新兴智能技术和产品不断涌现,其在赋能教育的同时也引发教育领域对技术伦理风险的担忧,如何规避风险以最大化享受智能技术红利成为智慧教育发展所关注的重要议题。然而,技术伦理规范的革新相较于智能技术教育应用实践处于滞后地位,当前教育领域关于智能技术的伦理研究主要集中在原则构建和抽象风险剖析方面,总体而言缺乏超脱智能技术影响力的全面伦理框架[7],难以支撑教育形态朝向具备更高技术丰富度和系统融合性的智慧教育的健康发展需求。面对教育政策制定者、研究者、实践者、产品开发人员和其他利益相关者对智慧教育技术伦理规范认知与把握的差异,有必要系统论述面向智慧教育的技术伦理取向、风险表征、成因及其规约问题,弥合技术伦理“应然取向”与其风险“实然困境”的割裂差距,助力教育形态向智慧教育健康可持续发展。
一 应然取向:面向智慧教育实践的技术伦理规范
“伦理”一词指人与人相处应遵循的道德准则,包括客观的伦理关系及其外在规约[8],其中技术伦理可界定为在技术开发和应用等过程中,涉及技术与人、技术与社会之间关系的道德和准则[9]。2017年,国务院发布《新一代人工智能发展规划》,提出要推动人工智能在教学、管理、资源建设等方面的全流程应用,实现日常教育和终身教育定制化[10],而当前智慧教育实践面临诸多智能技术介入教育全过程的冲击,技术伦理风险日益扩大化,厘清其技术伦理“应然取向”可为其规范实践提供共识理解和原则指导。
1 取向分析
近年来,许多国家和机构均发布了包含技术伦理内容的相关政策文件及报告,以规避智能技术带来的负面影响。聚焦到教育领域,虽然相关的新兴智能技术伦理报告文件不断更新迭代,为厘清面向智慧教育实践的技术伦理规范提供了坚实基础和前瞻指导,但已有研究对教育领域智能技术伦理原则的提炼大多趋于一致,难以跳出通用领域智能技术伦理规范的技术逻辑,致使教育性不足。本研究在梳理近5年7份典型教育领域智能技术伦理相关报告的基础上,通过内容分析提取其中的伦理关注内容(如表1所示),以构建更贴切智能技术教育应用本质、价值取向和时效性的技术伦理规范模型,发现教育领域智能技术伦理的核心关切聚焦于“智能技术”“教育主体”“教育数据”和“教育监管”四个向度,可作为智慧教育技术伦理取向模型的一级结构收纳各项技术伦理要素或原则。
表1 教育领域技术伦理相关报告的内容分析
2 模型建构
基于表1中技术伦理取向的内容分析,本研究提出智慧教育技术伦理取向模型(如图1所示),以系统、结构化手段呈现面向智慧教育实践的智能技术教育应用需要关注的技术伦理规范,其最终目的是使智能技术在合乎伦理规范的基础上服务于智慧教育“教-学-管-评-练-研”全流程典型应用场景。
接下来,参考上述报告中的相关内容给出各伦理取向的描述性解释:①智能技术向度涵盖算法技术与产品的可解释、准确、安全和稳定等取向。智能技术教育应用要考虑算法的可解释性问题,追求技术在输入输出、性能表现、结果生成过程中运行原理和决策过程的可公开、可理解和可追溯,提高可信度;同时需要考虑其分析结果和生成内容的准确性,避免出现虚假内容误导;安全则指在算法、人机交互设计和产品形态上的安全合规和不伤害特征,实现安全保障;稳定体现为智能教育系统的鲁棒特征,以及在应对风险侵入情况下稳健发挥的能力,避免出现技术异常结果。②教育数据向度包括数据安全、数据规范等取向。数据安全指教育数据在采集、存储、使用、共享和删除等过程中需确保数据安全,避免泄露和滥用;数据规范则需要追求数据采集、处理、存储、分享的格式和业务标准化,保证数据的质量和通用性,实现系统间数据的有序健康流动,同时建立真实、准确、客观和多样的教育训练数据集,避免数据偏见。③教育监管向度关注问责、监管和协同治理等取向。问责的作用在于建立法规条例,以明确智能技术在教育开发与应用环节中各主体的责任和义务,引导技术合理运用、避免因担责不明引发更多乱象;监管在于实现智能技术教育应用的可监察、可评估和可管理,避免技术伦理风险治理失序;不同利益攸关方采取包容性方法开展协同治理,有助于使技术惠益为社会全体共享并推动其可持续发展。④教育主体向度关注公平、控制权、人的尊严和隐私保护等取向。公平指技术资源在不同国家或区域、种族、个体、性别、残障情况、语言群体等方面的非歧视、访问与获得平等的普惠表现;控制权体现在教育主体能够根据个体意愿自由决定技术的使用和终止,以及在各使用环节实现对技术的管理,避免技术失控;人的尊严是每个人生来具备且不可侵犯的,智能技术在整个应用生命周期中需要尊重教育主体的人权和基本自由;隐私保护指智能技术教育应用过程中对个人隐私的接触要合理、合规和克制,避免侵犯个人隐私。
图1 智慧教育技术伦理取向模型
二 风险表征:智慧教育典型场景下的技术伦理风险
智能技术与教育融合带来了诸多创新和便利,创生出智慧平安校园、机器人学伴、虚拟仿真实训等典型应用[18],在变革教学模式、学习方法、教育管理、教育评测、技能训练、知识生产方式等方面取得了显著进展。然而,智能技术的发展及其规模化教育应用也引发了一系列伦理风险问题。教育是复杂的社会活动,真实教育场景下所涉及的技术种类和业务实践具备复杂性、多元性和场景异质性的特点,其中的技术伦理风险也存在不同的表征形式。为此,本研究依次从“教-学-管-评-练-研”六大智慧教育典型业务场景切入,明晰其“实然困境”。
1 教育机器人误用冲击教学主导权与师生关系边界
从计算机辅助教学、智能导师系统到教育机器人,技术发展促成了人机关系从辅助到协同的迭代升级[19]。然而,在教学中引入教育机器人使“师-生”二元关系向“师-机-生”三元关系转换时,如果整合不当,则可能会对学生的学习方式和情感发展、教师的角色和教学主导权产生负面影响。教师是学生的引导者和指导者,教育机器人在一定程度上能够削弱甚至替代人师的角色和权力,这种教学主体错位会造成师生之间的人际接触和互动沟通减少[20],学生可能更多地依赖机师而不是人师,导致师生关系、生生关系和人机关系发生结构异化。此外,由于儿童能够将人类的认知、行为和情感特征归因于机器人[21],而教育机器人不仅具有技术工具属性,还具备外显的认知、行为和情感表现能力,因此这种类人属性可能导致教育机器人在教学中的功能和角色边界更加复杂。《COMEST机器人伦理报告》同样指出,机器人技术能够模糊人类主体和技术客体之间的界限,其中角色问题是教育机器人的重要关注点,即教育机器人应该被视为导师、工具还是同伴,以及教育机器人能在多大程度上取代教师[22]。目前,教育机器人正处于发展初级阶段,存在教学性不足、反馈性差、感知力欠缺等问题[23],其负面或失控行为的道德和法律责任也面临追责归因问题。
2 算法歧视阻碍学生的个性化学习和全面发展
社会发展促使教育需求正从标准化教学走向个性化学习和终身学习,教学服务也由标准化供给向个性化服务转变[24]。智能教育系统致力于根据学生的能力、学习风格等特质提供个性化和定制化的学习内容与路径,然而由于程序模型的“算法歧视”,以及数据采集存在的片面和偏差问题,致使算法在面对不同数据主体时可能会进行区别对待,容易在资源推荐和教学决策方面产生能力偏见、性别偏见、种族偏见等歧视性后果,这将导致个性化学习目标未能真正实现、学习结果两极分化和教育不公平现象的加剧。此外,算法推荐技术还存在“信息茧房”效应,当学生受到“算法针对用户兴趣而有目的推荐”机制的影响,导致接收信息和学习的路径单一化、观念日趋片面化时,其固有观念会不断强化,智能技术反而可能引发学生整体的价值偏见和歧视[25],不利于学生综合素质的全面发展。
3 教育数据管理失范增加隐私泄露与滥用风险
教育数据涵盖教育实践活动所产生或关联的各类数据,具备数据从产生、采集、拥有到使用的循环特征[26],而智能技术对多元教育数据的大量采集和分析存在隐私侵犯、数据泄露与滥用的伦理风险。例如,在学校教育中,智慧平安校园监控、人脸识别打卡设备乃至课堂监测系统日益压缩学生的隐私空间,“超级全景监狱”之下一切教与学活动开放透明且无可遁形[27];学生个人信息、学业成绩等数据也可能遭受教务管理人员失职、未经授权的访问、黑客攻击和系统漏洞的安全威胁,引发数据泄露和篡改风险,影响教育主体的信息、身心和物质安全。美国政府问责局在2020年发布的一项调查表明,在99起数据泄露事件中有数千名K-12学生受到负面影响,其中学业成绩和特殊教育记录等信息是常见的泄露类型[28]。在线教育中,学生在教育平台和客户端应用中的个人隐私数据则可能被贩卖和滥用,以达成不当的商业目的、决策偏见等。智能教育产品对用户信息的不当收集与滥用现象屡见不鲜,近年来工信部在各批次关于侵害用户权益行为的商业APP(SDK)中曝光了大量违规收集个人信息和过度索取权限的案例,甚至还有一些学生的个人数据被用于欺诈活动、身份盗窃或冒名顶替等违法行为。
4 过度依赖机器评测影响教师的评判能力和决策公平
教师的教学决策是影响教学实践效果的重要因素[29]。数据驱动的各类智能化评价工具能够从认知、情感、行为等多方面分析学生的学习状态和认知水平,形成学习者画像,并给出学业预警、反馈建议等信息,有助于教师调整教学策略和安排进度,简化其脑力劳动和重复工作。然而,技术工具的自动化、高效率容易使部分教师滋生对机器自动化评测结果和推荐策略的过度依赖,成为被智能工具决策操纵的机械执行者,导致教师忽视自身教育实践智慧,钝化教学情境评判能力,遮蔽自身对学生情感状态的感知,并逐渐丧失作为教学决策者的主体性价值和角色能动性[30]。在这种情况下,不仅教师决策的有效性难以得到保证,教师自身专业技能的发展也可能受到负面影响。此外,算法的“黑箱”特征使决策过程不透明,机器评测所使用算法和数据质量的不可靠性也可能影响教师的决策公平。如果算法模型存在错误假设、不准确数据或忽略对学生个体差异和特殊情况的考虑,就可能影响机器评测结果的准确性和可信度,对评估、学习路径规划等产生不当影响,导致学生受挫或得到不公平对待,甚至影响其未来发展。
5 虚拟环境沉溺引发学生道德失守的隐忧
VR/AR/MR技术能够有效降低实训成本、强化技能练习、规避真实实验危险、跨越时空隔离限制并增强学习趣味性,然而虚拟环境的沉浸、临场、多感官交互特征模糊了真实和虚拟的边界,真实世界的伦理问题可能在虚拟世界中重现和异化,并反过来对现实产生影响。例如,虚拟环境存在生命的有限与无限、教学主体的尊严问题,但由于虚拟世界对道德行为准则的遵守缺乏监管,失去了对使用者不良操作行为及其后果的限制,容易造成道德感滑坡;虚拟环境中虚拟师生化身或代理角色的嵌入以及虚拟社交形式的出现,扩展了多元教学主体间的交互关系,师生和学生群体之间可能因为身份的虚拟性而忽略社交礼仪,甚至产生新型欺凌;学生在虚拟现实环境中的虚拟自我表征也会对使用者在真实世界的表现产生影响,使用者对虚拟化身“理想”特质的认同感可能影响其在真实世界中的认知、态度和行为[31];VR教育游戏产生的心流体验也会诱发物化移情和失去自我的风险,VR的过度使用同样容易使学生产生行为性依赖和技术成瘾[32]。此外,VR教育产品开发及其技术尚不成熟,虚拟与真实世界在参数表征方面存在差异,容易使学生产生客观知识的记忆性错误、操作经验结果分析的错误等[33],从而出现认知偏差;VR技术本身还容易触发晕动症,存在对师生用户真实本体的技术安全风险。
6 生成式AI滥用导致学生课业研究作弊及创造力退化
在教育领域,以ChatGPT为代表的AI大模型能够汇聚、加工和生成个性化的学习资源[34],然而其创作内容可能存在事实性错误,具有内容误导和欺骗、虚假内容传播等隐匿性风险,当其不受合理约束而滥用时,容易导致学生课业研究作弊及创造力退化等问题。例如,学生过度依赖ChatGPT这类生成式AI完成课业学习和研究,容易出现投机取巧、课业舞弊等现象,引发学术伦理问题;学生可能会倾向或过度依赖于算法提供的推荐材料,而忽略对问题的主动探索和独立思考,导致学习能力下降以及自身批判性思维能力和创造能力的退化。目前,生成式AI技术伦理风险已被各方关注,如斯坦福研究团队开发了DetectGPT以避免大语言模型在高等教育的不良入侵;国家网信办[35]于2023年7月发布《生成式人工智能服务管理暂行办法》,明确提出生成式AI服务提供者应当采取有效措施防范未成年人过度依赖或者沉迷。
三 产生机理:智能技术教育应用的技术伦理风险成因
随着智能技术介入教育多元场景,教育实践中的人机协同程度不断增强,本研究从“人机共教、人机共育”的分析视角,将智能技术教育应用的技术伦理风险成因归于“技术工具-教育实践-师生素养”三个维度。
1 技术工具失信
算法设计中的偏见和“黑箱”特性以及智能教育产品的可用性局限,是技术伦理风险产生的核心原因:①算法本身的设计局限。首先,算法存在偏见。算法是技术人员思维逻辑的外延,根据人类思维方式编码形成的分类标注方式进行训练,得到的模型也带有人的价值观念和偏见,从而映射到算法的决策行为;受限于教学活动本身的复杂性,教育数据的采集难以保证全面性和准确性,算法在训练过程中也可能存在带有偏差的数据,导致算法歧视的固化,加剧“偏见进,偏见出”现象。其次,算法存在“黑箱”特征。大规模数据驱动的算法在神经网络模型层面包含的复杂结构和参数数量级远超人类的理解范畴,这使算法从输入到输出的内在运行逻辑难以被人类洞悉,算法决策的透明度不够且难以审查,可信度难以保证;教学过程是充分发挥学生与教师主观能动性的过程,算法对数据相关关系的刻画也不能完全解释实际教学中因果关系的产生机制。②智能教育产品的可用性局限。首先,教育实践对智能教育产品的可用性和有效性提出了更高的要求。然而由于技术开发与教学一线的关联性较弱,甚至存在脱节现象,因此技术开发人员难以洞察真实的教育需求,并理解教育过程,导致教育产品功能与教学实践需求匹配程度仍然存在较大的提升空间。其次,智能教育产品的研发标准不明,安全性和规范性难以得到保证。多元技术叠加会导致安全漏洞风险的产生,在技术系统不合规、稳定性和安全性难以抵抗风险的侵入时,便会构成对教育主体权益的损害。
2 教育实践失范
在智能技术介入教育生态的过程中性质迥异的要素不断融合,教育系统愈加错综复杂,对教育实践提出了更高的要求。这种情况下,技术融合教育实践有效模式的失灵和伦理风险监管机制的缺失会导致技术伦理风险不受控制:①技术融合教育实践有效模式的失灵。新技术的不断涌现和更迭,扩展了教育实践边界,形成了日益多元的智能化教育场景。在多样化智能技术加持的教学环境中,教学模式的选择和应用也更加复杂,当教育者面临不同的技术选择,但缺乏有效教学模式指导及其开展经验支持时,在缺乏风险管理的情况下可能导致技术不当整合和盲目使用等风险及其不良后果的产生。例如,随着机器的智能程度不断增强,其能够处理的任务范围不断扩大,教师如何在人机协同教学过程中确定与之协同的机器类型以及人机之间的角色、任务分配方案,是智能时代人机协同教学模式建构需要考虑的重要方面[36],其可以避免教学主体错位问题的产生。②伦理风险监管机制的缺失。在智能技术教育应用中,相关的技术伦理风险监管机制是规范技术使用和人身道德的“守门人”,如果没有制定明确的政策和准则,就可能导致教育机构和教育实践者在应用智能技术时缺乏责任感和规范约束。近年来,风险监管机制的缺失使不当行为问题日益凸显。例如,在教育数据管理期间,教师、管理者或其他工作人员均可接触数据,这导致行为规范难以统筹管控[37],师生教育数据和身份信息在不知情的情况下被私自贩卖的情况层见叠出[38],教育领域问责监管机制的缺失无疑会造成技术应用的灰色地带,滋生不良违规行为。
3 师生素养不足
技术应用的主体是人,师生的数字素养是智能技术在教育中合理运用的关键。在教育实践中应用智能技术时,师生不仅需要具备相关的技术知识、技能等技术素养,还要具备相应的态度、价值观等伦理意识,而两者的不足可能会引发技术伦理风险的产生:①师生技术知识与技能方面的技术素养不足。如果师生的技术知识与技能不足且缺乏相应的素养教育,便不能正确、适度使用智能技术,可能出现过度依赖、人为失误和能动性被技术消解的情况;技术知识与技能的缺乏也可能导致教育工作者无法妥善维护技术系统,增加技术故障和数据泄露等风险产生的可能性,这些因素都会对智能技术教育应用效果产生不良影响。②师生的伦理意识也在规范教育实践中起重要作用。如果教师对智能技术伦理风险缺乏足够的认知了解,就可能无法正确引导学生使用技术促进自身的学习和发展;而学生如果不具备较强的隐私保护意识,缺乏批判性思维和辨识虚假信息的能力,其心智也会被大量鱼龙混杂的错误不良信息所误导,影响未来的行为实践。
四 行动建议:面向智慧教育发展的技术伦理风险规约
基于上述成因剖析,本研究提出面向智慧教育发展的技术伦理风险防范和治理建议,以期助力教育主体、智能技术与教育实践和谐共进发展,促成教育形态向智慧教育全方位跃迁。
1 提升智能教育产品的可用性
企业作为智慧教育服务的提供者,应承担产品服务和技术保障的责任,提高产品的可用性:①严格强化研发标准,规范智能教育产品的设计开发及服务。在产品开发前应深入了解真实的教育需求和应用条件,确定系统无缝集成和数据流动所需的数据采集、传输、处理规范,如数据标准化、网络安全通信协议、API接口等使用设计,避免产品功能设计冗余,以及因为平台数据难互通和业务流程不连贯造成信息孤岛现象;在产品开发中完善对系统数据加密处理、访问控制与权限管理、网络和系统安全、数据备份与恢复等技术安全保障措施的开发;在产品原型形成后开展系统测试与评估,及时修复漏洞问题,保障产品的安全稳定;在产品推广中遵循伦理规范,保障用户的权益和隐私。②升级智能教育产品中算法可解释性的解决方案,推动智能教育产品走向可信赖、负责任的技术发展方向。提高算法可解释性需要从算法生命周期的各个步骤介入,如在训练数据集准备环节避免数据偏见;在自动化决策模型构建中,综合考虑学生背景、学业成绩、兴趣风格等个体差异和其他特殊情况,确保决策的公正性和合理性,防范算法歧视和决策偏差;在不同教育应用的部署场景中,可将全局可解释性和局部可解释性纳入考虑范畴,为师生提供有针对性的模型性能指标和决策因素权重等信息,提高算法的透明度。
2 加强技术引入教育的风险管理
学校是智慧教育的重要承担者和建设者,通过制定智能技术风险评估与管理机制,为师生提供安全的智能教学环境:①建立风险评估与应对机制。在技术引入前明确技术应用的目标和范围,确保技术与教学目标相契合;充分了解其适用性与局限性,明确潜在风险和应对措施,对智能教育产品进行全面的风险评估;在开展技术的试点实践时,学校应进行充分的准备与测试,保证技术的稳定性和可靠性,避免因技术问题而影响师生正常教学活动。②推广技术管理与运用经验。学校可为新技术的应用实践建设良好的智能教学环境,为教师组织相关技能培训,培育典型智能技术教育应用案例和实用教学模式,形成并推广有效的智能技术管理和运用经验。
3 建立数据保护与问责监管机制
政府在智慧教育发展中担负着引导与监管的责任,应提供技术伦理风险规约的顶层设计,推动智能技术与教育有机融合与和谐共进:①加强教育数据的隐私保护和使用规范。首先,建立教育数据分级分类保护制度,进一步深化数据收集和使用规范。考虑到教育数据种类丰富,需要提前布局数据安全保护体系,形成数据使用规范,以确保个人隐私数据不被滥用和泄露。其次,规范训练数据集质量,增强教育数据的真实性、准确性、客观性和多样性。②制定法规条例约束技术服务提供者、学校、教育机构等主体,为智慧教育发展提供监管措施,使问责追溯有法可依。首先,技术快速演进、法律法规相对滞后的情况会引发一系列社会问题和伦理挑战,相关政策以及问责机制的建立,能够推动教育资源共享与整合,对违反伦理准则的行为进行严肃追责。其次,智慧教育的发展涉及众多利益相关者,需要跨界协同应对技术伦理风险,教育部门应呼吁社会各界多方合作,在新技术规模化应用前联合各方开展应用试点,形成共识并共同行动,在追求跨界协同的同时打破各方责任壁垒。
4 保障教育系统间数据的有序流动
各教育系统间需要规范数据标准和共享机制,保障数据的健康流动。教育数据标准是实现教育系统间数据流动的基础,数据共享机制是促使教育系统间数据健康有序流动的保障。不同教育系统间的数据互通共享和整合分析需要数据具备统一的格式规范和共享机制,以增强数据互操作性和跨部门汇聚流通的能力。教育领域存在大量的基础数据,但由于多数教育单位在建设信息管理系统时仅考虑本单位的使用情况或仅满足纵向业务需求,数据在跨部门互通时存在编码、格式和质量的差异,致使不同数据源之间出现融合障碍,且在跨层级交换时流程烦琐,增加了共享成本,滋生安全隐患[39]。因此,通过数据标准化实现“统一标准”和“一源多用”,是实现教育数据保护和安全共享双赢局面的重要手段。
5 重视师生数字素养的培养与提升
师生是智慧教育的实践者和教育数据的重要产生来源,提升其数据隐私保护的伦理意识和合理使用技术的技术素养有助于防范技术伦理风险造成不良后果:①师生需要培养技术素养和伦理意识,积极应变,以确保智能教育产品在教学活动中的合理应用。例如,教师需要积极参与教学培训以掌握相关技术知识与技能,了解智能技术教育应用中的局限性和伦理风险,培养对智能技术引入教学环节的审慎态度,避免技术的过度和不当使用;学生则需要培养隐私保护意识,发展批判性思维能力。②师生需要在实践中挖掘有效技术整合教学的模式和经验,主动求变,培养自身对人机协同教学环境的适应性,并提高智慧教育场景下的人机协同能力。
参考文献
[1]杜静,黄荣怀,李政璇,等.智能教育时代下人工智能伦理的内涵与建构原则[J].电化教育研究,2019,(7):21-29.
[2]胡小勇,黄婕,林梓柔,等.教育人工智能伦理:内涵框架、认知现状与风险规避[J].现代远程教育研究,2022,(2):21-28、36.
[3][11]UNESCO. Beijing consensus on artificial intelligence and education[OL].
[4]UNESCO. Recommendation on the ethics of artificial intelligence[OL].
[5]白钧溢,于伟.超越“共识”:教育人工智能伦理原则构建的发展方向[J].中国电化教育,2023,(6):9-17、24.
[6]黄荣怀,刘梦彧,刘嘉豪,等.智慧教育之“为何”与“何为”——关于智能时代教育的表现性与建构性特征分析[J].电化教育研究,2023,(1):5-12、35.
[7]张永波.智慧教育伦理观的建构机理研究[J].中国电化教育,2020,(3):49-55、92.
[8]李建华.伦理与道德的互释及其侧向[J].武汉大学学报(哲学社会科学版),2020,(3):59-70.
[9]赵磊磊,张黎,代蕊华.教育人工智能伦理:基本向度与风险消解[J].现代远距离教育,2021,(5):73-80.
[10]国务院.国务院关于印发新一代人工智能发展规划的通知[OL].
[12]UNESCO. Artificial intelligence in education: Challenges and opportunities for sustainable development[OL].
[13]OECD. Trustworthy artificial intelligence (AI) in education: Promises and challenges[OL].
[14]UNESCO. AI and education: guidance for policy-makers[OL].
[15]The University of Buckinham. The ethical framework for AI in education[OL].
[16]U.S. Department of Education, Office of Educational Technology. Artificial intelligence and the future of teaching and learning[OL].
[17]UNESCO. Generative AI and the future of education[OL].
[18]杨俊锋,施高俊,庄榕霞,等.5G+智慧教育:基于智能技术的教育变革[J].中国电化教育,2021,(4):1-7.
[19][36]黄荣怀,刘德建,阿罕默德·提利利,等.人机协同教学:基于虚拟化身、数字孪生和教育机器人场景的路径设计[J].开放教育研究,2023,(6):4-14.
[20]Sharkey A J C. Should we welcome robot teachers?[J]. Ethics and Information Technology, 2016,18:283-297.
[21]Beran T N, Ramirez-Serrano A, Kuzyk R, et al. Understanding how children understand robots: Perceived animism in child-robot interaction[J], International Journal Human-Computer Studies, 2011,(7-8):539-550.
[22]UNESCO, COMEST. Report of COMEST on robotics ethics[R]. Praris: UNESCO, 2017:33.
[23]卢宇,薛天琪,陈鹏鹤,等.智能教育机器人系统构建及关键技术——以“智慧学伴”机器人为例[J].开放教育研究,2020,(2):83-91.
[24]黄荣怀,刘德建,焦艳丽,等.互联网教育服务产业研究报告[R].北京:互联网智能技术及应用国家工程实验室,2017:4.
[25]韦妙,何舟洋.本体、认识与价值:智能教育的技术伦理风险隐忧与治理进路[J].现代远距离教育,2022,(1):75-82.
[26]刘三女牙,杨宗凯,李卿.教育数据伦理:大数据时代教育的新挑战[J].教育研究,2017,(4):15-20.
[27]孙立会.人工智能之于教育决策的主体性信任危机及其规避[J].电化教育研究,2023,(3):21-27、43.
[28]United States Government Accountability Office. Data security: Recent K-12 data breaches show that students are vulnerable to harm[OL].
[29]沈书生.聚焦学习决策:指向认知发生的数据及其应用[J].电化教育研究,2021,(11):13-19.
[30]蒋艳双,崔璨,刘嘉豪,等.教育领域中的情感计算技术:应用隐忧、生成机制与实践规约[J].中国电化教育,2022,(5):91-98.
[31]高媛,刘德建,黄真真,等.虚拟现实技术促进学习的核心要素及其挑战[J].电化教育研究,2016,(10):77-87、103.
[32]孙田琳子.虚拟现实教育应用的伦理反思——基于伯格曼技术哲学视角[J].电化教育研究,2020,(9):48-54.
[33]沈阳,逯行,曾海军.虚拟现实:教育技术发展的新篇章——访中国工程院院士赵沁平教授[J].电化教育研究,2020,(1):5-9.
[34]吴砥,李环,陈旭.人工智能通用大模型教育应用影响探析[J].开放教育研究,2023,(2):19-25、45.
[35]中国网信网.生成式人工智能服务管理暂行办法[OL].
[37]张誉元,张海.数据生命周期视阈下教育数据伦理问题及规约之径[J].中国电化教育,2022,(10):118-125.
[38]赵磊磊,陈祥梅.数智时代教育大数据风险:表征样态与化解路向[J].贵州师范大学学报(社会科学版),2022,(2):72-82.
[39]杨琳,王炜,诸纪,等.面向数据共享的教育数据标准体系研究与建设实践[J].大数据,2020,(6):3-13.
文章引自:黄荣怀,张国良,刘梦彧.面向智慧教育的技术伦理取向与风险规约[J].现代教育技术,2024,34(02):13-22.
来源 | 现代教育技术杂志