在教育界,当前对ChatGPT的关注固然有一部分原因是它所能带来的教育创新,但更多的原因是ChatGPT同时也在冲击着教师的角色定位,推动着人才培养目标的转型,逼迫着学生和教师走出舒适区。况且,ChatGPT还不断诱发教育中的技术依赖、学术滥造、智能歧视等问题,并将在一定程度上打乱传统的学校秩序。诺瓦东南大学的哲学系教授杰里米•魏斯曼(Jeremy Weissman)近期评论道:“ChatGPT可能将会给教育带来一场瘟疫。”(Weissman,2023)这话虽然有点危言耸听,但的确也在提醒我们必须慎重考量ChatGPT在推动教育创新的进程中可能带来的风险与挑战。
(一)冲击教师角色定位,倒逼教师快速提升能力
尽管ChatGPT等人工智能应用产品在数据处理方面要明显优于人类,但作为一种基于数据训练的技术科学,它们虽具备知识基础、推理能力和表达能力,但并不具备自我意识,在面对情感交流、人文关怀等非预设性问题时还无法展现出超越人类教师的创造性与独特性,因而人工智能始终无法真正取代教师。不过,这并不足以说明教师职业仍安全无忧,我们还要重视人工智能对教师角色定位造成的冲击。首先,教师应该正确看待人工智能技术。一项对于1192名教师的问卷调查显示,当前中小学教师(尤其是50岁以上教师)的人工智能焦虑情绪偏高,他们普遍认为人工智能在教育领域的广泛应用将威胁到他们的工作(赵磊磊等,2022)。这种抵触性的技术观念将不利于教师们利用人工智能帮助自己从机械重复的教育劳动中解放出来,也会使学生在耳濡目染之下对新型技术产生排斥心理。其次,教师应该重新定位自身的职业价值。教师将不得不逐步接受人工智能技术在知识教学方面所具备的优势,并且有必要将“经师”角色让渡于人工智能技术,着重思考如何增强自身作为“人师”的价值,帮助学生领悟人工智能所带来的思维模式、信任机制的变化。正如雅斯贝尔斯所言,教育要使学生“自由地生成,并启迪其自由天性”,不仅需要“知识内容的传授”,还需要“生命内涵的领悟、意志行为的规范”(雅斯贝尔斯,1991,第3页)。
已有研究表明,我国中小学教师的信息素养还不是很理想,尤其是在信息甄别意识、信息技术应用层次、信息化教学创新水平等方面(吴砥等,2020)。未来,人工智能的推广应用必将在短期内对教师的能力提出新要求。教师不仅应该能够借助ChatGPT等产品开展行政工作、完善教学设计、形成教研成果,能更为便捷地完成教学方案、研究设计、工作报告等等,还应该有能力识别学生所给出的答案是从人工智能平台复制粘贴的,还是自己对已有信息进行批判性分析后生成的。人工智能的生成式特性还将改变师生的互动方式,这也会对教师的沟通交流能力、反思实践能力提出更高要求。比如过去习以为常的口耳相传、手眼相观的“人—人”交流将更多地被“人—机”“人—机—人”的交流所替代,教师需要避免将原本智慧融合、思想碰撞、情感交织的教育过程简单化地变成套路固定、形式简单、内容枯燥的“程序性对话”,避免将课堂教学停留在“提问→回答”的形式交流层面(刘伟,谭维智,2022)。比如ChatGPT虽然可以提供强大的文本生成功能,帮助教师撰写教学方案、实践案例、作业设计,但是教师不能因此放松对自身专业发展的要求,还是要坚持对教学实践进行反思,通过不断的价值反思、教学反思、学术反思改善自身的教学质量(杨帆等,2022)。
(二)推动培养目标转型,但是容易导致技术依赖
2023年,联合国贸易和发展会议(UNCTAD)官网上的一篇文章指出,“ChatGPT这样的工具带来了熟练和半熟练工人失业的真实风险”,而对于数据分析师、软件和应用程序开发人员等创新性劳动岗位的需求将会提高(UNCTAD,2023)。随着越来越多重复性、程序化的工作岗位被ChatGPT取代,其相应带来的“技术性失业潮”将迫使过去以知识能力为目标的人才培养模式向复合型人才培养模式转型。这意味着学校的育人价值将弱化知识传授、技能培训甚至是定向培养的标准化色彩,而开始着重培养能够凸显学生个性化优势的品质。第一,创新品质的培养。这方面已经讨论过的素养有很多,未来可能会更多,比如问题意识、批判性思维、创造性行动、自主性诉求、科研领导能力等等,这是学生拥抱个性化发展的基础,也是当前学校教育已经在着力追求的(朱永新,2020,第74页)。第二,情感品质的培育。这是人工智能技术永远无法自主形成的,更是无法向使用者提供的。第三,道德感、价值观的培养。学校要让学生形成对生命、技术、社会、国家乃至世界的道德底线和价值追求,只有这样,新型技术才会被健康合理地使用。第四,人工智能相关品质的培养。比如对人工智能的观念态度、甄别使用、评价素养以及技术创新等等,这些品质很容易被忽视,但却是至关重要的。人对于新型技术的使用并不是与生俱来的,过去个人电脑、互联网、手机等的发明和使用经历告诉我们,学校有责任教会学生如何与人工智能共存,以便更好地应对新型技术所带来的社会变化。
人工智能技术的深入应用,让我们不得不警惕学习者是否会像在使用计算机、手机时那样形成技术依赖甚至达到成瘾水平,从而使教育目标背离初衷、使人的身心发展不够全面。我们现在尚不可以武断地判定人工智能技术一定会造成严重的滥用问题,但就近几个月的案例来看,一些弊端还是值得预防和关注的。第一,学生会使用人工智能技术代写作业。ChatGPT智能化的知识搜索、逻辑分析、内容创作等功能可以帮助学生轻松获得学习素材、解决学习问题甚至完成大量学习任务,这会直接撼动教师与学生之间所建立的以学生自身成长为目标的信任关系的基础。第二,人工智能技术在提高学生学习效率的同时,也在减少学生深度思考的机会、弱化学生学习迁移的能力。比如学生可以很容易地使用ChatGPT检索到知识或者操作步骤(如数学公式、编程语句等),但停留于“只知其然而不知其所以然”的低水平认知阶段,无法将其应用于具体场景中,这就会导致学生难以自主地将碎片化的外部知识内化为系统化的个人知识,难以形成体系化的知识结构。第三,过度使用人工智能产品,会使学生形成强调技术理性、追求效率本位的功利性价值观,关注学习结果、忽视学习过程,难以发展出独特新颖的思维方式、正向积极的人格情感以及问题解决能力等创新型人才应该具备的重要素质(侯浩翔,2019)。第四,人工智能拟人化的陪伴模式会导致比过去网络成瘾更为严重的情感成瘾问题,使学生长时间、习惯性地沉浸于人工智能世界,而拒绝与真实生活中的同学师长互动交流,这对于学生的自我意识、心理健康、习惯养成、社会交往等等方面都是有危害的。
(三)引发学术论文滥造乱象,扰乱传统学校秩序
在以原创为追求的学术领域,解决ChatGPT所带来的知识产权问题显得更迫在眉睫一些,比如如何避免科研人员借助这一技术捏造结果、重复提交、抄袭内容等等。此外,如果科研人员依托人工智能技术生成论文,他和他所在的机构是否具备出版物的所有权?这也是当前争论不休的问题。虽然在ChatGPT发布之初,曾出现以ChatGPT为署名作者发表论文的情况,但在近期,世界各主要期刊陆续释放出一些拒绝的声音。全球权威学术期刊Science的主编H.霍尔顿•索普(H. Holden Thorp)结合自己在乔治华盛顿大学的授课经历,提出:虽然ChatGPT可以很好地辅助学习,比如帮助学生搜集学习资料,但是将其应用到学术写作中的效果还是有待提高的。加之对学术原创性的重视,索普主编拒绝接受任何基于ChatGPT或其他人工智能工具生成的文本、图形、图像,更不会同意人工智能程序成为作者。不过,Science这样做的前提是编辑部先要能够准确地将ChatGPT生成的语料检测出来(Thorp,2023)。索普主编的观点可能代表了当下大部分期刊主编的态度,但是我们依然要肯定ChatGPT可以为科研人员提供的便利,比如可以利用它对学术作品进行润色,提高论文的可读性,还可以帮助非英文母语的科研人员进行学术翻译,或者辅助论文综述撰写、选题头脑风暴等等。
除了学术滥造之外,ChatGPT还会引发学生抄袭剽窃、考试作弊以及教师不安心备课、不认真准备教案等问题,这无疑是对传统学校秩序的一种破坏。对于这些问题的判定,其根本依据在于如何看待基于数据库所整合出的成果,尤其是这些成果是否具备独立性和创新性?这些成果是否缺乏对数据原作者的尊重和保护?用户是否会在无法辨别资源来源的情况下无意识地产生抄袭剽窃行为?当前,这些问题尚处于悬而未决的阶段,但是在没有找到更好的解决方案之前,我们应该一以贯之地守护传统学校教育几百年来才得以树立的伦理规范。近几个月,为了缓解ChatGPT所带来的教育秩序问题,美国纽约公立学校已经明确宣布通过设立防火墙的方式禁止师生使用ChatGPT(Lukpat,2023),澳大利亚维多利亚州教育部也已经禁止18岁以下的学生访问ChatGPT(Jaeger,2023),国内外的许多知名高校也明令禁止在课堂、作业和评估中使用ChatGPT等AI工具。这些禁令代表着在制定或修订相关政策和法规之前,这些地区将永久或暂时地限制使用ChatGPT,以防人工智能技术对学校教育造成伤害。
(四)存在智能歧视弊端,造成教育与社会不公平问题
当前ChatGPT等人工智能技术的应用结果非常受制于预训练所用数据集的内容、语言等因素,对特定行业或地域的适用性不强,很有可能会导致智能歧视问题。比较典型的智能歧视弊端,一是对话内容上的歧视问题。由于训练ChatGPT的数据集主要来自非专业书籍、社交媒体、Wikipedia,而相对缺乏学术论文、专业著作等数据资料,因此它目前支持的简单日常聊天无法准确、深度地处理特定行业术语或语法成分复杂的句子,也不能很好地解决医疗、教育、法律、金融等领域的问题。二是对特定人群的歧视问题。比如当用于训练语言模型的数据包含对特定人群的偏见时,ChatGPT的回答也会隐含刻板印象或歧视倾向,会对特定群体(尤其是残疾者、不同肤色者、贫困人口等少数群体)做出不公平的预测或产生不道德的影响(Zhuo et al.,2023)。三是人为造成的歧视问题。已有研究发现,虽然ChatGPT不会承认自己存在歧视倾向,但是开发者可以借助ChatGPT设计出含有种族歧视等价值涉入的程序,比如要求ChatGPT根据性别、地域、种族等信息决定是否接收不同人员的求职申请(Choi,2023)。由于这些技术限制或者人为因素导致的歧视问题,我们在教育场景应用此类产品时必须谨慎,一方面要将人工智能技术与现代教育思路方法尽可能地结合起来,另一方面要加强对基于人工智能技术的教育活动的风险管控和伦理审查,确保教育过程的公平性、科学性和统一性。
人工智能技术广泛应用的另一层担忧在于它对发展中国家可能会是一把双刃剑。虽然比尔•盖茨(Bill Gates)在2023年3月21日的博客中专门强调ChatGPT在确保学生取得数学成功、降低幼儿患病死亡率等问题上的优势,认为这一技术是解决教育不平等问题的利器,并强调他会将减少不平等问题作为自己在AI领域的重要工作任务。但我们必须清醒地认识到,当前人工智能技术的推广对于大量发展中国家依然是不够友好的。比如目前正处于免费使用“研究预览”阶段的ChatGPT,并没有向发展中国家提供充分训练的机会,这一方面固然受到发展中国家人工智能技术和基础设施等方面现实短板的限制,但更核心的原因在于ChatGPT的预训练并没有充分尊重发展中国家的教育制度和文化结构,这些问题必然会导致ChatGPT在发展中国家教育领域的应用效果不够理想。《非洲商业》在2023年2月刊出的一篇题为《ChatGPT与非洲AI未来》的文章中指出,受到撒哈拉以南非洲地区的人口、出版物等数据文本资源匮乏的限制,发达国家的文本实际上在ChatGPT的预训练数据中被过度代表,这很容易导致ChatGPT的输出会进一步强化西方文化以及意识形态的霸权(Komminoth,2023)。在尚无法完全普及人工智能技术的国家,ChatGPT带来的教育不公问题可能更多,比如一个有条件使用ChatGPT的学生可以借助它生成高质量的书面作业,从而轻松获得更高的学业评价以及发展上的优势,而没有条件接触ChatGPT的学生则需要付出更多的努力。