ChatGPT横空出世,不难想象,不久的将来,公司经理只要按一下按钮或者对语音机器人发个指令,就可以将一个粗略的文档转换成优雅的演示文稿,而无需劳烦公司文秘。这无疑颠覆了我们早已熟稔于心的工作场景。
不论是这一次人们对ChatGPT的担忧,还是科学大神泰格马克的失算,在突破性技术发展的规律层面有其缘由。简单地讲,就是由于预训练大模型的规模效应,使得ChatGPT和类似软件能够预测一切句子中的下一个词,从而涌现出令人难以置信的连接词语的能力。
人们之所以对ChatGPT这一波突破性进步感到震撼,一个重要原因就是,人们一开始并不那么相信这种将语言拼凑起来的技术路线。但毋庸置疑,ChatGPT的确在生成合乎语法的流利的语言方面有着上好的表现。由此,不难得到的一个教训是,很多颠覆性技术发展的路线,往往未必符合人们一贯和事先的认知。
近10年来,从深度学习到生成式人工智能的发展,尤其说明了这一点——对人工智能应该是怎样的智能,人们的一般性认知与人工智能突破性创新所交付的智能形式之间,存在某种落差。因此,说到对ChatGPT等生成式人工智能的态度,不论事先是否有所觉悟,不论原先处在什么位置和赛道,都应该看到其所带来的颠覆性影响。也就是说,我们要将其视为引领未来的知识引擎,积极拥抱这一波人工智能淘金热。
人类有能力理清ChatGPT治理思路
一位阿尔茨海默症领域的研究人员的看法是,ChatGPT对于了解生物医学某个领域的概况,还是很有帮助的,但是不能涉及到具体数据和实验方法。与此同时,使用这些医学类的生成信息需要人工把关,一个很大的问题是,ChatGPT目前无法识别对错。他曾经对ChatGPT说:2023年是农历狗年,请写一段祝福语。然后ChatGPT就照做了,然而,2023年实际上是兔年。
为了验证其可靠性,我问ChatGPT:一个90岁的房颤病人,多发微出血,梗死直径小于1.5cm,什么时候抗凝合适?
它很快输出了以下这段话:对干一个90岁的房颤病人,有多发微出血,梗死直径小于1.5cm的情况,决定是否启用抗凝治疗需要评估多重因素,包括患者的总体健康状况、梗死的位置和大小,以及与抗凝治疗相关的风险和潜在的副作用。在考虑抗凝治疗的情况下,年龄较高的患者可能面临更高的风险,因此需要与专业的医生或卒中专家进行详细咨询。患者的健康状况和其他因素,如药物过敏史和与抗凝药物相关的其他疾病,也应该考虑。
它的回答看起来“一本正经”,但细看又是毫无意义的空话。
而AI在医学伦理方面的问题也值得关注。就在上周末,一家线上心理健康公司因为使用GPT-3技术开展心理咨询服务而在网络上引起愤怒,因为患者并没有得到知情同意——他们不知道得到的回复是由机器人创建的。
前述《柳叶刀》的最新文章指出,必须考虑这项技术的可接受性,特别是患者的可接受性,对医疗护理的非人性化担忧可能会导致对AI的抵制;另一方面,虽然在家里问聊天机器人一些琐碎的问题可能不会有什么后果,但不正确或不充分的药物等信息会极大地影响患者的治疗。
是的,ChatGPT自己也说:我通过训练学到了关于医学的一些知识。但是,需要指出的是,我是一个人工智能模型,不能代替专业的医生或医疗保健提供者。如果您有严重的健康问题,请咨询您的医生。
有研究者担心在ChatGPT等生成式人工智能的新一波创新竞赛中,会不会步搜索引擎、社交媒体和大数据商业的后尘,使得诚信、隐私、知识产权等伦理和法律上的权利和基本的价值观沦为牺牲品。
如何有效应对这一问题呢?以往的数字治理和人工智能治理的思路,在ChatGPT浪潮下还适用吗?
必须指出的是,ChatGPT等生成式人工智能的实质,是知识生产方式的革命,既是对知识、学习和创造的重新定义,也必然带来对人类智能和机器智能的重新理解。
而在对海量文本数据集的学习之上,ChatGPT形成的预测和关联知识,其实质是将人类已有的群体知识连接在一起的自动化媒介。
由此,在ChatGPT浪潮中,当我们准备一拥而上之时,有必要先对相关问题做一番深度思考,也有能力理清思路,拿出应对办法。
发展应强调边界思维和变通智慧
ChatGPT这种基于人类群体知识和记忆的知识生产方式,必然与既有的主要基于个体知识与记忆的知识生产方式产生冲突。ChatGPT对海量的文本数据集等数据的高度依赖,在其拼凑式的知识构造过程中,也必然会带来难以化解的价值观念层面的冲突。
因此,我们应设法防范其中的极端恶劣情况,但慎用普遍性的信息审核机制。鉴于ChatGPT涉及的艺术作品集、代码集,必然会与原有的知识产权等权利相冲突,也亟待建立新的社会契约和法律制度。
ChatGPT目前的成功主要是技术上的,我们在拥抱其带来的机遇的同时,也要进一步追问这一技术对人类知识与智能和机器知识与智能的内涵的冲击。
与深度学习的相关性知识和智能类似,这种生产性的知识和智能都是预测性的,而其预测性是建立在已有的知识之上的。
也由此可见,我们在拥抱这类机器智能的同时,应该看到人类智能目前独有的推理、反思和对创造方式本身的创造等能力,这也应该成为当下人类努力增强的方向。
面对ChatGPT等生成式人工智能的巨大红利与空前弊端共存的现状,也需要以技术创新同步的速度制定相应的政策,在伦理、法律和教育上引入动态的治理机制。
在此过程中,最需要的是实时的政策与机制创新,尤其应强调边界思维和变通智慧。
一方面,抓住最坏的问题,如欺诈等犯罪予以遏制,同时要认识到海量文本数据集正在成为一般的知识生产要素,在内容审核方面应适当放宽,使其更充分地发挥知识生产的潜能。
另一方面,也要考虑到新旧知识生产方式的过渡性策略,相关政策和治理机制应致力于调和知识生产方式转换所带来的摩擦。
例如,在教育领域,可以采取基础教育阶段与自动写作技术相对隔绝的政策,以此促进青少年表达和创造力的养成。
生成式人工智能似乎已经通过了图灵测试,但人类智能的独特性在于可以随环境和机器的变化而改变。因此,图灵测试不是一次定终身的高考。这也是因为,我们总是可以移动人与机器智能分野的图灵边界。
总之,面对ChatGPT这突如其来的新物种,我们不要轻易坠入其“美丽新世界”,而要用人类独有的智慧,让它带着我们飞!
当强人工智能时代来临,我们教育还有意义吗?
因为,ChatGPT这次威胁的是:一般脑力劳动者!
你鸡的娃,从小学到中学到大学,十几年寒窗苦读,结果可能一夜间被人工智能淘汰。
以考试能力训练为核心的升学通道,在人工智能时代将越来越狭窄。老母亲,还在纠结今天娃学会了几道奥数题,背了几个单词,又学了几篇小古文?但是,这些年牺牲了美好童年换来的考试技能,恰恰是会被强人工智能分分钟碾压的能力。
我们的教育过度注重的是知识记忆、计算与解题技巧训练,缺少创作性思维、好奇心和人文素质的培养。人工智是考试训练的天敌,最擅长记忆和计算,孩子十多年的学习和努力无非是在做计算机可替代的重复工作。
未来,我们的孩子真正的竞争对手,不是他们的同龄人,而是强人工智能!
ChatGPT已来,未来已来……