ChatGPT引发全社会各行各业对人工智能持续保持高度关注。它已经改变了很多行业,接下来还将改变哪些领域,或者它一定不会改变什么,都是人们思考的热点。
人工智能的快速发展,给图书出版业也带来诸多影响。从积极的角度来说,在出版的上游内容生产环节,人工智能数据分析可以高效帮助编辑人员更精准策划出版选题,帮助人类承担对内容进行校对的繁琐工作,等等。但是,它带来的挑战也不容忽视。尤其是当ChatGPT参与创作型的内容生产,给人类写作者、内容出版者、编辑者带来诸多挑战,比如作品的原创版权在人与机器之间如何界定,如何保证人工智能参与内容生产的准确性等等。
7月21日,第33届香港书展迎来第三天。封面新闻记者在现场观察到,人工智能给出版业带来的影响,也成为本届书展上的一个话题热潮。在书展图书展位上,关于人工智能的图书被摆放在显眼位置上。20日在演讲区举办的“国际出版论坛”上,一场名为“人工智能ChatGPT颠覆图书出版业?”的讨论,吸引众多读者聆听并参与讨论。在这场论坛上,来自剑桥大学出版社亚洲区的相关负责人,跟出版相关的法律界资深从业人士以及来自一线出版机构的管理人员,分享了他们在各自领域对人工智能的观察、应对之道。
不断提高AI技术的同时
要继续恪守伦理和道德的准则
剑桥大学出版社亚洲区相关负责人潘群在分享中提到,剑桥大学出版社已经拿出相关的规则,来表明对AI参与创作的应对态度,“像ChatGPT这样的AI是很好的减少认知负荷的工具。我们的主管鼓励同事们和作者们去尝试使用AI,提高工作质量和效率。但有一个前提是:使用得当。尽量保障使用AI所产生的信息具有原创性和精确度,以及使用过程的透明度。这是我们的价值观,在AI时代依然会遵守。在不断提高AI技术的同时,伦理和道德的准则我们要继续恪守。”
对于透明度,潘群进一步解释其具体内涵,“就是作者要有申报意识,如实透露在创作过程中,如何使用、大概使用了多少AI成分。”
潘群提到,剑桥大学出版社以高质量出版内容著称,所以要求作者提供的信息、知识具有高度的准确度。他提醒大家,不要想当然地认为AI提供的信息一定是准确的,对它提供的信息,不要过度依赖,要用人脑对之进行判断。
潘群还提到,人类在对像ChatGPT这样的人工智能大型语言模型进行培训、提升之时,一定要注意监管不能给它“喂进”误导性、侵犯性的信息、造假的信息,“因为这会导致它越来越不靠谱。”
AI的工作效率在很多领域的确比人类高。比如客服聊天框,以前是真人回复,现在很大一部分都被AI取代了。潘群还提到,AI在教育事业中的应用将带来很多好处,比如只有一部分人才请得高质量的真人家教辅导服务,对于一些收入中低水平家庭的孩子来说,付费成本较低的人工智能就可以帮助他们,获得较好的在线教育辅导服务。
ChatGPT将来能取代人脑吗?人类存在的独特性何在呢?潘群总结了他的思考,“人的独特价值会一直存在。人和人制造、培训出来的AI会是共同发展、互相帮助的关系,而不是彼此取代、你死我活的关系。”
相关领域要及时制定规则跟上AI发展
同时也要保护人类作者
法律博士何天翔在论坛中首先分享了他使用ChatGPT的体验,“它产出的语言文字质量很高,我觉得我写的文章,都没有它写得好。比如我要给教授写一封邮件,我自己写的平平无奇。但机器帮我写的就好多了,而且没有拼写错误。AI可以被不断培训,比如被培训写高质量的文学批评,更灵活地适应不同的读者群。”此外,何天翔还提到,人类可以利用AI定制内容,在客服行业大有作为,“因为客服行业很多问题其实是很常见、雷同的问题。如果是人去一一回复,效率就比较低。但人工智能就很高效。”
谈到AI给出版业带来的影响,何天翔提到一个值得注意的点,“它写的文章可能很优美,但未必全部都准确,未必全部安全可靠。因为它有随意编造信息的可能。人类使用AI一定注意要对它的成果进行准确性核查。”
AI协助人进行创作,两者合作出产的作品中,人和机器的版权,如何厘清?机器对人类提供的语料做了怎样的处理,中间发生了怎样的变化?当下,普遍的做法是,版权拥有者必须是一个人,而不能是AI。如果一个人发表东西,用机器太多,版权侵权如何界定?这些都是比较复杂的问题。何天翔认为,培训AI的人必须小心谨慎,要有版权保护意识。否则长期下去,会出现法律问题。总体来说,全世界相关领域都要及时制定相应规则,跟得上AI的发展,同时也要以保护人类作者为主要宗旨。
本文来自:http://aieg.cn,欢迎与作者探讨您的观点和看法